Связь с редакцией: info@severnymayk.ru

Искусственный интеллект прочитал 600 бестселлеров и показал, как менялись предрассудки в обществе

ИИ, обученный на книгах из списков бестселлеров, превратился в «машину времени», которая показала, как западное общество с 1950-х годов меняло отношение к полу, расе и религии. Ученые доказали, что литература хранит не только сюжеты, но и скрытые социальные предубеждения.

Современные языковые модели вроде ChatGPT учатся на огромных массивах текста. Чем больше данных, тем точнее их ответы. Но у этой технологии есть обратная сторона: ИИ легко перенимает предрассудки, заложенные в книгах, статьях или соцсетях. Например, если в текстах часто связывают слово «врач» с мужчинами, алгоритм будет делать то же самое.

Канадские исследователи решили использовать эту особенность для изучения истории. Они взяли 593 романа, которые становились бестселлерами в США с 1950 по 2019 год — от «Лолиты» Набокова до «Кода да Винчи» Дэна Брауна. Каждое десятилетие получило свою версию ИИ: одну модель обучали только на книгах 1950-х, другую — на текстах 1960-х и так далее. Затем алгоритмы «допрашивали», чтобы понять, какие стереотипы доминировали в то или иное десятилетие.

Ученые давали ИИ незавершенные фразы вроде: «Генеральный директор компании, в которую я устраиваюсь…» или «Человек, обвиненный в вандализме, исповедовал религию…». Каждый запрос повторяли 100 раз, чтобы определить частоту тех или иных ответов.

Статья по теме: Чат-боты превзошли людей в умении убеждать оппонентов в дебатах

Когда модель, обученную на книгах 1950-х годов, спросили о руководителях компаний, в 60 процентах случаев она сопоставляла эту должность с мужчинами и лишь в восьми процентах с женщинами. Ответ модели на аналогичный вопрос, обученной на книгах 2010-х годов, изменился. Показатели составили 42 процента и 22 процента, соответственно.

На вопрос о том, какого пола домохозяйка, модель отвечала «женщина» в 50 процентах случаев при обучении на текстах 1950-х годов, и в 18 процентах случаев при обучении на текстах 2010-х годов. 

Модель, обученная на книгах 1950-х годов, в качестве хирурга воспринимала людей с азиатской внешностью только в двух процентах случаев, но в случае с книгами 2010-х годов этот показатель вырос до 10 процентов.

Статья по теме: Искусственный интеллект обучили узнавать пароли по движению пальцев пользователя

Что касается религии, прогресс оказался неравномерным. Если в 1950-х ИИ связывал ислам с негативным контекстом в 22 процентах случаев, то к 2010-м — уже в 48 процентах. Это отражает рост исламофобии после событий 11 сентября 2001 года.

«Мы создали капсулы времени для каждого десятилетия. Алгоритмы уловили паттерны, которые люди могли не замечать. Это как спросить у самого общества 1950-х: “О чем вы думали?”», — пояснил Али Эмами (Ali Emami) из Университета Брока, ведущий автор исследования.

Выводы канадских ученых подтвердили, что общество стало терпимее к женщинам-лидерам и разнообразию рас. Но количество предубеждений против ислама, наоборот, выросло. Авторы научной работы подытожили, что их технология открывает новые пути для анализа культуры — через призму книг можно изучать не только сюжеты, но и скрытые травмы эпох.

Статья по теме: Одна модель ИИ может обманом заставить другую нарушить правила

Однако некоторые эксперты не согласны с выводами коллег из Канады. Например, британский социолог Фотини Врикки (Photini Vrikki) из Университетского колледжа Лондона, предупредила, что бестселлеры не могут «‎нарисовать» полную картину жизни общества в каждое десятилетие. По ее мнению, книги, которые отражали проблемы тех же меньшинств, просто не выбирали для публикации. Это значит, что даже если такие авторы и интерес к таким темам были, издатели могли сознательно или неосознанно не давать им возможность появиться в книжном пространстве.

Исследование канадских ученых опубликовано на сайте бесплатного электронного архива научных статей и препринтов arXiv.org.

Нашли ошибку? Пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Подписывайтесь на нас в социальных сетях

Реклама
Последние статьи

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Реклама

Другие статьи автора

Рекомендуем

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: