Современные языковые модели вроде ChatGPT учатся на огромных массивах текста. Чем больше данных, тем точнее их ответы. Но у этой технологии есть обратная сторона: ИИ легко перенимает предрассудки, заложенные в книгах, статьях или соцсетях. Например, если в текстах часто связывают слово «врач» с мужчинами, алгоритм будет делать то же самое.
Канадские исследователи решили использовать эту особенность для изучения истории. Они взяли 593 романа, которые становились бестселлерами в США с 1950 по 2019 год — от «Лолиты» Набокова до «Кода да Винчи» Дэна Брауна. Каждое десятилетие получило свою версию ИИ: одну модель обучали только на книгах 1950-х, другую — на текстах 1960-х и так далее. Затем алгоритмы «допрашивали», чтобы понять, какие стереотипы доминировали в то или иное десятилетие.
Ученые давали ИИ незавершенные фразы вроде: «Генеральный директор компании, в которую я устраиваюсь…» или «Человек, обвиненный в вандализме, исповедовал религию…». Каждый запрос повторяли 100 раз, чтобы определить частоту тех или иных ответов.
Статья по теме: Чат-боты превзошли людей в умении убеждать оппонентов в дебатах
Когда модель, обученную на книгах 1950-х годов, спросили о руководителях компаний, в 60 процентах случаев она сопоставляла эту должность с мужчинами и лишь в восьми процентах с женщинами. Ответ модели на аналогичный вопрос, обученной на книгах 2010-х годов, изменился. Показатели составили 42 процента и 22 процента, соответственно.
На вопрос о том, какого пола домохозяйка, модель отвечала «женщина» в 50 процентах случаев при обучении на текстах 1950-х годов, и в 18 процентах случаев при обучении на текстах 2010-х годов.
Модель, обученная на книгах 1950-х годов, в качестве хирурга воспринимала людей с азиатской внешностью только в двух процентах случаев, но в случае с книгами 2010-х годов этот показатель вырос до 10 процентов.
Статья по теме: Искусственный интеллект обучили узнавать пароли по движению пальцев пользователя
Что касается религии, прогресс оказался неравномерным. Если в 1950-х ИИ связывал ислам с негативным контекстом в 22 процентах случаев, то к 2010-м — уже в 48 процентах. Это отражает рост исламофобии после событий 11 сентября 2001 года.
«Мы создали капсулы времени для каждого десятилетия. Алгоритмы уловили паттерны, которые люди могли не замечать. Это как спросить у самого общества 1950-х: “О чем вы думали?”», — пояснил Али Эмами (Ali Emami) из Университета Брока, ведущий автор исследования.
Выводы канадских ученых подтвердили, что общество стало терпимее к женщинам-лидерам и разнообразию рас. Но количество предубеждений против ислама, наоборот, выросло. Авторы научной работы подытожили, что их технология открывает новые пути для анализа культуры — через призму книг можно изучать не только сюжеты, но и скрытые травмы эпох.
Статья по теме: Одна модель ИИ может обманом заставить другую нарушить правила
Однако некоторые эксперты не согласны с выводами коллег из Канады. Например, британский социолог Фотини Врикки (Photini Vrikki) из Университетского колледжа Лондона, предупредила, что бестселлеры не могут «нарисовать» полную картину жизни общества в каждое десятилетие. По ее мнению, книги, которые отражали проблемы тех же меньшинств, просто не выбирали для публикации. Это значит, что даже если такие авторы и интерес к таким темам были, издатели могли сознательно или неосознанно не давать им возможность появиться в книжном пространстве.
Исследование канадских ученых опубликовано на сайте бесплатного электронного архива научных статей и препринтов arXiv.org.