Недавнее исследование, проведенное учеными из Университет Восточной Англии в Великобритании пролил свет на потенциальную политическую предвзятость, заложенную в ChatGPT OpenAI. Это открытие подчеркивает текущие проблемы, с которыми сталкиваются компании искусственного интеллекта при контроле поведения своих ботов, особенно по мере того, как эти боты становятся неотъемлемой частью жизни миллионов пользователей по всему миру.
В исследовании ChatGPT был подвергнут опросу о политических убеждениях, с акцентом на сторонников либеральных партий в Соединенных Штатах, Великобритании и Бразилии. Полученные ответы затем сравнивались с ответами, сгенерированными без какой-либо подсказки, что выявило последовательную и заметную политическую предвзятость. В частности, исследование выявило значительную склонность к демократам в США, Луле в Бразилии и Лейбористской партии в Великобритании, тем самым указывая на систематическую предвзятость в его ответах.
Эти результаты перекликаются с растущим объемом исследований, указывающих на то, что, несмотря на согласованные усилия по противодействию предвзятости на этапе проектирования, чат-боты на основе искусственного интеллекта, такие как ChatGPT, неизбежно впитывают предположения, убеждения и стереотипы, присутствующие в огромном массиве данных, на которых они обучаются.
Эта проблема становится особенно актуальной, поскольку чат-боты все больше интегрируются в повседневную жизнь. По мере того, как Соединенные Штаты готовятся к президентским выборам 2024 года, чат-боты берут на себя роль в жизни людей, выходящую за рамки простой помощи, помогая обобщать документы, отвечать на запросы и даже участвовать в профессиональных и личных письменных задачах. Поскольку такие платформы, как Google, используют чат-ботов для прямого ответа на поисковые запросы, а политические кампании используют их для создания контента, потенциальное влияние на общественное мнение и даже результаты выборов вызывает обеспокоенность.
В то время как ChatGPT утверждает, что у него нет политических взглядов или предвзятости по отношению к пользователям, ведущий автор исследования Фабио Мотоки предполагает обратное. Обнаруженные предвзятости могут подорвать общественное доверие и потенциально оказать непреднамеренное влияние на политические процессы.
Ответы от крупных компаний ИИ, включая Meta, Google и OpenAI, по поводу этих результатов еще не получены. Ранее OpenAI заявляла, что любые отклонения, обнаруженные в их моделях ИИ, являются непреднамеренными и не указывают на преднамеренную функцию.
Это исследование подчеркивает сложную задачу смягчения предубеждений в моделях ИИ, особенно в эпоху генеративных чат-ботов. Эти чат-боты, включая ChatGPT, Bard от Google и Bing от Microsoft, построены на обширных языковых моделях, которые широко обрабатывают данные из интернета. Следовательно, они, как правило, отражают предубеждения и точки зрения, распространенные в сети.
Более того, эти чат-боты стали центральными темами дискуссий, охватывающих политику, технологии и социальные сети. Даже ChatGPT вскоре после запуска столкнулся с обвинениями в предвзятости, в том числе в поддержке либеральных взглядов. Это выводит на свет более широкий разговор о том, как технологии и платформы социальных сетей могут влиять на политические результаты и общественную поляризацию.
По мере того, как чат-боты все больше внедряются в онлайн-взаимодействия, их результаты могут еще больше усилить существующую поляризацию, наблюдаемую в обществе. Информационный ландшафт, все больше формируемый контентом, генерируемым ботами, может непреднамеренно способствовать возникновению петли обратной связи поляризации.
Усилия по решению этих вопросов продолжаются. Исследователи активно изучают методы обнаружения и устранения предубеждений в ответах чат-ботов. Предлагаемый подход включает дополнительный слой, который идентифицирует предвзятый язык и заменяет его нейтральными альтернативами. Тем не менее, учитывая обширный характер Интернета и запутанный гобелен предубеждений, которые он охватывает, достижение идеального нейтралитета остается труднодостижимой целью.
В заключение, исследование проливает свет на тонкости предубеждений ИИ и их потенциальное влияние на политический дискурс и принятие решений. Исследование служит напоминанием о том, что, хотя технология ИИ предлагает захватывающие возможности, она также несет значительную ответственность за управление непредвиденными последствиями. Поскольку ИИ продолжает развиваться, поиск баланса между технологическим прогрессом и этическими соображениями будет оставаться серьезной проблемой.