Как искусственный интеллект влияет на наши политические решения

10 просмотров
Как искусственный интеллект влияет на наши политические решения

Убеждение уже давно считается уникальным человеческим умением. Но с появлением языковых моделей ситуация изменилась. Искусственный интеллект сегодня может не только поддерживать диалог, но и выстраивать аргументы на сложные темы, в том числе политические. В новом материале а рассказывается о том, как ИИ участвует в процессе убеждения и что показывают исследования.

Одно из самых известных исследований в этой области провели ученые Стэнфордской высшей школы бизнеса и Стэнфордского института человекоцентрированного искусственного интеллекта. Они проверили, насколько способен ИИ убедить реального человека поддержать политическую инициативу.

В эксперименте участникам предлагалось прочитать аргументированные сообщения по спорным вопросам (контроль над огнестрельным оружием, налог на выбросы углерода, оплачиваемый отпуск по уходу за ребенком и т. д.) без указания источника текста. Результат оказался неожиданным: тексты ИИ в целом оказались не менее убедительными, чем тексты, написанные людьми. Это показывает, что в контролируемых условиях тексты, генерируемые ИИ, могут оказывать сопоставимое влияние на восприятие политических аргументов.

В исследование вошли три заранее зарегистрированных эксперимента с участием почти пяти тысяч американцев (общая выборка около 4836 человек). Результаты показали, что сообщения LLM могли вызвать измеримые изменения в отношении участников к политическим вопросам, и эффект был сопоставим с эффектом, достигнутым от текстов, созданных непрофессионалами. Отдельно исследователи подчеркнули, что респонденты чаще называли человеческие тексты убедительными из-за историй и личного опыта, а тексты ИИ — из-за их логики и четкой структуры.

Может ли искусственный интеллект предсказывать будущее?

Реакция на источник

Другое исследование, опубликованное в журнале Scientific Reports, было посвящено тому, как люди воспринимают источник сообщения. Ученые заметили важную закономерность: реакция людей на текст зависит от того, думают ли они, что он написан человеком или искусственным интеллектом. Когда участникам говорили, что текст был создан искусственным интеллектом, а не человеком, люди с большей вероятностью были более открыты для аргументов, даже если они представляли контраргументы своим собственным убеждениям.

Это наблюдение коррелирует с психологическими теориями: люди склонны сопротивляться, когда чувствуют, что ими манипулируют, а ИИ как источник воспринимается как более нейтральный участник разговора. Таким образом, знак авторства может усилить или, наоборот, ослабить эмоциональные барьеры восприятия.

Личное общение с ИИ

Еще одно крупное исследование, опубликованное на сайте EurekAlert! платформа, проанализировала реальное взаимодействие между людьми и чат-ботами с искусственным интеллектом. В трех крупномасштабных контролируемых экспериментах приняли участие около 77 000 человек, участвовавших в разговорах с использованием 19 различных языковых моделей, от небольших моделей с открытым исходным кодом до самых мощных систем.

Ученые хотели понять, как различные факторы — размер модели, методы постобучения и способы обучения команд — влияют на убедительность ИИ. Оказалось, что целенаправленные методы обучения и корректировка заданий иногда повышали убедительность на десятки процентов. Однако более агрессивное обучение для увеличения влияния часто снижало реальную точность утверждений, что ставило исследователей перед этической дилеммой: чем убедительнее ИИ, тем больше вероятность того, что он будет использовать неверные данные.

В чем опасность ИИ в контексте политической повестки дня?

Если искусственный интеллект сможет создавать убедительные аргументы по социально значимым темам и считаться надежным источником, это открывает путь к широкомасштабной автоматизации политического влияния. С одной стороны, подобные технологии можно использовать для распространения объективной информации, повышения политической грамотности и борьбы с манипуляциями. С другой стороны, они создают условия для быстрой и дешевой генерации миллионов политических сообщений, что увеличивает риск дезинформации и манипулирования массовым сознанием.

Вопрос регулирования таких технологий остается предметом дискуссий. Исследователи подчеркивают, что не существует универсальных механизмов, которые могли бы одновременно ограничить потенциальные злоупотребления и сохранить возможности для законного использования ИИ.

Ранее мы рассказывали вам, какие технологии используются для предотвращения кибератак.