Человеческий фактор потеснил ИИ в сфере манипуляции информацией

Законодатели, организации по проверке фактов и некоторые технологические компании пытаются бороться с новой волной дезинформации, генерируемой искусственным интеллектом, но, по мнению экспертов, эти усилия подрываются недоверием общества к институтам и общей неграмотностью в вопросах выявления поддельных изображений, видео- и аудиороликов в Интернете.

Человеческий фактор потеснил ИИ в сфере манипуляции информацией

Социальные сети и люди сделали так, что даже когда мы приходим, проверяем факты и говорим: «Нет, это фальшивка», люди говорят: «Мне все равно, что вы говорите, это соответствует моему мировоззрению», — говорит Хани Фарид, эксперт по анализу фальшивок и профессор Калифорнийского университета в Беркли.

«Почему мы живем в этом мире, где реальность кажется такой трудноуловимой?» — сказал он. «Это происходит потому, что наши политики, наши СМИ и Интернет разжигают недоверие».

Фарид выступил в первом эпизоде нового сезона сериала Bloomberg Originals «AI IRL».

Эксперты уже не первый год предупреждают о том, что искусственный интеллект может ускорить распространение дезинформации. Однако в этом году после появления нового поколения мощных генеративных ИИ-инструментов, позволяющих дешево и легко создавать визуальные и текстовые материалы, давление, требующее что-то предпринять, заметно усилилось. В США опасаются, что дезинформация, генерируемая ИИ, может повлиять на президентские выборы 2024 года. В то же время в Европе крупнейшие платформы социальных сетей в соответствии с новым законом обязаны бороться с распространением дезинформации на своих платформах.

Пока что масштабы и влияние дезинформации, генерируемой искусственным интеллектом, остаются неясными, но повод для беспокойства есть. На прошлой неделе агентство Bloomberg сообщило о том, что за несколько дней до голосования в Словакии, на котором было мало голосов, в Интернете распространялись вводящие в заблуждение поддельные голоса политиков, созданные искусственным интеллектом. Некоторые политики в США и Германии также поделились изображениями, сгенерированными ИИ.

Румман Чоудхури, научный сотрудник Центра Беркмана Кляйна по вопросам Интернета и общества при Гарвардском университете, ранее занимавший пост директора компании X, согласился с тем, что человеческая ошибка является частью проблемы в борьбе с дезинформацией.

«Могут быть боты, могут быть злоумышленники, — сказала она, — но на самом деле очень большой процент фальшивой информации в Интернете часто распространяется людьми, которые не знали, как лучше поступить».

По словам Чоудхури, пользователи Интернета, как правило, лучше распознают поддельные сообщения благодаря многолетнему опыту столкновения с подозрительными письмами и сообщениями в социальных сетях. Однако по мере того, как искусственный интеллект делает возможными более реалистичные поддельные изображения, аудио- и видеоматериалы, «возникает необходимость обучения людей».

«Если мы увидим видео, которое выглядит как настоящее, большинство из нас поверит в это», — сказал он. Если же мы увидим такое же сообщение, то мы, скорее всего, отнесемся к этому скептически, поскольку нас больше учили работать с текстом, чем с видео и изображениями».

  • Другие новости