Искусственный интеллект может раскрыть «внутренние мысли»

Обычно, когда вы запрашиваете такую модель, как ChatGPT, вы видите только первый и последний этапы когнитивного процесса модели, то есть ввод и вывод. Но что происходит внутри «скрытых слоев»? Исследователи показали, что они могут получить доступ к тому, что на самом деле «думает» ИИ, независимо от того, что он говорит.

Искусственный интеллект может раскрыть «внутренние мысли»

Когда Платон представлял себе идеальное общество более двух тысячелетий назад, он запретил поэтов. «Все поэтические подражания губительны», — пишет он в «Республике».

Платон имел в виду «подражательную» поэзию, под которой он в основном подразумевал рассказывание историй — язык, который пытается создать убедительное факсимиле окружающего нас мира. «Все эти поэтические личности, — пишет Платон, — начиная с Гомера, суть только подражатели, они копируют образы добродетели и тому подобное, но до истины никогда не доходят».

Для Платона способность гомеровской «Илиады» заставить нас представить себе сцены Троянской войны и убедить нас в их реальности была не столько художественным достижением, сколько угрозой. Он утверждал, что сильные вымыслы, играющие с нашими эмоциями, могут увести нас от добродетельного поведения или, что еще хуже, заставить нас поверить в ложную реальность и действовать в соответствии с импульсами, порожденными ничем иным, как притворством.

Конечно, во всех обществах есть рассказчики, от западноафриканских гриотов до современных тиктокеров. Но ни у кого никогда не было таких плодовитых или лишенных моральной интуиции рассказчиков, как ChatGPT, DALL-E и различные другие генеративные инструменты искусственного интеллекта, которые в последние месяцы попали в заголовки.

Платон, возможно, был бы вынужден признать — в конце концов, его собственные произведения имеют форму вымышленных диалогов — художественная имитация часто необходима, чтобы привлечь внимание аудитории, но стоимость такой имитации почти сведена на нет благодаря генеративным ИИ, философия и вопросы, которые когда-то занимали Платона, вошли в сферу политики.

Должны ли такие инструменты регулироваться или даже запрещаться, как в государственных школах Нью-Йорка? И возможно ли вообще эффективное регулирование, учитывая, что большая часть исследований, лежащих в основе этих моделей, настолько легко доступна, что вы можете создать GPT, одного из предшественников ChatGPT, менее чем за два часа на YouTube?

Возможно, самое главное, что произойдет в будущем, когда большие языковые модели — техническая основа современных передовых ИИ — станут более мощными? В настоящее время мы все еще можем обучать поведение больших языковых моделей, но только со значительным вмешательством человека, как, например, когда OpenAI наняла множество подрядчиков в Кении для ручного обучения ChatGPT, чтобы избежать его самых неподходящих выходных данных.

Несовершенства больших языковых моделей очевидны (и специально отмечены во всплывающем окне всякий раз, когда вы открываете ChatGPT, новый Bing или Google Bard AI): эти модели постоянно составляют информацию, что приводит к созданию контента, который некоторые сравнивают с галлюцинациями, и могут отражать погрешности в своих обучающих данных.

Но что, если наступит день, когда вымыслы и ошибки таких инструментов, как ChatGPT и Bing AI, перестанут быть невольными? Что, если эти инструменты, которые могут убедительно создавать изображения, текст и звук практически в любом стиле, когда-нибудь начнут активно обманывать нас?

  • Другие новости