В интервью для ABCnews, Билл Гейтс поделился своими мыслями о последних достижениях в области искусственного интеллекта (ИИ). Никого не должно удивлять, что у Гейтса твердое мнение. Однако кое-что из того, что он сказал, должно вас волновать.
Например, Гейтс предполагает, что регулирующие органы отстают в понимании последствий ИИ и что в чужих руках эта технология может быть опасной. «Мы все боимся, что плохой парень может схватить его», — сказал Гейтс. «Скажем, плохие парни опережают хороших парней. Тогда что-то вроде кибератак, вы знаете, может управляться искусственным интеллектом».
Тем не менее, Гейтс не согласен с генеральным директором Tesla Илоном Маском по поводу того, не слишком ли быстро мы продвигаемся в разработке ИИ. В прошлом месяце Маск подписал письмо вместе с тысячами других исследователей, ученых и технологических лидеров, призывая к паузе в разработке.
«Если вы просто останавливаете хороших парней и не останавливаете всех остальных, вы, вероятно, наносите вред себе», — говорит Гейтс. «Вы определенно хотите, чтобы у хороших парней был сильный ИИ. Можете ли вы гарантировать, что если вы остановите хороших парней, вы можете гарантировать, что этого не произойдет».
Однако один ответ, в частности, должен касаться всех. Это произошло в этой беседе, которая транслировалась в программе «Доброе утро, Америка»:
Джарвис: «У вас есть фальшивый образ Папы, фальшивый образ президента Джо Байдена. В какой-то момент, если они будут распространяться в гораздо большем масштабе, не запутает ли это людей в том, что такое правда?»
Гейтс: «Вы должны будете сказать: «Откуда это взялось?»
Джарвис: «И чья это ответственность — каждого человека?»
Гейтс: «Читатель, зритель, каждый человек обязан задавать вопросы. Общество начнет говорить: «Хорошо, этот источник более надежный». Мы не можем сказать: «Эй, пожалуйста, перестаньте делать поддельные изображения».
Гейтс прав в том, что невозможно помешать людям создавать поддельные изображения. Это было задолго до того, как компьютеры сделали это за вас самостоятельно.
Проблема в том, что люди, как правило, не умеют отличать что-то в Интернете от «более надежного источника». Вместо этого многие люди просто ищут то, что подкрепляет то, во что они уже верят. Вот почему дезинформация в Интернете так сильна. Если вы предрасположены верить во что-то, а затем видите фотографию этого предмета, например, становится очень трудно отфильтровать, что правда, а что нет.
По крайней мере, политический климат последних шести лет показал, что если информация поступает из источников, которые когда-то считались широко надежными, это не означает, что все ей поверят. Обратное еще хуже. Даже когда информация поступает из источников, которые явно не заслуживают доверия, миллионы людей поверят ей, потому что это то, что они хотят услышать, прочитать или увидеть.
ИИ является «срочным риском».
Это одна из причин, по которой Джеффри Хинтон, известный как «Крестный отец искусственного интеллекта», предупредил, что технология представляет собой более серьезный риск для человечества, чем изменение климата.
«В условиях изменения климата очень легко порекомендовать, что вам следует делать: просто перестаньте сжигать углерод», — сказал Хинтон агентству Reuters. «Если вы сделаете это, в конце концов все будет в порядке. Поэтому совершенно не ясно, что вы должны делать».
Он также согласен с Гейтсом в том, что приостановка исследований не является решением проблемы. «Это совершенно нереально, — сказал Хинтон. «Я нахожусь в лагере, который думает, что это экзистенциальный риск, и он достаточно близок, чтобы мы должны были очень усердно работать прямо сейчас и вкладывать много ресурсов, чтобы выяснить, что мы можем с этим поделать».
Учитывая потенциальный вред, генерирующий ИИ, кажется, это то, что мы должны были понять, прежде чем он стал широко доступен. И хотя использование больших языковых моделей и инструментов, таких как ChatGPT, для решения сложных проблем, которые люди не могут решить самостоятельно, действительно дает определенные преимущества, это не избавляет от рисков.
«Эта область больше, чем любая другая область, которую я знаю, на самом деле заставляет многих умных людей думать: «Хорошо, что будет дальше и как мы можем убедиться, что это принесет пользу», — сказал Гейтс. «Я вижу, что искусственный интеллект при правильном использовании дает много преимуществ, от которых я бы не хотел отказываться».
Настоящий вопрос заключается в том, стоят ли эти преимущества риска прямо сейчас. Учитывая возможные проблемы,