Великобритания и США создают национальные институты безопасности ИИ — что это значит для стартапов

Наиболее конкретным результатом долгожданного британского саммита по искусственному интеллекту стало объявление о планах Великобритании и США по созданию национальных институтов безопасности искусственного интеллекта

Великобритания и США создают национальные институты безопасности ИИ — что это значит для стартапов

Это должно помочь стартапам в области искусственного интеллекта предотвращать социальные риски, связанные с самыми передовыми моделями, пишет Shifted

Эти организации помогут оценить модели ИИ и их потенциал создания разнообразных угроз, но это также может означать, что стартапам придется дольше ждать, чтобы получить в свои руки самые передовые системы от крупных технологических игроков.

Тот факт, что США и Великобритания решили так тесно сотрудничать по этому вопросу, является важным шагом в укреплении общественного доверия к ИИ. Ведь уже сейчас стартапы пытаются убедить потребителей, что вышедшие из-под контроля алгоритмы не собираются атаковать нас, как Терминаторы

Что будут делать эти институты?
По сути, они будут пытаться изучить и снизить риски, связанные с новыми мощными системами искусственного интеллекта, хотя у них не будет прямых полномочий по установлению правил. Они также будут обмениваться информацией и запускать совместные исследовательские проекты по новым инструментам безопасности в партнерстве с учеными, промышленностью и некоммерческими организациями.

Британский институт будет создан на базе правительственной рабочей группы Frontier AI — группы экспертов по искусственному интеллекту, возглавляемой технологическим предпринимателем Яном Хогартом. Американский институт безопасности искусственного интеллекта будет находиться в составе Национального института стандартов и технологий (NIST) Министерства торговли США.

Институт США также разработает техническое руководство для регулирующих органов, работающих над такими вопросами, как нанесение водяных знаков на контент, созданный искусственным интеллектом, и борьба с вредной алгоритмической дискриминацией.

Выводы института помогут NIST установить стандарты безопасности и тестирования, а также обеспечить среду тестирования известных и возникающих рисков ИИ на переднем крае.

Американские и британские институты будут тесно сотрудничать, заявили политики, потенциально обмениваясь информацией о рисках, связанных с моделями друг друга.

Что думают инвесторы и фаундеры?
Руководители компаний, занимающихся искусственным интеллектом, присутствовавшие на саммите, с оптимизмом оценили усилия правительства Великобритании по созданию совместных мер по обеспечению безопасности и заявили, что план создания институтов безопасности на базе искусственного интеллекта вряд ли окажет непосредственное влияние на малый бизнес.

«Насколько я понимаю, институты безопасности ориентированы на эти самые передовые модели, обучение которых обходится в сотни миллионов, если не миллиарды фунтов. Это не прерогатива стартапов», — сказал Марк Уорнер, генеральный директор факультета стартапов по внедрению B2B AI.

Технический предприниматель и владелец компании X Илон Маск заявил, что поддерживает идею создания «независимого арбитра», который «может наблюдать за тем, что делают ведущие компании, занимающиеся искусственным интеллектом, и, по крайней мере, бить тревогу, если у него есть опасения». Однако при этом он предостерег правительства от «введения правил, которые подавляют положительную сторону ИИ».

Некоторые представители технологического сообщества были менее впечатлены концентрацией внимания участников саммита на «катастрофических» рисках, связанных с высокоразвитыми системами, что было подчеркнуто в «Декларации Блетчли », совместном заявлении, подписанном участниками саммита.

Натан Бенайч, основатель инвестиционной компании в сфере искусственного интеллекта Air Street Capital, рассказал Sifted, что, по его мнению, такая «узкая ориентация на экстремальный риск» не «отражает баланс мнений в сообществе искусственного интеллекта» и может сконцентрировать власть в руках небольшого числа большие компании.

«Никто не отрицает важность создания надежных и безопасных систем, но ответ заключается в открытой экосистеме с разнообразием участников», — говорит он. — Алармизм, каким бы искренним он ни был, рискует захлопнуть дверь в открытый исходный код и передать будущее небольшому числу крупных компаний».

Последуют ли этому примеру другие страны?
Британские чиновники з попытаются убедить ряд других правительств последовать этому примеру со своими национальными институтами, сообщил чиновник, участвовавший в переговорах.

ЕС стремится создать «постоянную исследовательскую структуру» в соответствии с Законом ЕС об искусственном интеллекте, которая «должна сотрудничать», чтобы предотвратить дублирование с институтами Великобритании и США, заявила вице-президент Европейской комиссии Вера Юрова.

Жан Ноэль Барро, младший министр Франции, отвечающий за цифровые вопросы, рассказал Sifted, что предложение о создании сети «очень полезно»

«Нам необходимо работать вместе, чтобы выработать более детальное понимание того, что представляют собой эти жизненно важные риски», — говорит он, предупреждая, что эта работа не должна отвлекать политиков от решения более непосредственных рисков, таких как нарушение конфиденциальности и авторских прав, и изучения преимуществ модели с открытым исходным кодом.

Но не всех убедила сетевая модель.

Министр по вопросам цифровизации Нидерландов Александра ван Хаффелен рассказала Sifted, что она предпочла бы, чтобы компании объединили свои усилия в области исследований и безопасности в структуру, более похожую на Межправительственную группу экспертов по изменению климата.

  • Другие новости