DeepMind и Google Cloud используют ИИ для создания водяных знаков

В сотрудничестве с Google Cloud компания Google DeepMind (подразделение Google, занимающееся исследованиями в области искусственного интеллекта) запускает инструмент для нанесения водяных знаков и идентификации изображений, созданных искусственным интеллектом, но только изображений, созданных с помощью модели генерации изображений Google.

DeepMind и Google Cloud используют ИИ для создания водяных знаков

Инструмент, получивший название SynthID и доступный в бета-версии для избранных пользователей Vertex AI (платформы Google для создания приложений и моделей ИИ), встраивает цифровой водяной знак непосредственно в пиксели изображения, делая его якобы незаметным для человеческого глаза, но обнаруживаемым алгоритмом. SynthID поддерживает только Imagen, модель преобразования текста в изображение, разработанную Google и доступную только в Vertex AI.

Ранее компания Google заявляла, что будет встраивать метаданные для сигнализации о визуальных медиа, созданных генеративными моделями ИИ. SynthID, очевидно, выходит за эти рамки.

«Хотя генеративный ИИ может раскрыть огромный творческий потенциал, он также несет в себе новые риски, например, позволяет авторам распространять ложную информацию — как намеренно, так и непреднамеренно», — пишет DeepMind в своем блоге. «Способность идентифицировать контент, созданный ИИ, очень важна для того, чтобы дать людям возможность понять, когда они взаимодействуют со сгенерированными медиа, и помочь предотвратить распространение дезинформации».

DeepMind утверждает, что SynthID, разработанный ею совместно с Google Research (научно-исследовательской группой Google), остается на месте даже после таких модификаций, как добавление фильтров к изображениям, изменение цветов и сильное сжатие изображений. По словам представителей DeepMind, инструмент использует две модели искусственного интеллекта — для создания водяных знаков и для идентификации, которые были обучены на «разнообразном» наборе изображений.

SynthID не может идентифицировать изображения с водяными знаками со 100% уверенностью. Однако инструмент отличает случаи, когда изображение может содержать водяной знак, от случаев, когда вероятность его наличия высока.

«SynthID не является надежной защитой от экстремальных манипуляций с изображениями, но он предоставляет перспективный технический подход, позволяющий людям и организациям ответственно работать с контентом, созданным ИИ», — пишет DeepMind. «Этот инструмент может также развиваться наряду с другими моделями ИИ и модальностями, не ограничивающимися изображениями, такими как аудио, видео и текст».

Методы создания водяных знаков для генеративного искусства не новы. Французская компания Imatag, созданная в 2020 году, предлагает инструмент для нанесения водяных знаков, который, по ее утверждению, не подвержен изменению размера, обрезке, редактированию или сжатию изображений, подобно SynthID. Другая компания, Steg.AI, использует модель искусственного интеллекта для нанесения водяных знаков, которые выдерживают изменение размера и другие правки.

Однако технологические компании все чаще вынуждены требовать, чтобы они предоставили возможность подтвердить, что работы были созданы искусственным интеллектом.

Недавно Администрация киберпространства Китая выпустила правила, требующие, чтобы поставщики генеративного ИИ маркировали созданный контент, включая генераторы текстов и изображений, не влияя на использование пользователями. А на недавних слушаниях в комитете Сената США сенатор Кирстен Синема подчеркнула необходимость прозрачности генеративного ИИ, в том числе с помощью водяных знаков.

В мае на своей ежегодной конференции Build компания Microsoft обязалась наносить водяные знаки на изображения и видео, созданные искусственным интеллектом, «с использованием криптографических методов». Кроме того, компания Shutterstock и стартап Midjourney, специализирующийся на генеративном ИИ, приняли рекомендации по встраиванию маркера, указывающего на то, что контент был создан с помощью инструмента генеративного ИИ. А инструмент DALL-E 2 компании OpenAI, преобразующий текст в изображение, вставляет небольшой водяной знак в правую нижнюю часть генерируемых им изображений.

Однако до сих пор общий стандарт водяных знаков — как для их создания, так и для обнаружения — не найден.

SynthID, как и другие предложенные технологии, не будет полезен ни для одного генератора изображений, не являющегося Imagen — по крайней мере, в его нынешнем виде. Компания DeepMind заявляет, что в ближайшем будущем рассматривает возможность предоставления SynthID третьим лицам. Но примут ли его сторонние разработчики, особенно разрабатывающие генераторы изображений с открытым исходным кодом, в которых отсутствуют многие защитные механизмы генераторов, закрытых API, — это уже другой вопрос.

  • Другие новости