На фоне экспоненциального роста генеративного ИИ возникает острая необходимость оценить юридические, этические и связанные с безопасностью последствия применения этих решений на рабочем месте.
Одной из проблем, на которую обращают внимание отраслевые эксперты, часто является недостаточная прозрачность данных, на которых обучаются многие модели генеративного ИИ.
Недостаточно информации о специфике обучающих данных, используемых для таких моделей, как GPT-4, на которых работают такие приложения, как ChatGPT. Отсутствие ясности распространяется и на хранение информации, полученной в ходе взаимодействия с отдельными пользователями, что создает юридические и нормативные риски.
Существенную озабоченность вызывает возможность утечки конфиденциальных данных или кода компании при взаимодействии с генеративными ИИ-решениями.
«При взаимодействии с популярными генеративными ИИ-решениями отдельные сотрудники могут слить конфиденциальные данные или код компании, — говорит Вайдотас Шедис, руководитель отдела управления рисками компании Oxylabs.
«Несмотря на отсутствие конкретных доказательств того, что данные, переданные ChatGPT или любой другой системе генеративного искусственного интеллекта, могут быть сохранены и переданы другим людям, риск все же существует, поскольку новое и менее проверенное программное обеспечение часто имеет бреши в системе безопасности».
Организация OpenAI, создавшая ChatGPT, проявляет осторожность в предоставлении подробной информации о том, как обрабатываются данные пользователей. Это создает проблемы для организаций, стремящихся снизить риск утечки конфиденциальных фрагментов кода. Возникает необходимость постоянного мониторинга действий сотрудников и внедрения предупреждений об использовании платформ генеративного ИИ, что может быть обременительным для многих организаций.
«К дополнительным рискам можно отнести использование неверной или устаревшей информации, особенно в случае с младшими специалистами, которые зачастую не могут оценить качество работы ИИ. Большинство генеративных моделей работают на больших, но ограниченных массивах данных, которые нуждаются в постоянном обновлении», — добавляет Шедис.
Такие модели имеют ограниченное контекстное окно и могут столкнуться с трудностями при работе с новой информацией». Компания OpenAI признала, что ее последняя разработка, GPT-4, все еще страдает от фактических неточностей, что может привести к распространению дезинформации.
Последствия выходят за рамки отдельных компаний. Например, популярное сообщество разработчиков Stack Overflow временно запретило использование контента, созданного с помощью ChatGPT, из-за низкой точности, которая может ввести в заблуждение пользователей, ищущих ответы на вопросы по кодированию.
Юридические риски также возникают при использовании бесплатных генеративных ИИ-решений. Copilot от GitHub уже сталкивался с обвинениями и судебными исками за использование фрагментов кода, защищенных авторским правом, из публичных репозиториев с открытым исходным кодом.
«Поскольку генерируемый ИИ код может содержать служебную информацию или коммерческие тайны, принадлежащие другой компании или лицу, компания, разработчики которой используют такой код, может быть привлечена к ответственности за нарушение прав третьих лиц», — поясняет Шедис.
«Кроме того, несоблюдение законов об авторском праве может повлиять на оценку компании инвесторами, если это будет обнаружено».
Хотя организации не могут добиться тотальной слежки за рабочими местами, решающее значение имеют индивидуальная осведомленность и ответственность. Очень важно информировать общественность о потенциальных рисках, связанных с решениями на основе генеративного ИИ.
Лидеры отрасли, организации и частные лица должны сотрудничать для решения проблем конфиденциальности данных, точности и юридических рисков, связанных с применением генеративного ИИ на рабочем месте.