Потенциальная опасность высокоинтеллектуальных систем ИИ является предметом беспокойства экспертов в этой области.
Недавно Джеффри Хинтон, «крестный отец ИИ», выразил беспокойство по поводу возможности того, что сверхинтеллектуальный ИИ превзойдет человеческие возможности и вызовет катастрофические последствия для человечества.
Аналогичным образом, Сэм Альтман, генеральный директор OpenAI, компании, создавшей ChatGPT, признался, что опасается потенциального влияния продвинутого ИИ на общество.
В ответ на эти опасения OpenAI объявила о создании нового подразделения под названием Superalignment.
Основной целью этой инициативы является обеспечение того, чтобы сверхинтеллектуальный ИИ не привел к хаосу или даже вымиранию человечества. OpenAI признает огромную силу, которой может обладать сверхинтеллект, и потенциальную опасность, которую он представляет для человечества.
Хотя до создания сверхинтеллектуального ИИ еще несколько лет, OpenAI считает, что он может стать реальностью к 2030 году. В настоящее время не существует установленной системы контроля и управления потенциально сверхинтеллектуальным ИИ, что делает необходимость принятия упреждающих мер еще более важной.
Superalignment стремится создать команду лучших исследователей и инженеров в области машинного обучения, которые будут работать над созданием «автоматического исследователя выравнивания примерно человеческого уровня». Этот исследователь будет отвечать за проведение проверок безопасности сверхинтеллектуальных систем ИИ.
OpenAI признает, что это амбициозная цель и что успех не гарантирован. Однако компания не теряет оптимизма по поводу того, что при целенаправленных и согласованных усилиях проблема согласования сверхинтеллекта может быть решена.
Появление таких инструментов ИИ, как ChatGPT от OpenAI и Bard от Google, уже привело к значительным изменениям на рабочем месте и в обществе. Эксперты предсказывают, что в ближайшем будущем эти изменения только усилятся, даже до появления сверхинтеллектуального ИИ.
Признавая преобразующий потенциал ИИ, правительства во всем мире спешно разрабатывают нормативные акты, обеспечивающие его безопасное и ответственное применение. Однако отсутствие единого международного подхода создает проблемы. Различия в нормативных актах разных стран могут привести к разным результатам и еще больше затруднить достижение цели Superalignment.
Проводя активную работу по согласованию систем ИИ с человеческими ценностями и разрабатывая необходимые структуры управления, OpenAI стремится понизить уровень опасности, которая может возникнуть в результате огромной мощи сверхинтеллекта.
Хотя поставленная задача, несомненно, сложна, стремление OpenAI решить эти проблемы и привлечь к работе ведущих исследователей в этой области свидетельствует о значительных усилиях, направленных на ответственное развитие ИИ.