Исследование, проведенное учеными в области компьютерных и информационных наук из Великобритании и Бразилии, вызвало озабоченность по поводу объективности ChatGPT.
Исследователи утверждают, что в ответах ChatGPT обнаружена значительная политическая предвзятость, склоняющаяся к левой части политического спектра.
Исследование, опубликованное на этой неделе в журнале Public Choice, проведенное Фабио Мотоки, Вальдемаром Пиньо и Виктором Родригесом, утверждает, что наличие политических предубеждений в контенте, генерируемом ИИ, может закрепить существующие предубеждения, характерные для традиционных СМИ.
В исследовании подчеркивается потенциальное влияние такой предвзятости на различные заинтересованные стороны, включая политиков, СМИ, политические группы и образовательные учреждения.
Используя эмпирический подход, исследователи применили ряд анкет для определения политической ориентации ChatGPT. Чатботу предлагалось ответить на вопросы политического компаса, фиксирующие его позицию по различным политическим вопросам.
Кроме того, в исследовании рассматривались сценарии, в которых ChatGPT выдавал себя как за обычного демократа, так и за республиканца, что позволило выявить присущую алгоритму предвзятость к ответам, ориентированным на демократов.
Результаты исследования свидетельствуют о том, что предвзятость ChatGPT выходит за пределы США и проявляется также в ответах, касающихся политического контекста Бразилии и Великобритании. Примечательно, что исследование даже предполагает, что эта предвзятость является не просто механическим результатом, а намеренной тенденцией в работе алгоритма.
Определение точного источника политической предвзятости ChatGPT остается сложной задачей. Исследователи изучили как обучающие данные, так и сам алгоритм, и пришли к выводу, что оба фактора, скорее всего, способствуют возникновению предвзятости. Они подчеркнули необходимость проведения в будущем исследований, направленных на разделение этих компонентов для более четкого понимания происхождения предвзятости.
Компания OpenAI, создавшая ChatGPT, пока никак не отреагировала на результаты исследования. Данное исследование присоединяется к растущему списку проблем, связанных с технологиями искусственного интеллекта, включая вопросы, касающиеся конфиденциальности, образования и проверки личности в различных отраслях.
По мере расширения влияния таких инструментов, как ChatGPT, эксперты и заинтересованные стороны пытаются разобраться в последствиях необъективного контента, создаваемого искусственным интеллектом.
Последнее исследование служит напоминанием о том, что необходимо проявлять бдительность и критически оценивать ситуацию, чтобы обеспечить справедливое и сбалансированное развитие и внедрение технологий ИИ, лишенное неоправданного политического влияния.