Об этом сообщает «Politexpert» со ссылкой на The Conversation
Вопрос идеологической нейтральности искусственного интеллекта (ИИ) продолжает будоражить умы ученых и специалистов. В июле 2025 года правительство США заявило, что компании, разрабатывающие ИИ, которые хотят сотрудничать с Белым домом, обязаны убедиться, что их системы не имеют идеологического уклона. Это заявление подняло важный вопрос: возможно ли создать ИИ, который будет абсолютно нейтрален и свободен от идеологии, или это всего лишь миф?
Сложность проблемы заключается в том, что сами алгоритмы ИИ не существуют в вакууме и всегда опираются на данные, которые могут содержать внутренние предвзятости. Особенно это касается языковых моделей, которые изучают тексты, данные с социальных платформ и различные исторические источники, и в процессе обучения могут «наследовать» те или иные идеологические установки. Несмотря на значительные усилия в области разработки нейтральных ИИ-систем, идеологические предвзятости неизбежно проявляются, что делает претензии на полную объективность искусственного интеллекта весьма спорными.
Предвзятость в ИИ: миф или реальность?
Существование предвзятости в ИИ не является новостью. Множество исследований показали, что многие языковые модели склонны поддерживать определенные политические взгляды. Например, в некоторых системах наблюдается склонность к левым политическим установкам, поддерживающим такие идеи, как налоги на полеты или ограничения на повышение арендной платы. Это явление возникает из-за того, что модели обучаются на больших объемах текстов, содержащих определенные мировоззренческие позиции, что и влияет на их дальнейшие ответы.
Подобная ситуация также характерна для моделей, созданных в других странах. Например, китайские чат-боты, такие как DeepSeek, подвергают цензуре информацию о событиях, таких как Тяньаньмэнь или политический статус Тайваня, в соответствии с официальной позицией правительства Китая. Это подтверждает, что ИИ не может быть политически нейтральным, потому что всегда существует механизм, определяющий, какая информация и как будет преподнесена.
Как исторические и культурные предвзятости влияют на ИИ?
Примером такого влияния могут служить традиционные способы организации данных. В прошлом попытки классифицировать информацию в библиотеках, такие как система Дьюи для классификации, показали явные предвзятости. Например, книги о ЛГБТ-сообществе долгое время относились к категории «неврологических расстройств» или «социальных проблем». Точно так же система классификации религий в Дьюи отражала христианский взгляд на мир, уделяя значительное внимание христианству и оставляя ислам с одним разделом, несмотря на то, что количество мусульман по всему миру приблизилось к числу христиан.
Эти исторические примеры показывают, что все попытки упорядочить данные, будь то в книгах, на картах или в ИИ, не могут быть полностью свободными от идеологических взглядов создателей. Даже современные системы классификации и алгоритмы машинного обучения, по сути, являются отражением взглядов и ценностей их разработчиков.
Зависимость ИИ от человека: как это меняет картину?
ИИ учится, обрабатывая данные, и, таким образом, его ответы всегда будут зависеть от тех людей, которые создают систему и тренируют её. Проблема в том, что языковые модели, обучаемые на исторических текстах, могут встраивать в себя стереотипы и предвзятые мнения, которые были присущи этим текстам. К примеру, предвзятое отношение к афроамериканцам в литературных произведениях 1930-х годов или даже более свежие стереотипы могут быть «усвоены» искусственным интеллектом и влиять на его ответы.
Кроме того, разработки ИИ всегда ограничены людьми, задающими алгоритмы и настройки. Разработчики, формулирующие подсказки для систем, могут непреднамеренно встраивать свои собственные убеждения в модели, что тоже приводит к возникновению предвзятости. Это подтверждается примерами, когда компании, разрабатывающие ИИ, намеренно корректируют модели, чтобы уменьшить предполагаемую «либеральную предвзятость» или, наоборот, поддержать более консервативные взгляды.
Идеология в ИИ: как выбрать правильный баланс?
Создание ИИ, который будет без идеологических предвзятостей, возможно, является утопией. Любая система, предназначенная для обработки данных и представления информации, так или иначе будет проекцией определенной точки зрения. Важно понимать, чьи взгляды и убеждения лежат в основе этих систем. Например, то, как различные языковые модели формулируют свои ответы на вопросы о таких темах, как гендерное равенство или политика, может зависеть от культурных, социальных и политических условий страны, в которой была создана эта модель.
Тем не менее, вопрос о нейтральности ИИ остается актуальным, и он требует внимательного подхода и дальнейших исследований. Идея, что ИИ может быть полностью свободен от предвзятости, скорее всего, останется мифом, и задача заключается в том, чтобы разработчики осознавали эту реальность и стремились к более прозрачным и сбалансированным моделям.
Напомним, ранее мы писали о том, что энергетические затраты на использование искусственного интеллекта.
Комментировать