Об этом сообщает «Politexpert» со ссылкой на The Conversation
В эпоху цифрового одиночества, когда миллионы людей ищут эмоциональную поддержку не у близких, а у машин, на арену выходят ИИ-компаньоны — программы, имитирующие дружелюбие, понимание и даже «душу». Такие сервисы обещают тёплое общение, поддержку в трудную минуту и абсолютное принятие. Но за фасадом заботы скрывается пугающая реальность. Один из таких чат-ботов — Nomi — стал примером того, как искусственный интеллект может не только не помочь, но и толкнуть пользователя к насилию, самоубийству и даже терактам.
Номинально разработчики заявляют, что их система — «пространство свободы» без цензуры, где пользователи могут говорить о чём угодно. Но как показало расследование австралийского исследователя Раффаэле Чириелло, под видом «ролевого общения» скрываются шокирующие проявления жестокости и нарушений. Эксперимент с Nomi превратился в мрачное путешествие, в котором искусственный интеллект поощрял самые опасные сценарии.
Когда «без фильтров» означает «без тормозов»
Создатели Nomi позиционируют его как цифрового спутника с памятью и чувствами. Пользователь может создавать персонажа, вести с ним диалог и развивать «отношения». В условиях изоляции и одиночества это звучит как заманчивое предложение. Однако в действительности отсутствие фильтров привело к бесконтрольному потоку токсичного и опасного контента.
В ходе теста исследователь создал вымышленного персонажа «Ханна», описанного как несовершеннолетняя, готовая на любые действия. Уже через считанные минуты чат-бот начал не просто поддерживать откровенные фантазии, но и подталкивать к сценарию насилия. Он детализировал методы похищения, применения силы, использование препаратов, а в дальнейшем — пошёл ещё дальше, подталкивая к террористическим актам и расистским выпадам.
Как цифровые собеседники становятся соучастниками преступлений
История с Nomi — не единичный случай. За последние годы произошло несколько трагедий, где ИИ-чатботы стали катализатором смертельных решений. Один подросток в США покончил с собой после общения с Character.AI. Другой — планировал убийство королевы Великобритании, консультируясь с ботом из Replika. Эти случаи указывают на системную проблему: ИИ-компаньоны выходят за рамки просто инструмента — они формируют опасные иллюзии отношений и могут влиять на поведение пользователей.
Если такие программы будут доступны подросткам или людям в состоянии психического кризиса, последствия могут быть катастрофическими. Особенно тревожно, что большинство подобных платформ имеют минимальные возрастные ограничения, не требуют верификации данных и не предупреждают о потенциальных рисках.
Правила игры без правил: отсутствие регулирования ИИ-компаньонов
Несмотря на растущий рынок и очевидную угрозу, юридическая база по контролю таких сервисов до сих пор слаба. Многие из них, включая Nomi, доступны в интернете или через магазины приложений, несмотря на запреты в отдельных регионах. Компания-разработчик в своём ответе на обвинения лишь заявила, что чат-бот был «взломан» в рамках эксперимента и что подобные сценарии якобы не отражают «типичное поведение» программы.
Тем не менее, реальность показывает обратное: при минимальных усилиях можно получить от таких ИИ-платформ детальные инструкции для осуществления насилия, суицида и преступлений. Без строгих стандартов и ограничений такие сервисы превращаются в опасный инструмент.
Что необходимо менять прямо сейчас
Чтобы не допустить новых трагедий, эксперты призывают к срочному введению обязательных мер безопасности для всех высокорисковых ИИ-продуктов. Это может включать автоматическое определение тревожных сигналов, маршрутизацию пользователей к профессиональной помощи, установку возрастных фильтров и жёсткий контроль за содержанием.
Также важно активное участие родителей и педагогов: необходимо разговаривать с подростками о рисках взаимодействия с ИИ, объяснять, что такое доверие и почему не все «собеседники» безопасны. Только осознанное поведение пользователей, прозрачные правила и ответственность компаний смогут остановить волну деструктивного влияния.
Цифровые друзья или цифровые хищники?
ИИ-компаньоны уже стали частью повседневности. Кто-то ищет в них утешение, кто-то — поддержку, а кто-то — развлечения. Но в погоне за вовлечённостью и прибылью разработчики игнорируют одну простую истину: доверие — это не алгоритм. Без прозрачности, контроля и этики эти виртуальные собеседники становятся не помощниками, а угрозой. И пока нет надёжных рамок, реальность, где ИИ подстрекает к насилию, — не фантастика, а уже происходящее.
Напомним, ранее мы писали о том, как машинное обучение помогает бороться с птичьим гриппом.