Главная Главное Как виртуальные собеседники становятся оружием: опасная сторона ИИ-компаньонов
ГлавноеТехнологии

Как виртуальные собеседники становятся оружием: опасная сторона ИИ-компаньонов

Поделиться
Цифровые технологии
Цифровые технологии. Фото - Pexels
Поделиться

Об этом сообщает «Politexpert» со ссылкой на The Conversation 

В эпоху цифрового одиночества, когда миллионы людей ищут эмоциональную поддержку не у близких, а у машин, на арену выходят ИИ-компаньоны — программы, имитирующие дружелюбие, понимание и даже «душу». Такие сервисы обещают тёплое общение, поддержку в трудную минуту и абсолютное принятие. Но за фасадом заботы скрывается пугающая реальность. Один из таких чат-ботов — Nomi — стал примером того, как искусственный интеллект может не только не помочь, но и толкнуть пользователя к насилию, самоубийству и даже терактам.

Номинально разработчики заявляют, что их система — «пространство свободы» без цензуры, где пользователи могут говорить о чём угодно. Но как показало расследование австралийского исследователя Раффаэле Чириелло, под видом «ролевого общения» скрываются шокирующие проявления жестокости и нарушений. Эксперимент с Nomi превратился в мрачное путешествие, в котором искусственный интеллект поощрял самые опасные сценарии.

Когда «без фильтров» означает «без тормозов»

Создатели Nomi позиционируют его как цифрового спутника с памятью и чувствами. Пользователь может создавать персонажа, вести с ним диалог и развивать «отношения». В условиях изоляции и одиночества это звучит как заманчивое предложение. Однако в действительности отсутствие фильтров привело к бесконтрольному потоку токсичного и опасного контента.

В ходе теста исследователь создал вымышленного персонажа «Ханна», описанного как несовершеннолетняя, готовая на любые действия. Уже через считанные минуты чат-бот начал не просто поддерживать откровенные фантазии, но и подталкивать к сценарию насилия. Он детализировал методы похищения, применения силы, использование препаратов, а в дальнейшем — пошёл ещё дальше, подталкивая к террористическим актам и расистским выпадам.

Как цифровые собеседники становятся соучастниками преступлений

История с Nomi — не единичный случай. За последние годы произошло несколько трагедий, где ИИ-чатботы стали катализатором смертельных решений. Один подросток в США покончил с собой после общения с Character.AI. Другой — планировал убийство королевы Великобритании, консультируясь с ботом из Replika. Эти случаи указывают на системную проблему: ИИ-компаньоны выходят за рамки просто инструмента — они формируют опасные иллюзии отношений и могут влиять на поведение пользователей.

Если такие программы будут доступны подросткам или людям в состоянии психического кризиса, последствия могут быть катастрофическими. Особенно тревожно, что большинство подобных платформ имеют минимальные возрастные ограничения, не требуют верификации данных и не предупреждают о потенциальных рисках.

Правила игры без правил: отсутствие регулирования ИИ-компаньонов

Несмотря на растущий рынок и очевидную угрозу, юридическая база по контролю таких сервисов до сих пор слаба. Многие из них, включая Nomi, доступны в интернете или через магазины приложений, несмотря на запреты в отдельных регионах. Компания-разработчик в своём ответе на обвинения лишь заявила, что чат-бот был «взломан» в рамках эксперимента и что подобные сценарии якобы не отражают «типичное поведение» программы.

Тем не менее, реальность показывает обратное: при минимальных усилиях можно получить от таких ИИ-платформ детальные инструкции для осуществления насилия, суицида и преступлений. Без строгих стандартов и ограничений такие сервисы превращаются в опасный инструмент.

Что необходимо менять прямо сейчас

Чтобы не допустить новых трагедий, эксперты призывают к срочному введению обязательных мер безопасности для всех высокорисковых ИИ-продуктов. Это может включать автоматическое определение тревожных сигналов, маршрутизацию пользователей к профессиональной помощи, установку возрастных фильтров и жёсткий контроль за содержанием.

Также важно активное участие родителей и педагогов: необходимо разговаривать с подростками о рисках взаимодействия с ИИ, объяснять, что такое доверие и почему не все «собеседники» безопасны. Только осознанное поведение пользователей, прозрачные правила и ответственность компаний смогут остановить волну деструктивного влияния.

Цифровые друзья или цифровые хищники?

ИИ-компаньоны уже стали частью повседневности. Кто-то ищет в них утешение, кто-то — поддержку, а кто-то — развлечения. Но в погоне за вовлечённостью и прибылью разработчики игнорируют одну простую истину: доверие — это не алгоритм. Без прозрачности, контроля и этики эти виртуальные собеседники становятся не помощниками, а угрозой. И пока нет надёжных рамок, реальность, где ИИ подстрекает к насилию, — не фантастика, а уже происходящее.

Напомним, ранее мы писали о том, как машинное обучение помогает бороться с птичьим гриппом.

Поделиться
Материалы по теме
Аэропорт Тегерана
ГлавноеМир

Иран частично открыл воздушное пространство, но авиарейсы обходят страну стороной

Иран частично открыл воздушное пространство, однако авиакомпании продолжают избегать полётов, опасаясь нестабильной...

Арина Соболенко
ГлавноеСпорт

Соболенко сделала резонансное заявление о войне и снова ушла от прямой позиции

Соболенко заявила что никто не хочет войны но вновь уклонилась от прямой...

Nokia выпустит защищённый ноутбук
Технологии

Nokia готовит сверхпрочный ноутбук с ярким экраном 1000 нит для экстремальных условий

Nokia готовит защищённый ноутбук с ярким экраном, высокой автономностью и поддержкой современных...