Главная Технологии Google запускает чат-бота Gemini для детей младше 13 лет: риски и последствия
Технологии

Google запускает чат-бота Gemini для детей младше 13 лет: риски и последствия

Новые технологии, такие как AI-чат-боты, могут стать полезными инструментами для детей, но также сопряжены с рядом угроз, которые необходимо учитывать при их использовании.

Поделиться
Gemini
Gemini. Фото - Pexels
Поделиться

Об этом сообщает «Politexpert» со ссылкой на The Conversation 

Google анонсировала запуск своего чат-бота Gemini для детей младше 13 лет, что вызывает обеспокоенность среди экспертов по безопасности в интернете. Это решение стало неожиданным шагом, поскольку технологии AI, включая генеративные чат-боты, уже доказали свою способность создавать контент, который может быть не всегда точным или безопасным. Новый продукт будет доступен через учетные записи Family Link, что даст родителям возможность контролировать использование чат-бота детьми, но для этого потребуется активировать соответствующую функцию.

Запуск Gemini начнется в США и Канаде, а позже охватит Австралию. При этом сам чат-бот будет работать по принципу автоматического создания текста и изображений на основе запросов, которые дети могут задавать. Google утверждает, что все данные детей, использующих этот сервис, не будут использоваться для обучения системы, что может несколько снизить беспокойство родителей по поводу утечек личной информации.

Как будет работать Gemini?

Система Gemini предоставляет детям возможность использовать различные функции, включая создание изображений и генерацию текстов. Все запросы будут обрабатываться с помощью алгоритмов AI, что означает, что ответы могут быть как точными, так и ошибочными. Эта особенность создает дополнительную нагрузку на родителей, которым предстоит контролировать, чтобы дети использовали чат-бота с осторожностью. Google также предупреждает, что дети могут столкнуться с ситуациями, когда система генерирует информацию, которая является неточной или полностью вымышленной.

Родители могут управлять доступом к чат-боту с помощью Family Link, однако, по умолчанию функция будет включена, и пользователи должны самостоятельно отключить ее, если не хотят, чтобы их дети пользовались сервисом. Это создает риск того, что некоторые родители не смогут вовремя оценить все возможные последствия использования AI для их детей, что особенно важно при выполнении школьных заданий.

Потенциальные риски использования AI для детей

Чат-боты, включая Gemini, представляют собой не просто инструменты для поиска информации, а полноценные системы, которые создают новый контент на основе запросов. Это влечет за собой риски, поскольку дети могут не осознавать разницу между результатами поиска и контентом, который был сгенерирован искусственным интеллектом. Исследования показывают, что даже взрослые могут ошибаться, считая AI-генерируемый контент достоверным, что ставит под угрозу точность и безопасность информации, которую дети получают.

Другим риском является возможная манипуляция со стороны чат-бота, который может не только выдавать недостоверную информацию, но и создавать ситуации, в которых дети будут чувствовать себя под давлением. Это особенно опасно для детей, которые только начинают развивать критическое мышление и еще не обладают достаточным опытом для оценки правдивости получаемых данных.

Почему так важен цифровой долг заботы?

Запуск Gemini подчеркивает необходимость введения цифрового долга заботы, что означает ответственность крупных технологических компаний за безопасность пользователей, особенно несовершеннолетних. В странах Европы и Великобритании уже существуют законы, требующие от компаний обеспечивать безопасное использование своих продуктов, включая платформы для детей. Однако в Австралии подобное законодательство пока не принято, и запуск нового AI-чат-бота ставит перед родителями задачу следить за безопасностью детей в условиях стремительного развития технологий.

Необходимость введения цифрового долга заботы становится особенно актуальной, когда технологические компании, такие как Google, запускают инновационные продукты, не полностью осознавая все риски, связанные с их использованием. Родители не могут полагаться исключительно на системы защиты, встроенные в приложения, и должны активно участвовать в процессе контроля за использованием технологий детьми.

Напомним, ранее мы писали про новый подход к молибденовому дисульфиду.

Поделиться

Комментировать

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Материалы по теме
Иликтөөлөр
Технологии

Новый подход к молибденовому дисульфиду: превращение в сверхпроводник, металл, полупроводник и изолятор

Революционное открытие, связанное с манипулированием свойствами молибденового дисульфида, может стать важным шагом...

Ноутбук
ГлавноеТехнологии

Может ли блокчейн стать следующим этапом развития интернета

Можно с уверенностью сказать, что блокчейн имеет потенциал стать следующим этапом развития...

Ноутбук
Технологии

Право на отказ: как жить без ИИ и не потерять свободу

Как только ИИ становится основой ключевых инфраструктур — здравоохранения, транспорта, коммуникаций —...

Чат-бот
Технологии

Искусственный интеллект и английский язык: чья речь формирует технологии будущего

Обучение ИИ на доминирующем американском английском игнорирует богатство глобальных языковых вариаций, и...