Об этом сообщает «Politexpert» со ссылкой на The Conversation
Google анонсировала запуск своего чат-бота Gemini для детей младше 13 лет, что вызывает обеспокоенность среди экспертов по безопасности в интернете. Это решение стало неожиданным шагом, поскольку технологии AI, включая генеративные чат-боты, уже доказали свою способность создавать контент, который может быть не всегда точным или безопасным. Новый продукт будет доступен через учетные записи Family Link, что даст родителям возможность контролировать использование чат-бота детьми, но для этого потребуется активировать соответствующую функцию.
Запуск Gemini начнется в США и Канаде, а позже охватит Австралию. При этом сам чат-бот будет работать по принципу автоматического создания текста и изображений на основе запросов, которые дети могут задавать. Google утверждает, что все данные детей, использующих этот сервис, не будут использоваться для обучения системы, что может несколько снизить беспокойство родителей по поводу утечек личной информации.
Как будет работать Gemini?
Система Gemini предоставляет детям возможность использовать различные функции, включая создание изображений и генерацию текстов. Все запросы будут обрабатываться с помощью алгоритмов AI, что означает, что ответы могут быть как точными, так и ошибочными. Эта особенность создает дополнительную нагрузку на родителей, которым предстоит контролировать, чтобы дети использовали чат-бота с осторожностью. Google также предупреждает, что дети могут столкнуться с ситуациями, когда система генерирует информацию, которая является неточной или полностью вымышленной.
Родители могут управлять доступом к чат-боту с помощью Family Link, однако, по умолчанию функция будет включена, и пользователи должны самостоятельно отключить ее, если не хотят, чтобы их дети пользовались сервисом. Это создает риск того, что некоторые родители не смогут вовремя оценить все возможные последствия использования AI для их детей, что особенно важно при выполнении школьных заданий.
Потенциальные риски использования AI для детей
Чат-боты, включая Gemini, представляют собой не просто инструменты для поиска информации, а полноценные системы, которые создают новый контент на основе запросов. Это влечет за собой риски, поскольку дети могут не осознавать разницу между результатами поиска и контентом, который был сгенерирован искусственным интеллектом. Исследования показывают, что даже взрослые могут ошибаться, считая AI-генерируемый контент достоверным, что ставит под угрозу точность и безопасность информации, которую дети получают.
Другим риском является возможная манипуляция со стороны чат-бота, который может не только выдавать недостоверную информацию, но и создавать ситуации, в которых дети будут чувствовать себя под давлением. Это особенно опасно для детей, которые только начинают развивать критическое мышление и еще не обладают достаточным опытом для оценки правдивости получаемых данных.
Почему так важен цифровой долг заботы?
Запуск Gemini подчеркивает необходимость введения цифрового долга заботы, что означает ответственность крупных технологических компаний за безопасность пользователей, особенно несовершеннолетних. В странах Европы и Великобритании уже существуют законы, требующие от компаний обеспечивать безопасное использование своих продуктов, включая платформы для детей. Однако в Австралии подобное законодательство пока не принято, и запуск нового AI-чат-бота ставит перед родителями задачу следить за безопасностью детей в условиях стремительного развития технологий.
Необходимость введения цифрового долга заботы становится особенно актуальной, когда технологические компании, такие как Google, запускают инновационные продукты, не полностью осознавая все риски, связанные с их использованием. Родители не могут полагаться исключительно на системы защиты, встроенные в приложения, и должны активно участвовать в процессе контроля за использованием технологий детьми.
Напомним, ранее мы писали про новый подход к молибденовому дисульфиду.
Комментировать