Об этом сообщает «Politexpert» со ссылкой на The Conversation
Искусственный интеллект (ИИ) быстро завоевывает рабочие места по всему миру, предлагая сотрудникам новые способы повышения продуктивности и улучшения качества работы. Однако результаты глобального исследования, охватившего более 32 тысяч работников в 47 странах, выявили тревожную картину: несмотря на явные преимущества использования ИИ, значительное количество сотрудников применяет эти инструменты ненадлежащим образом, что несет риски для безопасности данных и организации в целом.
По данным исследования, 58% работников регулярно используют ИИ на работе, что подтверждает его растущую популярность в различных отраслях. Однако почти половина из них (47%) призналась, что использовала ИИ в способах, которые могут быть сочтены неподобающими. Это включает загрузку чувствительной информации в публичные инструменты ИИ, использование ответов без проверки и скрытное применение ИИ, что вызывает серьезные проблемы для компаний.
Риски использования ИИ без должного контроля
Одним из самых серьезных рисков, выявленных в исследовании, является передача конфиденциальной информации компании в публичные ИИ-инструменты. Почти половина респондентов (48%) призналась, что загружала такие данные, как информация о клиентах или финансовые отчеты, в инструменты, доступные широкой аудитории. Это несет угрозу утечек данных и может привести к юридическим последствиям.
Помимо этого, значительное количество сотрудников использует ИИ без должной проверки его выводов. 66% респондентов сообщили, что полагаются на результаты, предоставленные ИИ, без их проверки. Это может привести к ошибкам, которые могут повлиять на принятие важных решений, а в некоторых случаях даже вызвать финансовые потери или репутационные убытки для организации.
Проблема «теневого ИИ»: как скрытое использование технологий подрывает безопасность
Еще одной ключевой проблемой является «теневое использование ИИ» — ситуация, когда сотрудники не сообщают о применении ИИ в своей работе. Согласно исследованию, 61% работников избегают раскрывать факт использования ИИ, а 55% представляют результаты работы ИИ как свои собственные. Это делает управление рисками еще более сложным, поскольку компаниям трудно отслеживать, контролировать и минимизировать угрозы, исходящие от неконтролируемого применения ИИ.
Отсутствие прозрачности в использовании ИИ может привести к увеличению рисков, связанных с утечками данных, нарушениями конфиденциальности и даже юридическими последствиями. К тому же, без четкой политики и управления ИИ, компании рискуют потерять контроль над своими процессами, что может привести к неэффективному использованию технологий.
Необходимость внедрения обучения и политики использования ИИ
Для того чтобы минимизировать риски, связанные с использованием ИИ на рабочих местах, необходимо разработать четкие политики и методы управления. Внедрение специального обучения для сотрудников по ответственному использованию ИИ поможет повысить их осведомленность и снизить вероятность ошибок. Исследования показали, что сотрудники с хорошими знаниями о возможностях и ограничениях ИИ гораздо более эффективно используют эти технологии и реже совершают ошибки.
Кроме того, важно, чтобы компании создавали культуру, поддерживающую открытость в вопросах использования ИИ. Это позволит не только снизить риски, но и создать атмосферу для безопасного и ответственного внедрения технологий в рабочие процессы.
Напомним, ранее мы писали о том, что учёные превращают кожуру помело в устройства для выработки электричества.