Об этом сообщает «Politexpert» со ссылкой на The Conversation
В эпоху генеративного искусственного интеллекта (GenAI) фраза «увижу — поверю» теряет свою актуальность. GenAI способен не только создавать манипулированные изображения людей, но и генерировать совершенно вымышленные образы и ситуации. Эти технологии становятся доступными и дешевыми для использования, а изображения, созданные с помощью ИИ, становятся все более распространенными. Если вы активно используете социальные сети или новости, вероятно, вы уже столкнулись с ИИ-созданными изображениями, не осознавая этого.
Эволюция генеративного ИИ
В 2014 году были сделаны первые шаги в использовании генеративных состязательных сетей (GAN) для синтеза изображений и видео. На основе этих технологий появились глубокие фейки. Сначала ИИ использовался для создания необычных картин, как проект «DeepDream» от Google, но позже это привело к распространению так называемых «deepfake» технологий, которые позволяли менять лица людей на видео. В 2017 году термин «deepfake» был официально закреплен, когда пользователь Reddit начал генерировать синтетическое порно с лицами известных людей.
С тех пор эта технология значительно развилась. Одним из первых шагов в сторону массового использования стало создание сайта «ThisPersonDoesNotExist», который использовал GAN для создания фотореалистичных изображений людей, которых на самом деле не существует. Эта технология открыла новые горизонты, но также подняла вопросы безопасности и этики.
Развитие технологий и улучшение качества изображений
Сейчас генеративный ИИ значительно улучшился. В 2022 году мы провели исследование с участием почти 300 человек, в ходе которого участники должны были классифицировать изображения как реальные или фальшивые. Средняя точность классификации составила лишь 61%. Важно отметить, что участники чаще всего правильно определяли реальные изображения, а вот фальшивые порой были гораздо сложнее обнаружить. На тот момент отличительными признаками ИИ-изображений были глаза, зубы и волосы, но с каждым годом эти признаки становятся менее заметными.
ИИ теперь может создавать не только фотографии, но и синтезировать видео, а также генерировать текстовые сообщения, что делает задачу определения подделки ещё более сложной.
Алгоритмы и их недостатки
Крупные технологические компании развивают алгоритмы, которые могут распознавать deepfake-контент. Эти системы анализируют несколько характеристик, включая скорость речи, выражения лиц, а также рефлексы в глазах, которые часто выглядят ненатурально. Однако эти алгоритмы имеют свои ограничения: они могут не справляться с низким качеством видео, плохим освещением или необычными позами.
Кроме того, даже при наличии алгоритмов для детекции deepfake-контента многие платформы остаются уязвимыми для распространения таких материалов. Использование генеративного ИИ для создания фейков продолжается и становится всё более изощренным, что затрудняет борьбу с этим явлением.
Новая угроза дезинформации
Глубокие фейки становятся одной из главных угроз в сфере дезинформации. Это может не только искажать факты и создавать ложные истории, но и использоваться для создания сомнений в истинности очевидных фактов. Технологии ИИ открывают возможности для создания «плаausible deniability», когда можно утверждать, что правдивое утверждение на самом деле является ложным.
Таким образом, в мире, где искусственный интеллект может генерировать абсолютно убедительные фальшивки, мы сталкиваемся с новой реальностью, где увиденное больше не означает веру. Даже то, что раньше казалось неопровержимым доказательством, может оказаться искусственно созданным изображением или видео.
Напомним, ранее мы писали о том, что новый 3D-модуль на свету ускоряет ИИ.