Технология генерации поддельных изображений и видео достигла нового уровня реалистичности. По данным The Conversation, в 2025 году нейросети научились создавать лица, голоса и даже движения, которые невозможно отличить от настоящих, пишет Politexpert.
Эксперты отмечают, что современные генераторы видео и аудио способны воспроизводить эмоции, интонации и мимику с точностью до мельчайших деталей. Если раньше ошибки в движении глаз или рта помогали вычислить подделку, то теперь даже специалисты с трудом определяют фейк.
Как алгоритмы научились обманывать
Резкий скачок в качестве deepfake связан с появлением новых моделей видео, способных поддерживать временную согласованность кадров. Алгоритмы теперь отдельно анализируют движение и внешность, чтобы менять лица в видео без искажений.
«Модели создают стабильные и последовательные лица без мерцания и искажений, которые раньше выдавали подделку», — указано в исследовании.
Эти технологии позволяют накладывать движение одного человека на облик другого, делая видео убедительным и плавным. В результате пользователи соцсетей часто не замечают подмены даже при внимательном просмотре.
Клоны голоса и рост мошенничества
Одно из самых заметных достижений — клон человеческого голоса. Сегодня достаточно нескольких секунд записи, чтобы система воспроизвела голос с естественными паузами, дыханием и эмоциями.
«Несколько секунд аудио теперь достаточно, чтобы создать убедительный клон», — отмечает автор статьи.
Это открывает возможности для масштабных телефонных и финансовых махинаций. Некоторые торговые сети фиксируют более тысячи звонков в день с поддельными голосами, созданными искусственным интеллектом.
Глубокие фейки в реальном времени
Если раньше генерация видео требовала времени, то теперь deepfake можно создавать в прямом эфире. Новые модели способны подстраиваться под движения, речь и эмоции собеседника на видеозвонке, формируя живую иллюзию общения.
«Граница между синтетическими и настоящими медиа продолжает исчезать», — заявляет исследователь Сивэй Лю.
Такие технологии могут использоваться не только для развлечений, но и для мошенничества, шантажа или распространения ложной информации.
Что ждёт мир в 2026 году
Специалисты прогнозируют, что уже в следующем году появятся синтетические исполнители, полностью управляемые ИИ, которые смогут реагировать на зрителя в реальном времени.
«Видеозвонки с фальшивыми участниками станут новой угрозой, а распознать подделку станет почти невозможно», — отмечает автор.
Единственной защитой станут системы цифровой подписи контента и инструменты аутентификации, работающие на уровне инфраструктуры. Простая визуальная проверка больше не поможет отличить оригинал от имитации.
Напомним, ранее мы писали о том, что выбор USB-порта на MacBook может влиять на скорость и стабильность подключения устройств.