Глубокие фейки 2025: как искусственный интеллект стирает грань между реальностью и иллюзией

Искусственный интеллект

Искусственный интеллект. Фото - Pixabay

Технология генерации поддельных изображений и видео достигла нового уровня реалистичности. По данным The Conversation, в 2025 году нейросети научились создавать лица, голоса и даже движения, которые невозможно отличить от настоящих, пишет Politexpert.

Эксперты отмечают, что современные генераторы видео и аудио способны воспроизводить эмоции, интонации и мимику с точностью до мельчайших деталей. Если раньше ошибки в движении глаз или рта помогали вычислить подделку, то теперь даже специалисты с трудом определяют фейк.

Как алгоритмы научились обманывать

Резкий скачок в качестве deepfake связан с появлением новых моделей видео, способных поддерживать временную согласованность кадров. Алгоритмы теперь отдельно анализируют движение и внешность, чтобы менять лица в видео без искажений.

«Модели создают стабильные и последовательные лица без мерцания и искажений, которые раньше выдавали подделку», — указано в исследовании.

Эти технологии позволяют накладывать движение одного человека на облик другого, делая видео убедительным и плавным. В результате пользователи соцсетей часто не замечают подмены даже при внимательном просмотре.

Клоны голоса и рост мошенничества

Одно из самых заметных достижений — клон человеческого голоса. Сегодня достаточно нескольких секунд записи, чтобы система воспроизвела голос с естественными паузами, дыханием и эмоциями.

«Несколько секунд аудио теперь достаточно, чтобы создать убедительный клон», — отмечает автор статьи.

Это открывает возможности для масштабных телефонных и финансовых махинаций. Некоторые торговые сети фиксируют более тысячи звонков в день с поддельными голосами, созданными искусственным интеллектом.

Глубокие фейки в реальном времени

Если раньше генерация видео требовала времени, то теперь deepfake можно создавать в прямом эфире. Новые модели способны подстраиваться под движения, речь и эмоции собеседника на видеозвонке, формируя живую иллюзию общения.

«Граница между синтетическими и настоящими медиа продолжает исчезать», — заявляет исследователь Сивэй Лю.

Такие технологии могут использоваться не только для развлечений, но и для мошенничества, шантажа или распространения ложной информации.

Что ждёт мир в 2026 году

Специалисты прогнозируют, что уже в следующем году появятся синтетические исполнители, полностью управляемые ИИ, которые смогут реагировать на зрителя в реальном времени.

«Видеозвонки с фальшивыми участниками станут новой угрозой, а распознать подделку станет почти невозможно», — отмечает автор.

Единственной защитой станут системы цифровой подписи контента и инструменты аутентификации, работающие на уровне инфраструктуры. Простая визуальная проверка больше не поможет отличить оригинал от имитации.

Напомним, ранее мы писали о том, что выбор USB-порта на MacBook может влиять на скорость и стабильность подключения устройств.

Exit mobile version