Главная Технологии Глубокие фейки 2025: как искусственный интеллект стирает грань между реальностью и иллюзией
Технологии

Глубокие фейки 2025: как искусственный интеллект стирает грань между реальностью и иллюзией

ИИ уже способен создавать виртуальные копии людей с точностью до мельчайших движений и эмоций, меняя само понятие доверия к цифровому контенту.

Поделиться
Искусственный интеллект
Искусственный интеллект. Фото - Pixabay
Поделиться

Технология генерации поддельных изображений и видео достигла нового уровня реалистичности. По данным The Conversation, в 2025 году нейросети научились создавать лица, голоса и даже движения, которые невозможно отличить от настоящих, пишет Politexpert.

Эксперты отмечают, что современные генераторы видео и аудио способны воспроизводить эмоции, интонации и мимику с точностью до мельчайших деталей. Если раньше ошибки в движении глаз или рта помогали вычислить подделку, то теперь даже специалисты с трудом определяют фейк.

Как алгоритмы научились обманывать

Резкий скачок в качестве deepfake связан с появлением новых моделей видео, способных поддерживать временную согласованность кадров. Алгоритмы теперь отдельно анализируют движение и внешность, чтобы менять лица в видео без искажений.

«Модели создают стабильные и последовательные лица без мерцания и искажений, которые раньше выдавали подделку», — указано в исследовании.

Эти технологии позволяют накладывать движение одного человека на облик другого, делая видео убедительным и плавным. В результате пользователи соцсетей часто не замечают подмены даже при внимательном просмотре.

Клоны голоса и рост мошенничества

Одно из самых заметных достижений — клон человеческого голоса. Сегодня достаточно нескольких секунд записи, чтобы система воспроизвела голос с естественными паузами, дыханием и эмоциями.

«Несколько секунд аудио теперь достаточно, чтобы создать убедительный клон», — отмечает автор статьи.

Это открывает возможности для масштабных телефонных и финансовых махинаций. Некоторые торговые сети фиксируют более тысячи звонков в день с поддельными голосами, созданными искусственным интеллектом.

Глубокие фейки в реальном времени

Если раньше генерация видео требовала времени, то теперь deepfake можно создавать в прямом эфире. Новые модели способны подстраиваться под движения, речь и эмоции собеседника на видеозвонке, формируя живую иллюзию общения.

«Граница между синтетическими и настоящими медиа продолжает исчезать», — заявляет исследователь Сивэй Лю.

Такие технологии могут использоваться не только для развлечений, но и для мошенничества, шантажа или распространения ложной информации.

Что ждёт мир в 2026 году

Специалисты прогнозируют, что уже в следующем году появятся синтетические исполнители, полностью управляемые ИИ, которые смогут реагировать на зрителя в реальном времени.

«Видеозвонки с фальшивыми участниками станут новой угрозой, а распознать подделку станет почти невозможно», — отмечает автор.

Единственной защитой станут системы цифровой подписи контента и инструменты аутентификации, работающие на уровне инфраструктуры. Простая визуальная проверка больше не поможет отличить оригинал от имитации.

Напомним, ранее мы писали о том, что выбор USB-порта на MacBook может влиять на скорость и стабильность подключения устройств.

Поделиться
Материалы по теме
Ноутбук
Технологии

Почему выбор USB-порта на MacBook влияет на скорость и стабильность работы устройств

На MacBook выбор правильного порта влияет не только на удобство, но и...

SSD
Технологии

Почему внешние SSD вытесняют SATA: аналитики объяснили резкое падение цен

Внешние SSD становятся дешевле и быстрее, чем SATA-диски, полностью меняя подход к...

Дональд Трамп
ГлавноеТехнологии

Новый флот Трампа: США создадут корабли нового поколения с искусственным интеллектом

Программа строительства нового флота отражает курс США на укрепление военного присутствия и...

Эквадор
Технологии

Не Эверест и не Непал: названа точка Земли, которая ближе всех к космосу

Чимборасо в Эквадоре признан самой близкой к космосу точкой Земли, опередив Эверест...