< img src = "https://www.rb.ua/static/img/g/e/gettyimages_1819824175_3466666fa0eacff818183e15b0da4601_650.410. Как защитить от подделок AI (фото: Getty Images) Автор: Пол Колесник < P > Бум искусственного интеллекта дал миру не только чат -боты, но и новый вид цифровых фальсификаций – Dipfeyics. Это технологии, которые позволяют вам создавать чрезвычайно истины, такие как поддельные фотографии, видео и аудиозаписи.

< P > RBC-Ukraine рассказывает вам, как не быть пойманным на фальшивых фотографиях, видео и аудио, со ссылкой на технологический сайт PCWorld.

~ < h2 > Что такое дипфейк

< p > Глубокий термин происходит из сочетания слов глубокого обучения и подделки (подделка). Это может быть, например, видео, в котором лицо одного человека заменяется лицом другого, или звук, где говорит «знаменитый голос», что никогда не было произнесено.

< P > Ранее создание таких подделок требует ресурсов и навыков. Теперь, благодаря услугам искусственного интеллекта, даже в Интернете, практически любой пользователь может создать Dipfeyk.

< H2 > Зачем использовать Dipfeyks < p > Создатели таких приложений часто позиционируют их как развлечение. Но на практике они – < strng > все чаще и чаще используются мошенниками:

< ul > < li > Shie-Imation относительного родственника: злоумышленники называют, сообщайте о «аварии» и попросите деньги < li > Поддельное видео с политиками – манипулировать общественным мнением

< l > Ложная реклама со звездами “участия” – когда человек не знал, что его лицо использовалось в рекламе, а продукт может быть низким качеством или вообще не доставлен. ~

< H2 > Как распознать дипфик

< p > В первые годы подделка может быть распознана визуальными и звуковыми грехами: странные выражения лица, неестественная интонация. Но технологии развиваются, и теперь различие подделки становится все сложнее.

< p >Сегодня в Интернете доступны специальные услуги ИИ, которые анализируют изображения и видео. Один из самых передовых Deepfake-O-Meter, разработанный лабораторией Университета Университета СМИ в Университете криминалистики (США).

< P > Он объединяет 16 систем ИИ, которые проверяют нагруженные пользователями фотографии, видео или аудио и выдают вероятность подделки. Доступ к службе бесплатно – После регистрации вы получите 30 чеков.

< P > Например, знаменитая фотография Папы Франциска в белой куртке, созданная с Midjourney, только две системы были признаны как дипфейк с вероятностью более 50%. И вот портрет, сгенерированный Canva, был определен как Wi-Image в 7 случаях с 16.

< p style = "text-align: center;" > 0 ~ ~ img src = “/static/ckef2/img/2_3184.jpg” data-lazy-type = “Image” >.На изображении отца тень не соответствует ободу очков, а крест на цепи висит только на одной стороне (фото: reddit)

> 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 < P > Sigtengine (Франция) быстрее и дает 99% вероятности подделки изображения сгенерированной женщины. Однако о фотографиях с папой – всего 53%.

< p style = "text-align: center;" >< img src = "/static/ckef2/img/1_4142.jpg" Data-Lazy-Type Deepfake-O-Meter, не идентифицировал изображение Франциска в белом куртке как надежный дипфейк (фото: idg) ~ 60 > 0 ~/p > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 > 62 ~ 62 < H2 > Что обращать внимание вручную: 5 признаков Дипфики < p > Даже без специальных программ подделка может быть распознана – < strng > Посмотрите достаточно внимательно: 0 ~/p > > 62 > 62 < ul > < li > В Si Часто существуют ошибки с числом или длиной пальцев, они могут быть излишними, короткими или сплавленными < li > руки и ноги могут быть устроены странными или не «принадлежащими» персонажем < li > Неестественный угол падающих волос, «пластиковый», внешний вид

< li > Асимметрия кнопок, разбитых очков, открытые цепи

< li > Неестественные тени, размытие, искажение

< l > шрифты выглядят как арахнид, неизбирательные символы

< li > На заднем плане вы часто можете видеть неправильные тени или несоответствие в пропорциях.

< H2 > Видео почти неразличимо из реальности

< P > С появлением видео генератора Sora от Openai в 2024 году Dipfeyics достигла нового уровня. Сотни реалистичных видео, созданных этой системой, уже можно найти на YouTube. По качеству они иногда не уступают профессиональной стрельбе.

< p >Все труднее распознавать такие видео, но бесплатные онлайн -инструменты все еще существуют. Одним из них является Deepware.ai, другой – детектор AI Hive. Первый совершенно бесплатный, второй позволяет проверить видео на до 20 секунд в бесплатной версии.

< P > Во время тестирования роликов, сгенерированных с SORA, Deepware оказалось плохо – не распознавала никаких фальшивых. Вместо этого Hive работал намного лучше: во всех случаях программа указывала на вероятность дипфинирования 99%.

< H2 > Знаки, которые можно распознавать Dipfeyk-Video < p > Даже без специальных программ некоторые знаки ~ 60 > дают фальшивое видео: 0 ~/p > ~ > 62 > 62 < ul > < li > нечеткие или “арахнид” шрифты – текст на экране не может быть разобран

< li > Неправильные тени – они отброшены в неожиданных направлениях или полностью отсутствуют

< li >Отсутствие фона с остальной частью сцены часто является резолюцией за спиной хуже, чем у людей на переднем плане < l > Неестественное поведение людей – движения медленные, лицо без лица лица, мигание может отсутствовать

< li > Ошибки волос – пряди, кажется, висят в воздухе и не связаны с головой.

< p > Чтобы увидеть много этих деталей, иногда достаточно, чтобы замедлить видео.

< H2 > Аудиосистемы (все чаще используются в мошенничестве) < P > SHI теперь способен подражать голосу человека всего за несколько секунд записи. Такая программа, как клонирование голоса в реальном времени, может озвучить любой текст с голосом другого человека.

< p > Технология еще не идеальна – согласно исследованию, в двух из трех случаев люди могут распознать поддельные. Но теперь преступники успешно использовали головы Dipfeyk для «звонков родственников» с запросами на помощь.

< P >< Strong > Распознавание фальшивых голосов 0 ~/p > 62 > 62 > 62 < P > Пока большинство решений сосредоточено на рынке английского языка:

< ul > < li > Depector McAfee Deepfake – проверяет видео и аудио на предмет поддельных голосов. Доступно на ПК с Intel Core Ultra 200V

< li > Demble.ai и AI Voice Detector – Коммерческие решения для корпоративных клиентов < li > Hiya AI Detector – бесплатное расширение для Google Chrome, которое анализирует голосовые записи на сайтах.

< p >< Стронг > Вас может быть заинтересован в:

< ul > < li > Meta начал процесс запуска личного AI

< li > Модели ИИ начали заражать друг друга «агрессивными» данными

< li > Google Integrated Shi-Video на основе VEO в популярных приложениях

www.rbc.ua

Categorized in:

Технологии,

Last Update: 1 августа 2025