< img src = "https://www.rb.ua/static/img/_/k/_kiberbezpeka_ataka_noutbuk_shahahrayi _kiberzlochinnist_gettyimages_8aafe34796c9706355555de0d7e. "Alt =" Мошенничество с ИИ в 2025 году бьет записи: как защитить себя прямо сейчас " /> Мошенники используют SI, чтобы раздать себя родственникам и боссам (фото: Getty Images) Автор: Пол Колесник < P > В 2025 году мошенники все чаще используются искусственным интеллектом для клонирования голосов, имитировать свои лица и делают себя для близких или коллег. Количество таких мошенничества увеличивается каждый месяц, а современные инструменты делают мошенничество практически невозможным для признания.

< p > rbc-ukraine Со ссылкой на Techradar сообщает, как защитить себя от новых мошенников.

< H2 > Что такое мошенничество с подражанием через ш

< P > SHI Мошенничество – это быстро растущая форма обмана, где преступники используют искусственный интеллект, чтобы точно воспроизвести голос, лицо или стиль текста человека.

< P > Чаще всего используется голосовое клонирование – технология, способная воспроизводить человеческую речь, имея всего несколько секунд записи.

< p >Записи легко найти в открытом доступе: в голосовой почте, интервью или видео в социальных сетях. По данным государственного университета Монтклера, даже коротких фрагментов подкаста или онлайн -урока может быть достаточно, чтобы создать убедительный голосовой клон.

< P > Некоторые мошенники продолжаются, используя поддельные видео для имитации живых звонков. Forbes пишет, что злоумышленники уже выпустили себя для компаний в видеоконференциях, убедив сотрудников провести крупные банковские переводы.

< P > Эксперты утверждают, что быстрое увеличение количества мошенничества с использованием AI в 2025 году < strng > < P > Используя такие цифровые подделки, злоумышленники делают себя для членов семьи, боссов или даже чиновников и требуют конфиденциальной информации или срочных платежей.

< H2 > Кто может быть жертвой < P > мошенничество с AI встречается < Strong >В телефонных звонках, видеозвонках, посланниках и электронных письмах , часто вызывает удивление людей в повседневной жизни.

~ ~ < P > Корпоративная киберпреступность создает фальшивые видео, подражая компаниям. В 2024 году нападавшие выступили в качестве британского британского директора и убедили сотрудников перевести 25 миллионов долларов.

< P > для убедительной имитации они используют фотографии и видео с LinkedIn, корпоративными сайтами и социальными сетями.

< P > Shi-Shahhraja становятся все более и более сложными: по словам поставщика Mail Pabox, почти 48% фишинговых атак, включая голосовые и видеоклипы, обходные системы защиты.

~ < H2 > Как защитить себя от Ши-Шахрай < p >Эксперты объясняют, что мошенничество с ИИ является успешным, потому что они создают ложное чувство срочности. Преступники наслаждаются уверенностью в знакомых голосах и лицах.

< p >< Стронг > Основная защита – не спешите. Потратьте время, чтобы проверить личность собеседника. Инициатива Take9 советует сделать паузу как минимум девять секунд, прежде чем действовать.

< P > Если у вас есть подозрительный звонок или видео от друга – позвоните ему, позвоните в тот номер, который у вас уже есть. Как отмечает аналитик по кибербезопасности Эшвина Рагха, мошенники полагаются на мгновенный ответ.

< p > Также важно < strng > Обратите внимание на сигналы Deepfake : странные движения рта, мерцающие фоны или необычный визуальный контакт. Голоса SI могут иметь неестественные паузы или фоновые шумы, даже если они убедительны.

< P > Дополнительные уровни защиты также помогают. < Strong > Многофакторная аутентификация (MFA) усложняет доступ к вашим счетам даже в случае учетных данных. Эксперт по Жаклин Джейн рекомендует объединить прямую проверку личности с любой формой MFA, особенно в периоды высокой активности высоких мошенников.

< P > AI открывает потрясающие возможности, но в то же время дает мошенникам новые способы обмана. Осторожно оставаясь, проверяя подозрительные запросы и открыто обсуждая угрозы, вы можете снизить риск получения, независимо от того, насколько реалистичным является глубокий уровень.

< p >< Стронг > Вас может быть заинтересован в:

< ul > < li > Исследователи обнаружили первый вирус, созданный на основе искусственного интеллекта

< li > 6 наиболее распространенных мошеннических схем в 2025 году

< li > Как распознавать фальшивые видео, фотографии и аудио, созданные ~

www.rbc.ua

Categorized in:

Технологии,

Last Update: 1 сентября 2025