нейросети21 апреля 2026 г.

Эпидемия голосового мошенничества: ИИ клонирует голоса за 3 секунды, потери достигают $40 млрд к 2027 году

Число атак с использованием клонирования голоса выросло на 1 633% за квартал. Каждый третий, кто отвечает на звонок ИИ-мошенника, теряет в среднем $18 000. Trend Micro и ФБР бьют тревогу.

Эпидемия голосового мошенничества: ИИ клонирует голоса за 3 секунды, потери достигают $40 млрд к 2027 году

Голосовое мошенничество с использованием искусственного интеллекта превратилось в глобальную эпидемию. По данным Trend Micro, опубликованным 16 апреля 2026 года, для создания точной копии голоса любого человека злоумышленникам достаточно всего трёх секунд аудиозаписи — короткого ролика из соцсетей, голосового сообщения или даже ответа на телефонный звонок. Технология стала настолько доступной, что один человек может запустить полноценную мошенническую операцию за несколько часов, потратив всего $60 в месяц на подписку на ИИ-сервис.

Масштабы проблемы поражают: число атак с использованием дипфейк-голосов выросло на 1 633% только за первый квартал 2025 года по сравнению с предыдущим кварталом, а общий рост за год составил 1 300%. Каждый десятый человек в мире уже сталкивался с попыткой голосового ИИ-мошенничества. При этом каждый третий, кто вступает в разговор с клонированным голосом, теряет деньги — средняя сумма ущерба составляет $18 000. Банки фиксируют потери в среднем $600 000 на каждый инцидент с голосовым дипфейком, а 23% финансовых организаций теряют свыше $1 млн за раз.

Особую тревогу вызывает то, что распознать подделку практически невозможно: точность определения высококачественного дипфейка человеком составляет всего 24,5%, а среди сотрудников компаний этот показатель падает до 5%. При этом лишь 32% организаций располагают инструментами для выявления клонированных голосов. ФБР в 2025 году выпустило специальное предупреждение о том, что преступники используют ИИ-клоны голосов высокопоставленных чиновников для вымогательства и шпионажа.

Один из самых крупных инцидентов произошёл с британской инженерной компанией Arup: мошенники организовали видеоконференцию с дипфейками топ-менеджеров и убедили сотрудника финансового отдела перевести $25,6 млн за 15 транзакций. Типичная схема выглядит так: преступники взламывают аккаунт в социальных сетях через небезопасные сторонние приложения, извлекают образцы голоса из видеороликов жертвы, а затем звонят родственникам, имитируя ситуацию экстренной помощи. Если близкие пытаются перезвонить для проверки через взломанный аккаунт — мошенник отвечает клонированным голосом прямо из него.

Прогнозы неутешительны: рынок технологий клонирования голоса достигнет $4,06 млрд в 2026 году и вырастет до $9,56 млрд к 2030-му (CAGR 23,9%). Убытки от дипфейк-мошенничества, по оценкам Deloitte, могут достичь $40 млрд в год к 2027 году. Сенатор США Мэгги Хассан в апреле 2026 года направила письма ведущим компаниям, занимающимся клонированием голоса, с требованием внедрить защиту от использования их технологий мошенниками.

Эксперты Trend Micro рекомендуют несколько мер защиты: установить семейное кодовое слово для подтверждения личности при подозрительных звонках, никогда не записывать его в цифровом виде, проверять любые просьбы о деньгах через альтернативный канал связи, ограничить публикацию голосовых записей в социальных сетях и использовать многофакторную аутентификацию, которая снижает риск на 70%. Организациям рекомендуется внедрять системы обнаружения в реальном времени — они сокращают число успешных мошеннических атак на 45%.

Попробуйте нейросети в MashaGPT

GPT-5, Claude, Gemini, генерация изображений и видео — всё в одном месте

Попробовать бесплатно
Источник:Trend Micro