Использование искусственного интеллекта позволило финансовым мошенникам увеличить доходы в 4,5 раза по сравнению с традиционными методами атак. По данным Интерпола, внедрение генеративных моделей привело к «индустриализации» киберпреступности, сделав фишинг и социальную инженерию массовыми и практически безошибочными.
Преступные группы начали массово использовать нейросети для масштабирования операций при минимальных вложениях. Как отмечают в правоохранительных органах, генеративный ИИ помогает злоумышленникам устранять языковые барьеры и мелкие ошибки в текстах, которые раньше выдавали фишинговые рассылки.Технологии убеждения и «голос из соцсетей»
Современные инструменты позволяют создавать убедительные голосовые клоны, имея всего десять секунд аудиозаписи из социальных сетей жертвы. В даркнете уже сформировался рынок готовых услуг по созданию дипфейков, что упрощает имитацию личности знакомых или руководителей компаний.Следующим этапом станет развитие ИИ-агентов. По прогнозам экспертов, такие боты смогут самостоятельно собирать досье на цели, находить уязвимости в корпоративных системах и даже рассчитывать оптимальный размер выкупа, анализируя финансовую отчетность взломанной организации.
Ущерб в сотни миллиардов долларов
Глобальные потери от финансового мошенничества в 2025 году достигли $442 млрд. Генеральный секретарь Интерпола Вальдеси Уркиса подчеркивает, что доступность дешевых цифровых инструментов ведет к профессионализации криминального рынка.Тенденция отчетливо прослеживается и в России:
- Средняя прибыль хакеров от одной успешной атаки на российскую компанию выросла на 33% и составила $193 тыс.
- Доля результативных кибератак, приведших к сбоям в работе бизнеса, подскочила с 31% до 47%.
- Интенсивность автоматизированного сканирования систем с помощью ИИ за девять месяцев 2025 года увеличилась на 20%.

Комментарии (0)
Пока нет комментариев. Будьте первым!