Сгенерированные нейросетями видео и тексты перестали быть просто развлечением, превратившись в инструмент шантажа и вымогательства. Эксперты столичного проекта «Перезвони сам» составили детальный гид по выявлению цифровых подделок, помогающий отличить реальное обращение знакомого или публичной личности от опасного дипфейка, созданного злоумышленниками ради финансовой выгоды.
Искусственный интеллект давно вышел за рамки безобидных фильтров в социальных сетях. Сегодня технология дипфейков позволяет преступникам имитировать голоса близких или записывать фальшивые обращения известных личностей. Мошенники создают реалистичные видео, где знакомый якобы просит срочно перевести деньги, или рассылают тексты от имени официальных ведомств. Чтобы не стать жертвой манипуляции, необходимо развивать цифровую бдительность и знать технические слабые места современных нейросетей.Анатомия цифровой лжи
Тексты, написанные искусственным интеллектом, часто выдает их безупречная, но пустая структура. На первый взгляд они кажутся логичными, однако при детальном разборе обнаруживаются фактические ошибки и смысловые петли. Нейросеть склонна дублировать выводы в разных абзацах, не добавляя новой информации. Важным сигналом становится и контекст публикации: аномальная активность в мессенджерах поздно ночью или появление сенсации на анонимном канале при полном молчании официальных СМИ почти всегда указывают на попытку обмана.
Визуальный контент распознать сложнее, но эксперты выделяют ряд признаков, которые ИИ пока не научился имитировать безупречно:
- ошибки в анатомии: лишние пальцы, странная форма ушных раковин или неестественные складки на одежде и волосах;
- проблемы с физикой: тени, падающие в разные стороны от одного источника света, или предметы, которые буквально парят в воздухе;
- отсутствие жизни в деталях: идеальные лица без пор и мелких морщин, неподвижный взгляд при активной мимике и отсутствие реакции зрачков на свет;
- технический брак: «плывущие» контуры объектов, внезапно исчезающие на фоне люди или заметный рассинхрон движения губ с произносимой речью.
Для оперативной проверки подозрительных сообщений и аудиозаписей можно использовать Telegram-бот «Стопфейк». Этот сервис анализирует скриншоты переписок и звуковые файлы, вычисляя вероятность использования мошеннических схем. Несмотря на стремительное развитие технологий, внимательность к мелочам остается главным инструментом защиты. Поспешные решения в ответ на тревожные сообщения — именно то, на что рассчитывают злоумышленники при создании дипфейков.

Комментарии (0)
Пока нет комментариев. Будьте первым!