Qazaq24.com сообщает, основываясь на информации сайта Time.KZ.
Как защититься от интернет-мошенников, подделывающих голоса с помощью ИИ?
Схемы интернет-мошенников становятся всё более изощрёнными, предупреждают полицейские Алматы. Зафиксированы случаи, когда людям звонили «родственники» и «руководители», используя голосовые клоны и поддельные видеозвонки.
— В условиях стремительного развития цифровых технологий мы наблюдаем, как искусственный интеллект всё чаще используется в преступных целях. За последние шесть лет количество таких преступлений выросло почти в два раза. Идёт рост атак как на физических лиц, так и в корпоративном секторе, — рассказал на пресс-конференции в Региональной службе коммуникаций Алматы заместитель начальника управления по противодействию киберпреступности ДП города Еркебулан КОЙШЫБАЕВ. — Если в 2020 году было зарегистрировано 1677 фактов, то в 2025 году — уже 2851.
С начала текущего года в Алматы зафиксировано более 700 случаев интернет-мошенничества, из которых раскрыто свыше 300. Почти половину ущерба удалось возместить пострадавшим. Совместно со службами безопасности банков и операторами связи киберполицейские предотвратили 42 попытки перевода денег мошенникам на сумму более 45 млн тенге.
По словам замначальника управления, злоумышленники активно используют технологии ИИ, включая генеративные модели и машинное обучение. Это позволяет создавать убедительный контент, подделывать голос и внешность людей, а также автоматизировать общение с жертвами.
— Из нового — мошенники пошли в корпоративный сектор. Они анализируют данные из открытых источников: берут фамилии, имена руководителей, подчинённых и другую информацию, затем генерируют голос руководителя и отправляют голосовое сообщение подчинённым — срочно перевести деньги. Мы слушали такие записи — один в один, — отметил Койшибаев.
Среди распространённых схем — deepfake-мошенничество, создание голосовых клонов, фишинг нового поколения, автоматизированные чат-боты, поддельные документы и скриншоты переводов. ИИ позволяет писать грамотные сообщения от имени банков или госорганов, вести диалог с жертвой и выманивать деньги или персональные данные.
Как противостоять таким схемам?Специалисты рекомендуют не переходить по подозрительным ссылкам, пересылаемым через мессенджеры, не доверять срочным просьбам о переводе денег, перепроверять информацию через альтернативные каналы связи, не передавать личные данные третьим лицам, а также использовать двухфакторную аутентификацию и надёжные пароли.
Как определить, что голос близкого человека сгенерирован ИИ?— Если пришло голосовое сообщение, прослушайте его ещё раз: сгенерированная речь обычно слишком чёткая, без ошибок, могут быть нетипичные формулировки. Если это видео, обратите внимание на мелкие детали в кадре — иногда ИИ можно распознать невооружённым взглядом, — пояснил Койшибаев.
Есть ли эффективные механизмы защиты?— Человеческий фактор — это профилактика: важно, чтобы люди знали методы мошенников. Мы используем современные технические инструменты, но не можем раскрывать все детали — это может сыграть на руку злоумышленникам. Развиваем цифровую криминалистику, анализ криптовалютных и банковских транзакций, оперативно блокируем счета дропперов. Можно сказать, что мы идём вровень: мошенники придумывают новые схемы, а мы внедряем новые методы защиты, — отметил он.
Кроме того, для проверки подлинности сайтов и приложений совместно с банками и операторами связи разрабатывается специальная платформа.
Елена КОЭМЕЦ, Алматы