Когда интеллект искусственный, а жертвы реальные
Qazaq24.com информирует, ссылаясь на сайт Kazpravda.KZ.
– ИИ-мошенничество больше не фантастика – это новая цифровая угроза, уже затронувшая тысячи казахстанцев. Подделанные голоса родственников, дипфейк-видеозвонки от «силовиков», фальшивые инвестпроекты и фишинговые атаки, созданные нейросетями, становятся все изощреннее. Насколько серьезно эта проблема затронула Казахстан?
– ИИ – уже не футуризм, а наша казахстанская реальность. По данным KZ-CERT, число инцидентов кибербезопасности в стране за два года фактически удвоилось: с 34,5 тысячи в 2023-м до 68,1 тысячи в 2024 году. Большая часть – вирусы, ботнеты (объединение устройств, зараженных вредоносным ПО, которое используется для проведения незаконных действий) и фишинг (вид интернет-мошенничества, при котором злоумышленники пытаются украсть личные данные – пароли, номера банковских карт, логины). Но эксперты прямо говорят: в атаках уже активно используют ИИ, в том числе для дипфейков и более убедительного фишинга.
На бытовом уровне это выглядит не как игра в киберпанк, а как очень приземленные истории. Звонят якобы сотрудники банка, операторы связи, полицейские, они уверенно оперируют вашими данными, подсовывают псевдодокументы и вытягивают деньги. МВД фиксирует тысячи таких эпизодов ежегодно, а по данным Генеральной прокуратуры, только за первые восемь месяцев 2025 года – более 14 тысяч случаев интернет-мошенничества с ущербом свыше шести миллиардов тенге.
Отдельный тревожный сигнал – массовая утечка персональных данных 16 миллионов граждан Казахстана. На фоне дешевых ИИ-инструментов – это идеальное сырье для таргетированных атак от персональных фишинговых рассылок до подделки голоса и видео конкретного человека. Так что да, Казахстан уже в эпицентре тренда: цифровизация у нас высокая, а киберграмотность населения пока не поспевает за технологиями, это и делает ситуацию острой.
– Назовите, пожалуйста, самые распространенные схемы ИИ-мошенников на сегодняшний день...
– Если смотреть на реальные кейсы, то сейчас работают несколько массовых схем, где ИИ – усилитель. Первый – это подделка голосов родственников и медийных лиц.
Национальный банк официально предупреждал: участились случаи, когда мошенники взламывают мессенджеры, скачивают голосовые сообщения, загружают их в нейросети и получают почти идеальный голос родного человека или известного блогера. Потом этим голосом звонят с просьбой срочно перевести деньги или поучаствовать в совместной операции с Нацбанком. Так обманулась мама моей подруги и перевела мошенникам деньги. Думаю, не нужно объяснять, какой это был стресс для их семьи.
Второй тренд более сложный, и цепочка включает нескольких лиц. Вам могут позвонить от имени сотового оператора, потом «сотрудник банка» и его «служба безопасности», чтобы укрепить вашу уверенность в том, что с вами говорят серьезные люди. Это целый сценарий с режиссурой. Скрипт выстроен так, что человек живет в состоянии стресса несколько часов и послушно выполняет указания. ИИ здесь отрабатывает тексты, ответы на возражения легко генерируются и подстраиваются под реакцию жертвы. Они пользуются доверчивостью пенсионеров, специально звоня в такое время, когда их дети предположительно на работе.
Третий тренд – это дипфейк-видеозвонки от якобы представителей МВД, прокуратуры и Нацбанка, которые показывают поддельные документы и убеждают перевести деньги «на безопасный счет». Визуальный и голосовой ряд делается максимально правдоподобным. Если специалисты по ИИ могут отличить такие интеграции, то большинство обывателей нет.
Ну и четвертый, еще более новый тренд – красивый инстаграмный обман. Мошенники знают алгоритмы, они научились создавать аккаунты, например, фейковых турфирм, гламурных домиков у озера, привлекательных инвестпроектов. Сочетание красивых фотографий, сторис, отзывов клиентов и скриншотов якобы официальных документов создает у человека ощущение, что это настоящая и надежная компания. Так что теперь обманывают качественным SMM и перформанс-маркетингом. ИИ тут активно используется для генерации текстов, изображений и ведения автодиалогов через ботов.
Не стоит забывать и о массовом фишинге и поиске «денежных мулов» – тех, кто сдает свои банковские карты за процент. ИИ здесь используется для генерации фишинговых писем и сайтов на русском и казахском языках, которые штампуются практически автоматически, плюс через чат-боты ищут этих самых «денежных мулов». Существующие сервисы с ИИ позволяют собрать красивый одностраничный сайт буквально за минуты, человек, который умеет этим пользоваться, может за день наделать десятки таких сайтов для обмана.
– А где те тонкие места, где рвется, и что нужно предпринять, чтобы их укрепить?
– На самом деле тонкие места у нас довольно понятные – человеческий фактор и слабая киберграмотность. Эксперты по медиаграмотности давно говорят, что мозг не успевает адаптироваться к цифровому шуму, а уровень базовой гигиены в Сети низкий. Многие по привычке верят голосу в трубке, красивому сайту, официальному тону, фотографиям документов.
Пока писала диссертацию по ИИ, я много общалась с коллегами из разных отраслей, так вот в целом звучал месседж о слабых требованиях к киберзащите критической инфраструктуры. В научных работах по кибербезопасности Казахстана прямо отмечают: у бизнеса пока не везде есть жесткие требования по SOC (внутренний центр кибербезопасности, который круглосуточно следит за системами компании), обязательной сегментации сетей и отчетности об инцидентах, в отличие от того же GDPR (Европейский закон о защите персональных данных, где за утечку можно получить огромный штраф) в ЕС.
Мошенники мгновенно подхватывают новые инструменты ИИ. Мало принятия закона – необходимо развитие киберграмотности. Это как с коллективным иммунитетом: нужно массовое обучение. Не раз в год лекция в школе или на предприятии о том, что такое ИИ и как с ним работать без рисков, а системные курсы цифровой и финансовой грамотности в школах, вузах и через еGov. При этом эффект будет виден через несколько лет, а усиливать обучение нужно сейчас.
Это иллюзия, что конкретно вас ничего не коснется, что уж вы-то точно не попадетесь на уловку мошенников. Пример из жизни. Моя мама как-то пришла ко мне очень оживленная и говорит: «Смотри, какая хорошая новость: национальная компания «Казатомпром» программу запустила, и даже Роза Рымбаева участвует, и Димаш Кудайберген. Давай тоже вложим средства, там и доход сразу будет». И показывает мне таргетированную рекламу с дипфейком наших казахстанских артистов и других известных личностей. Сделано хорошо, голос похож, артикуляция попадает. И я полчаса объясняю маме: то, что она видит, не существует. Это обман. Она мне говорит: «Ну как же? Вот и знакомые видели, думают вложиться»...
Понимаете? Это игра на эмоциях пожилого поколения, которое привыкло верить известным людям. А сколько детей не успели предупредить? Сколько людей в целом не понимают, что такое ИИ-технологии? Для них ИИ остался чатом GPT. А кто-то вообще не использует его и не может отличить генерацию от реальности.
Людям необходимо знать стандартные правила кибергигиены в быту. Если вам поступил звонок от якобы банка⁄силовых органов, кладите трубку, перезванивайте по официальному номеру. Поверьте, банк никогда не просит перевести кого-то деньги на безопасный счет. И даже если пытаются давить на эмоции, рассказывая, что сейчас на вас оформляют кредит, кладите трубку.
А любой перевод по голосовому запросу родственника – только после перепроверки по другим каналам. Это скучные, но крайне рабочие привычки. Они могут помочь, если однажды ночью родственник позвонит вам и скажет, что ему срочно нужны деньги. А утром вы поймете, что он вам не звонил, его взломали.
Заведите простое правило в семье – слово-пароль, обозначающее, что это точно звонит ваш член семьи. Это слово не пишите в чатах. Просто помните, что, прося родных отправить деньги, вы его называете.
– Мошенничество с использованием цифровых технологий – это цветочки. Ягодки – это потенциальная угроза национальной безопасности…
– Да, онлайн-мошенничество – это вершина айсберга. Под водой три более крупных риска.
Главное – это подрыв доверия к государству и его институтам. Когда злоумышленники подделывают звонки и документы от имени МВД, Нацбанка или других структур, граждане в итоге перестают верить даже реальным сотрудникам. Это бьет по легитимности институтов не хуже, чем обычная пропаганда.
Казахстан за последние годы столкнулся с лавинообразным ростом киберинцидентов, а эволюция ИИ будет происходить дальше, создавая все более изощренные способы мошенничества. Это не значит, что виновата технология. Невозможно остановить прогресс, да это и экономически невыгодно.
Но крайне важно популяризировать знания о кибербезопасности, создавая массовую грамотность. Сделав из этого не элитарную узкодоступную информацию, когда в компании всего два-три специалиста по кибербезопасности, которые владеют пониманием ИИ, а когда более 60–70 процентов населения понимает, что это такое, какие возможности дает, как применяется и как себя обезопасить.
Мир уже увидел кейс, когда с помощью дипфейк-видеоконференции у международной компании Arup увели 25 миллионов долларов, имитируя руководство в режиме реального времени. Согласно отчету Всемирного экономического форума, ни одна из систем при этом не была скомпроментирована, то есть это была смесь социальной инженерии, дипфейков и нового вида изощренности в завоевании доверия сотрудников компании.
Если бы кибератаки были пулями, мы бы все ползали по полу, ведь это были бы тысячи пуль в секунду. Поэтому необходимы системные меры. Казахстан уже принял закон об ИИ, который, в частности, поднимает вопросы ответственности за вред, причиненный системами ИИ, и затрагивает темы дипфейков и ИИ-фрода.
Но при нашем уровне цифровизации крайне важно вкладываться в укрепление национальных центров кибербезопасности. KZ-CERT уже собирает статистику и мониторит угрозы. Развитие в кибербезопасности – игра на опережение угрозы, потому что пост-мортем (от лат. post mortem – «после смерти». – Прим. автора) – это уже случившийся инцидент. И мы не слышим о тысячах устраненных угроз именно потому, что они не случились.
– Можно ли с помощью самого ИИ бороться с кибермошенничеством?
– Не просто можно, а без этого мы уже не справимся по масштабу, ведь те же ботофермы генерируют миллионы ботов. Противостоять им можно тоже с помощью аналогов.
Сегодня ИИ в кибербезопасности используется для поиска аномалий и раннего обнаружения атак. Модели машинного обучения анализируют миллионы событий в сетях и информационных системах и отмечают нетипичное поведение: необычные транзакции, странные логины, подозрительные паттерны трафика.
Для детектирования дипфейков и синтезированных голосов появился отдельный класс решений, которые анализируют цифровые артефакты в аудио и видео, чтобы отличить их от реальной записи. На уровне регулирования это уже закрепляется в ЕС, вводятся требования к маркировке дипфейков и к использованию технологий обнаружения подделок, а также для интеллектуальной антифрод-аналитики в банках и финтехе. Сценарии ИИ-фрода (поддельное лицо⁄голос клиента, глубокая подделка документов) уже описаны в предупреждениях финрегуляторов, например, в предупреждениях FinCEN (подразделение Минфина США по борьбе с финансовыми преступлениями) по дипфейкам. На его основе банки разворачивают более сложные скоринговые модели, которые учитывают и биометрию, и поведение клиента.
Что мы можем перенять? Принятие ответственности не только для конкретных мошенников, но и для крупных платформ и операторов, если они системно не борются с фейковым контентом и ИИ-скамом (привычные схемы обмана, только усиленные ИИ). Казахстан вполне может сделать «единый щит» – объединить в одном приложении блокировку мошеннических звонков, проверку номеров и удобную подачу жалоб.
Но важно понимать: есть бытовой уровень защиты и есть профессиональный. Каждый из нас в силах сделать первый шаг на пути к кибергигиене – объяснить старшему поколению в своих семьях про технологии дипфейков, ИИ, рассказать о том, что не стоит переводить деньги без подтверждения, и тогда, даже если вашим близким позвонят от лица родных, у них будет грамотный ответ на эти действия.
– Что могут сделать бизнес, банки, телеком, финтех, чтобы лучше защищать клиентов?
– Качество внедрения ИИ во многом зависит от процессов. Если в процессах будет порядок, система будет эффективна.
В международной практике есть примеры на запрет голосовых операций с банками без второго канала подтверждения, а также лимиты на онлайн-кредиты и переводы для новых клиентов или необычные сценарии. Помните: ни один оператор банка или телеком-компании не имеет права входить в клиентский аккаунт под видом помощи, просить коды из SMS, пароли или биометрические данные.
Также важна поведенческая аналитика транзакций и логинов, которая ловит аномалии. Это антиспуфинг (комплекс технологий, направленных на распознавание признаков живого человека перед камерой) для голосовой биометрии и детекторы синтетической речи, если компания уже использует голос⁄фейс-ID.
И, конечно, необходимо инвестировать в обучение клиентов и сотрудников. Проводить антифрод-кампании в своих приложениях, рассылках, через звонки – объяснять про ИИ-подделку голоса и дипфейки на простом языке, с реальными кейсами. Регулярно тренировать собственные команды сценариями ИИ-мошенничества, как это делается с фишинг-симуляциями. Со временем в обществе возникнет эффект того, что, если хотя бы один человек в семье осведомлен, риски снижаются в целом для всей семьи.
Большое значение имеет обмен опытом об атаках и паттернах мошенников через профессиональные ассоциации и совместные проекты с KZ-CERT, TSARKA и правоохранительными органами, ведь это может помочь нарастить компетенцию внутри компании. По сути, если бизнес будет относиться к антифроду как к части клиентского сервиса и репутации, а не как к обязательной галочке для регулятора, это снизит риски утечек данных и цифровую агрессию для граждан.
– Но как же найти баланс между свободным развитием ИИ и контролем за его использованием?
– Моя позиция как IT-специалиста и пиарщика простая – запрещать технологии в целом бессмысленно, но и оставлять ИИ в режиме «дикого Запада» нельзя. Нужен риск-ориентированный подход.
Это значит необходимость регулирования высокорисковых сценариев в использовании ИИ в критической инфраструктуре, финсекторе, биометрии, госуправлении. Здесь нужна обязательная сертификация, аудит, логирование действий модели, оценка воздействия на права граждан. Логика примерно такая же, как в европейском AI Act и казахстанском законе об ИИ.
Важно обеспечить прозрачность там, где ИИ взаимодействует с людьми. Чат-боты, голосовые ассистенты, дипфейк-инструменты должны честно говорить пользователю, что он общается с машиной или смотрит ИИ-контент. Это уже закрепляется в европейском праве и должно стать нормой де-факто.
При этом важно создавать для бизнеса специальные «песочницы» – безопасные тестовые режимы, где новые ИИ-сервисы можно пробовать в реальных условиях, но под присмотром регулятора и с ограничениями по рискам для клиентов. Малому бизнесу, исследовательским командам, стартапам нужно давать возможность экспериментировать в регуляторных «песочницах» с понятными рамками и без риска оказаться под несоразмерными санкциями.
В числе самого важного – понимание необходимости вкладываться в просвещение. Ни один закон не заменит базового понимания того, как работает ИИ, какие у него ограничения и где он может навредить. От медиаграмотности в школах до корпоративных программ по кибербезопасности – это долгосрочная, но ключевая инвестиция. Баланс – это когда у нас есть свобода создавать полезные ИИ-решения, но в рамках понятных правил игры, которые защищают людей, бизнес и государство от злоупотреблений.
Другие новости на эту тему:
Просмотров:110
Эта новость заархивирована с источника 20 Ноября 2025 01:36 



Войти
Новости
Погода
Магнитные бури
Время намаза
Драгоценные металлы
Конвертор валют
Кредитный калькулятор
Курс криптовалют
Гороскоп
Вопрос - Ответ
Проверьте скорость интернета
Радио Казахстана
Казахстанское телевидение
О нас








Самые читаемые



















