Qazaq24.com
Qazaq24.com
close
up
KZ
Menu

Стрельба в Кёльне: двое тяжело ранены, стрелок задержан

Токаев выразил соболезнования президенту Индонезии и премьер министру Таиланда

Air Astana завершила обновление программного обеспечения на 38 самолётах Airbus

Задержка вылетов Airbus: Казахстанские авиакомпании завершают обновление ПО

От туманов до мокрого снега: какая погода ждет Шымкент с 1 по 5 декабря

Какой будет погода в крупнейших городах Казахстана в последний день осени

На сайте Белого дома появилась доска позора для СМИ

Казахстан впервые завоевал медаль по пара карате в Каире

Двойная победа: Кристина Шумекова принесла Казахстану два золота

Наводнения в Индонезии и Таиланде: Токаев выразил соболезнования

Скорость движения снизили на трассе Астана Петропавловск из за плохой погоды

Разгромом завершился второй матч сборной Казахстана на чемпионате мира

Казахстанка Ольга Тихонова поборется за выход в финал Мирового тура по шорт треку

Семью шайбами обернулся матч Барыса и лидера КХЛ

В Алматы завершается строительство 8 школ почти на 12 тыс. мест

Единый QR код для всех платежей появится в Узбекистане

Гололед, снег и нулевая видимость: Казгидромет объявил опасную погоду на 30 ноября

По инерции выехал на встречку : несколько человек попали в больницу после массового ДТП в Алматы

В области Абай состоялся республиканский турнир беркутчи

Сборная Казахстана по биатлону не смогла финишировать в первой гонке Кубка мира

Когда интеллект искусственный, а жертвы реальные

Когда интеллект искусственный, а жертвы реальные

Qazaq24.com информирует, ссылаясь на сайт Kazpravda.KZ.

– ИИ-мошенничество больше не фантастика – это новая цифровая угроза, уже затронувшая тысячи казахстанцев. Подделанные голоса родственников, дипфейк-видео­звонки от «силовиков», фальшивые инвестпроекты и фишинговые атаки, созданные нейросетями, становятся все изощреннее. Насколько серьезно эта проблема затронула Казахстан?

– ИИ – уже не футуризм, а наша казахстанская реальность. По данным KZ-CERT, число инцидентов кибербезо­пасности в стране за два года фактически удвоилось: с 34,5 тысячи в 2023-м до 68,1 тысячи в 2024 году. Большая часть – вирусы, ботнеты (объе­динение устройств, зараженных вредоносным ПО, которое используется для проведения незаконных действий) и фишинг (вид интернет-мошенничества, при котором злоумышленники пытаются украсть личные данные – пароли, номера банковских карт, логины). Но эксперты прямо говорят: в атаках уже активно используют ИИ, в том числе для дипфейков и более убедительного фишинга.

На бытовом уровне это выглядит не как игра в киберпанк, а как очень приземленные истории. Звонят якобы сотрудники банка, операторы связи, полицейские, они уверенно оперируют вашими данными, подсовывают псевдодокументы и вытягивают деньги. МВД фиксирует тысячи таких эпизодов ежегодно, а по данным Генеральной прокуратуры, только за первые восемь месяцев 2025 года – более 14 тысяч случаев интернет-мошенничества с ущербом свыше шести миллиардов тенге.

Отдельный тревожный сигнал – массовая утечка персональных данных 16 миллионов граждан Казахстана. На фоне дешевых ИИ-инструментов – это идеальное сырье для таргетированных атак от персональных фишинговых рассылок до подделки голоса и видео конкретного человека. Так что да, Казахстан уже в эпицентре тренда: цифровизация у нас высокая, а киберграмотность населения пока не поспевает за технологиями, это и делает ситуацию острой.

– Назовите, пожалуйста, самые распространенные схемы ИИ-мошенников на сегодняшний день...

– Если смотреть на реальные кейсы, то сейчас работают несколько массовых схем, где ИИ – усилитель. Первый – это подделка голосов родственников и медийных лиц.

Национальный банк официально предупреждал: участились случаи, когда мошенники взламывают мессенджеры, скачивают голосовые сообщения, загружают их в нейросети и получают почти идеальный голос родного человека или известного блогера. Потом этим голосом звонят с просьбой срочно перевести деньги или поучаствовать в совместной операции с Нацбанком. Так обманулась мама моей подруги и перевела мошенникам деньги. Думаю, не нужно объяснять, какой это был стресс для их семьи.

Второй тренд более сложный, и цепочка включает нескольких лиц. Вам могут позвонить от имени сотового оператора, потом «сотрудник банка» и его «служба безопасности», чтобы укрепить вашу уверенность в том, что с вами говорят серьезные люди. Это целый сценарий с режиссурой. Скрипт выстроен так, что человек живет в состоянии стресса несколько часов и послушно выполняет указания. ИИ здесь отрабатывает тексты, ответы на возражения легко генерируются и подстраиваются под реакцию жерт­вы. Они пользуются доверчивостью пенсио­неров, специально звоня в такое время, когда их дети предположительно на работе.

Третий тренд – это дипфейк-видеозвонки от якобы представителей МВД, прокуратуры и Нацбанка, которые показывают поддельные документы и убеждают перевести деньги «на безопасный счет». Визуальный и голосовой ряд делается максимально правдоподобным. Если специалисты по ИИ могут отличить такие интеграции, то большинство обывателей нет.

Ну и четвертый, еще более новый тренд – красивый инстаграмный обман. Мошенники знают алгоритмы, они нау­чились создавать аккаунты, например, фейковых турфирм, гламурных домиков у озера, привлекательных инвестпроектов. Сочетание красивых фотографий, сторис, отзывов клиентов и скриншотов якобы официальных документов создает у человека ощущение, что это настоящая и надежная компания. Так что теперь обманывают качественным SMM и перформанс-маркетингом. ИИ тут активно используется для генерации текстов, изображений и ведения автодиалогов через ботов.

Не стоит забывать и о массовом фишинге и поиске «денежных мулов» – тех, кто сдает свои банковские карты за процент. ИИ здесь используется для генерации фишинговых писем и сайтов на русском и казахском языках, которые штампуются практически автоматически, плюс через чат-боты ищут этих самых «денежных мулов». Существующие сервисы с ИИ позволяют собрать красивый одностраничный сайт буквально за минуты, человек, который умеет этим пользоваться, может за день наделать десятки таких сайтов для обмана.

– А где те тонкие места, где рвется, и что нужно предпринять, чтобы их укрепить?

– На самом деле тонкие места у нас довольно понятные – человеческий фактор и слабая киберграмотность. Эксперты по медиаграмотности давно говорят, что мозг не успевает адаптироваться к цифровому шуму, а уровень базовой гигиены в Сети низкий. Многие по привычке верят голосу в трубке, красивому сайту, официальному тону, фотографиям документов.

Пока писала диссертацию по ИИ, я много общалась с коллегами из разных отраслей, так вот в целом звучал месседж о слабых требованиях к киберзащите критической инфраструктуры. В научных работах по кибербезопас­ности Казахстана прямо отмечают: у бизнеса пока не везде есть жесткие требования по SOC (внутренний центр кибербезопасности, который круглосуточно следит за системами компании), обязательной сегментации сетей и отчетности об инцидентах, в отличие от того же GDPR (Европейский закон о защите персональных данных, где за утечку можно получить огромный штраф) в ЕС.

Мошенники мгновенно подхватывают новые инструменты ИИ. Мало принятия закона – необходимо развитие киберграмотности. Это как с коллективным иммунитетом: нужно массовое обучение. Не раз в год лекция в школе или на предприятии о том, что такое ИИ и как с ним работать без рисков, а системные курсы цифровой и финансовой грамотности в школах, вузах и через еGov. При этом эффект будет виден через несколько лет, а усиливать обучение нужно сейчас.

Это иллюзия, что конкретно вас ничего не коснется, что уж вы-то точно не попадетесь на уловку мошенников. Пример из жизни. Моя мама как-то пришла ко мне очень оживленная и говорит: «Смотри, какая хорошая новость: национальная компания «Каз­атомпром» программу запустила, и даже Роза Рымбаева участвует, и Димаш Кудайберген. Давай тоже вложим средства, там и доход сразу будет». И показывает мне таргетированную рекламу с дипфейком наших казахстанских артистов и других известных личностей. Сделано хорошо, голос похож, артикуляция попадает. И я полчаса объясняю маме: то, что она видит, не существует. Это обман. Она мне говорит: «Ну как же? Вот и знакомые видели, думают вложиться»...

Понимаете? Это игра на эмоциях пожилого поколения, которое привыкло верить известным людям. А сколько детей не успели предупредить? Сколько людей в целом не понимают, что такое ИИ-технологии? Для них ИИ остался чатом GPT. А кто-то вообще не использует его и не может отличить генерацию от реальности.

Людям необходимо знать стандарт­ные правила кибергигиены в быту. Если вам поступил звонок от якобы банка⁄силовых органов, кладите трубку, перезванивайте по официальному номеру. Поверьте, банк никогда не просит перевести кого-то деньги на безопасный счет. И даже если пытаются давить на эмоции, рассказывая, что сейчас на вас оформляют кредит, кладите трубку.

А любой перевод по голосовому зап­росу родственника – только после перепроверки по другим каналам. Это скучные, но крайне рабочие привычки. Они могут помочь, если однажды ночью родственник позвонит вам и скажет, что ему срочно нужны деньги. А утром вы поймете, что он вам не звонил, его взломали.

Заведите простое правило в семье – слово-пароль, обозначающее, что это точно звонит ваш член семьи. Это слово не пишите в чатах. Просто помните, что, прося родных отправить деньги, вы его называете.

– Мошенничество с использованием цифровых технологий – это цветочки. Ягодки – это потенциальная угроза национальной безо­пасности…

– Да, онлайн-мошенничество – это вершина айсберга. Под водой три более крупных риска.

Главное – это подрыв доверия к государству и его институтам. Когда злоумыш­ленники подделывают звонки и документы от имени МВД, Нацбанка или других структур, граждане в итоге перестают верить даже реальным сотрудникам. Это бьет по легитимности институтов не хуже, чем обычная пропаганда.

Казахстан за последние годы столк­нулся с лавинообразным ростом киберинцидентов, а эволюция ИИ будет происходить дальше, создавая все более изощренные способы мошенничества. Это не значит, что виновата технология. Невозможно остановить прогресс, да это и экономически невыгодно.

Но крайне важно популяризировать знания о кибербезопасности, создавая массовую грамотность. Сделав из этого не элитарную узкодоступную информацию, когда в компании всего два-три специалиста по кибербезопасности, которые владеют пониманием ИИ, а когда более 60–70 процентов населения понимает, что это такое, какие возможности дает, как применяется и как себя обезопасить.

Мир уже увидел кейс, когда с помощью дипфейк-видеоконференции у международной компании Arup увели 25 миллионов долларов, имитируя руководство в режиме реального времени. Согласно отчету Всемирного экономического форума, ни одна из систем при этом не была скомпроментирована, то есть это была смесь социальной инженерии, дипфейков и нового вида изощренности в завоевании доверия сотрудников компании.

Если бы кибератаки были пулями, мы бы все ползали по полу, ведь это были бы тысячи пуль в секунду. Поэ­тому необходимы системные меры. Казахстан уже принял закон об ИИ, который, в частности, поднимает воп­росы ответственности за вред, причиненный системами ИИ, и затрагивает темы дипфейков и ИИ-фрода.

Но при нашем уровне цифровизации крайне важно вкладываться в укрепление национальных центров кибербезопасности. KZ-CERT уже собирает статистику и мониторит угро­зы. Развитие в кибербезопасности – игра на опережение угрозы, потому что пост-мортем (от лат. post mortem – «после смерти». – Прим. автора) – это уже случившийся инцидент. И мы не слышим о тысячах устраненных угроз именно потому, что они не случились.

– Можно ли с помощью самого ИИ бороться с кибермошенничеством?

– Не просто можно, а без этого мы уже не справимся по масштабу, ведь те же ботофермы генерируют миллионы ботов. Противостоять им можно тоже с помощью аналогов.

Сегодня ИИ в кибербезопасности используется для поиска аномалий и раннего обнаружения атак. Модели машинного обучения анализируют миллионы событий в сетях и информационных системах и отмечают нетипичное поведение: необычные транзакции, странные логины, подозрительные паттерны трафика.

Для детектирования дипфейков и синтезированных голосов появился отдельный класс решений, которые анализируют цифровые артефакты в аудио и видео, чтобы отличить их от реальной записи. На уровне регулирования это уже закрепляется в ЕС, вводятся требования к маркировке дипфейков и к использованию технологий обнаружения подделок, а также для интеллектуальной антифрод-аналитики в банках и финтехе. Сценарии ИИ-фрода (поддельное лицо⁄голос клиента, глубокая подделка документов) уже описаны в предупреждениях финрегуляторов, например, в предупреждениях FinCEN (подразделение Минфина США по борьбе с финансовыми преступлениями) по дипфейкам. На его основе банки разворачивают более сложные скоринговые модели, которые учитывают и биометрию, и поведение клиента.

Что мы можем перенять? Принятие ответственности не только для конкретных мошенников, но и для крупных платформ и операторов, если они системно не борются с фейковым контентом и ИИ-скамом (привычные схемы обмана, только усиленные ИИ). Казахстан вполне может сделать «единый щит» – объединить в одном приложении блокировку мошеннических звонков, проверку номеров и удобную подачу жалоб.

Но важно понимать: есть бытовой уровень защиты и есть профессиональный. Каждый из нас в силах сделать первый шаг на пути к кибергигиене – объяснить старшему поколению в своих семьях про технологии дипфейков, ИИ, рассказать о том, что не стоит переводить деньги без подтверждения, и тогда, даже если вашим близким позвонят от лица родных, у них будет грамотный ответ на эти действия.

– Что могут сделать бизнес, банки, телеком, финтех, чтобы лучше защищать клиентов?

– Качество внедрения ИИ во многом зависит от процессов. Если в процессах будет порядок, система будет эффективна.

В международной практике есть примеры на запрет голосовых операций с банками без второго канала подтверждения, а также лимиты на онлайн-кредиты и переводы для новых клиентов или необычные сценарии. Помните: ни один оператор банка или телеком-компании не имеет права входить в клиентский аккаунт под видом помощи, просить коды из SMS, пароли или биометрические данные.

Также важна поведенческая аналитика транзакций и логинов, которая ловит аномалии. Это антиспуфинг (комплекс технологий, направленных на распознавание признаков живого человека перед камерой) для голосовой биометрии и детекторы синтетической речи, если компания уже использует голос⁄фейс-ID.

И, конечно, необходимо инвестировать в обучение клиентов и сотрудников. Проводить антифрод-кампании в своих приложениях, рассылках, через звонки – объяснять про ИИ-подделку голоса и дипфейки на простом языке, с реальными кейсами. Регулярно тренировать собственные команды сценариями ИИ-мошенничества, как это делается с фишинг-симуляциями. Со временем в обществе возникнет эффект того, что, если хотя бы один человек в семье осведомлен, риски снижаются в целом для всей семьи.

Большое значение имеет обмен опытом об атаках и паттернах мошенников через профессиональные ассоциации и совместные проекты с KZ-CERT, TSARKA и правоохранительными органами, ведь это может помочь нарастить­ компетенцию внутри компании. По сути, если бизнес будет относиться к антифроду как к части клиентского сервиса и репутации, а не как к обязательной галочке для регулятора, это снизит риски утечек данных и цифровую агрессию для граждан.

– Но как же найти баланс между свободным развитием ИИ и контро­лем за его использованием?

– Моя позиция как IT-специалиста и пиарщика простая – запрещать технологии в целом бессмысленно, но и оставлять ИИ в режиме «дикого Запада» нельзя. Нужен риск-ориентированный подход.

Это значит необходимость регулирования высокорисковых сценариев в использовании ИИ в критической инфраструктуре, финсекторе, биометрии, госуправлении. Здесь нужна обязательная сертификация, аудит, логирование действий модели, оценка воздействия на права граждан. Логика примерно такая же, как в европейском AI Act и казахстанском законе об ИИ.

Важно обеспечить прозрачность там, где ИИ взаимодействует с людьми. Чат-боты, голосовые ассистенты, дипфейк-инструменты должны честно говорить пользователю, что он общается с машиной или смотрит ИИ-контент. Это уже закрепляется в европейском праве и должно стать нормой де-факто.

При этом важно создавать для бизнеса специальные «песочницы» – безо­пасные тестовые режимы, где новые ИИ-сервисы можно пробовать в реальных условиях, но под присмотром регулятора и с ограничениями по рискам для клиентов. Малому бизнесу, исследовательским командам, стартапам нужно давать возможность экспериментировать в регуляторных «песочницах» с понятными рамками и без риска оказаться под несоразмерными санкциями.

В числе самого важного – понимание необходимости вкладываться в просве­щение. Ни один закон не заменит базового понимания того, как работает ИИ, какие у него ограничения и где он может навредить. От медиаграмотности в школах до корпоративных программ по кибербезопасности – это долгосрочная, но ключевая инвестиция. Баланс – это когда у нас есть свобода создавать полезные ИИ-решения, но в рамках понятных правил игры, которые защищают людей, бизнес и государство от злоупотреблений.

Следите за обновлениями и свежими новостями на Qazaq24.com, где мы продолжаем следить за ситуацией и публиковать самую актуальную информацию.
seeПросмотров:110
embedИсточник:https://kazpravda.kz
archiveЭта новость заархивирована с источника 20 Ноября 2025 01:36
0 Комментариев
Войдите, чтобы оставлять комментарии...
Будьте первыми, кто ответит на публикацию...
topСамые читаемые
Самые обсуждаемые события прямо сейчас

Стрельба в Кёльне: двое тяжело ранены, стрелок задержан

29 Ноября 2025 16:36see209

Токаев выразил соболезнования президенту Индонезии и премьер министру Таиланда

29 Ноября 2025 19:14see206

Air Astana завершила обновление программного обеспечения на 38 самолётах Airbus

30 Ноября 2025 01:08see204

Задержка вылетов Airbus: Казахстанские авиакомпании завершают обновление ПО

29 Ноября 2025 12:51see196

От туманов до мокрого снега: какая погода ждет Шымкент с 1 по 5 декабря

30 Ноября 2025 11:12see184

Какой будет погода в крупнейших городах Казахстана в последний день осени

30 Ноября 2025 08:01see184

На сайте Белого дома появилась доска позора для СМИ

30 Ноября 2025 14:16see180

Казахстан впервые завоевал медаль по пара карате в Каире

30 Ноября 2025 07:17see174

Двойная победа: Кристина Шумекова принесла Казахстану два золота

30 Ноября 2025 11:27see172

Наводнения в Индонезии и Таиланде: Токаев выразил соболезнования

29 Ноября 2025 21:01see162

Скорость движения снизили на трассе Астана Петропавловск из за плохой погоды

29 Ноября 2025 23:22see156

Разгромом завершился второй матч сборной Казахстана на чемпионате мира

30 Ноября 2025 02:08see156

Казахстанка Ольга Тихонова поборется за выход в финал Мирового тура по шорт треку

29 Ноября 2025 18:27see155

Семью шайбами обернулся матч Барыса и лидера КХЛ

29 Ноября 2025 21:20see155

В Алматы завершается строительство 8 школ почти на 12 тыс. мест

29 Ноября 2025 16:08see153

Единый QR код для всех платежей появится в Узбекистане

30 Ноября 2025 21:19see152

Гололед, снег и нулевая видимость: Казгидромет объявил опасную погоду на 30 ноября

29 Ноября 2025 17:21see150

По инерции выехал на встречку : несколько человек попали в больницу после массового ДТП в Алматы

30 Ноября 2025 09:48see150

В области Абай состоялся республиканский турнир беркутчи

29 Ноября 2025 19:36see148

Сборная Казахстана по биатлону не смогла финишировать в первой гонке Кубка мира

29 Ноября 2025 22:44see147
newsПоследние новости
Самые свежие и актуальные события дня