Онлайнда адам болып отырған ЖИ
Aikyn.KZ парақшасындағы деректерге сәйкес, Qazaq24.com ақпарат таратты..
SciTechDaily-ға шыққан материалға сүйенген Aikyn.kz интернеттегі ЖИ басқаратын жалған аккаунттар қоғам пікірін қалай өзгертетінін түсіндіреді.
Жаңа қауіп көшеде көрінбеуі мүмкін, бірақ интернетте қазірдің өзінде «сөйлеп жүр». Сарапшылар ЖИ басқаратын жалған аккаунттар саяси пікірталастарды жасырын бағыттап, қоғамның сеніміне әсер етуі ықтимал екенін ескертеді.
Олар митингке шықпайды да, дауыс бермейді де. Бірақ соған қарамастан демократияның бағытын өзгерте алады. Зерттеушілер кәдімгі қолданушыдай көрініп, кәдімгі адамдай сөйлейтін, кейін адамдардың интернетте не көріп, нені бөлісіп, нені шын деп қабылдайтынын үнсіз басқаруға тырысатын ЖИ бақылауындағы персоналарға алаңдап отыр.
Science журналындағы саясат форумы форматындағы мақалада осындай персоналардың «үйірі» нақты қауымдастықтардың арасына сіңіп, уақыт өте сенім жинап, кейін саяси әңгімені мақсатты түрде қажетті арнаға бұрып жіберуі мүмкін екені сипатталады. Бұрынғы ботнеттерден негізгі айырмашылық – командалық жұмыс. Яғни бірдей спамды жаппай таратудың орнына, аккаунттар үздіксіз үйлесіп әрекет етіп, қай контент «өтімді» болғанын үйреніп, мыңдаған профильде бір «сюжетті» сақтай алады. Тіпті жеке аккаунттар бірде пайда болып, бірде жоғалып кетсе де, жалпы баяндау желісі үзілмейді.
ЖИ-персона желілері қалай жұмыс істейді?
Жаңа ірі тілдік модельдер multi-agent жүйелермен (көп агентті жүйелермен) бірге қолданылғанда, бір операторға тұтас бір «актерлік құрамды» – ЖИ-дің көптеген «дауысын» – қатар жүргізуге мүмкіндік береді. Әр персона сөйлеу мәнерін сәл өзгеше ұстап, сол қауымдастықтың әдет-ғұрпына, «ішкі ережесіне» сілтеме жасап, қарсылыққа тез жауап қайтара алады. Бұның бәрі әрекетті манипуляция ретінде тануды қиындатады.
Мұндай «үйір» қысқа хабарламалардың сан түрін жылдам сынақтан өткізіп, адамдардың пікірін ең тиімді өзгертетін нұсқаларын күшейте тарата алады. Дұрыс ұйымдастырылса, ол «мұны бәрі айтып жүр» деген әсерді қолдан жасап шығарады, ал шын мәнінде «ортақ пікір» әдейі құрастырылған болуы мүмкін.
Алғашқы дабыл белгілері: дипфейк пен синтетикалық жаңалық
Жаппай әрі толыққанды ЖИ-персона «үйірлері» әлі толық іске қосылып үлгермесе де, мамандар болашақтың кей белгілері қазірдің өзінде көрініп жатқанын айтады. Британдық Колумбия университетінің (UBC) компьютер ғалымы доктор Кевин Лейтон-Браун АҚШ, Тайвань, Индонезия және Үндістандағы сайлауға қатысты соңғы пікірталастарға ықпал еткен ЖИ жасаған дипфейк видеолар мен қолдан құрастырылған «жаңалық» алаңдарын мысалға келтіреді.
Бұдан бөлек, мониторинг ұйымдары Кремльшіл желілер болашақтағы ЖИ жүйелерін үйрететін деректерді «ластап», яғни оқу мәліметтерін әдейі бұрмалау үшін интернетке көп көлемде контент таратуды белсенді жүргізіп жатқанын хабарлайды. Бұл осы жүйелер уақыт өте қалай «қалыптасып кетуі» мүмкін деген алаңдаушылықты күшейтеді.
Сайлау мен сенімнің болашағы
Доктор Лейтон-Браунның айтуынша, ЖИ «үйірлері» демократиядағы күш теңгеріміне әсер етуі мүмкін. «Бұл жүйелер пайда болғанда қоғам еш өзгеріссіз қала береді деп ойламауымыз керек. Бәлкім, әлеуметтік желідегі бейтаныс дауыстарға деген сенім азаяды. Соның салдарынан танымал адамдардың ықпалы күшейіп, төменнен көтерілетін (grassroots) бастамалардың дауысы естілуі қиындауы мүмкін», – дейді ол.
Зерттеушілер алдағы сайлаулар осы технологияның алғашқы нақты сынағына айналуы ықтимал екенін айтады. Бұл жерде ең өзекті сұрақ – бұндай үйлестірілген ықпал ету науқандары дер кезінде байқалып, тоқтатыла ма?
Бұл тақырыптағы басқа жаңалықтар:
Көрілімдер:22
Бұл хабарлама дереккөзден мұрағатталған 13 Ақпан 2026 12:17 



Кіру
Жаңалықтар
Ауа райы
Магниттік дауылдар
Намаз уақыты
Қымбат металдар
Валюта конвертері
Кредит есептегіш
Криптовалюта бағамы
Жұлдыздар
Сұрақ - Жауап
Интернет жылдамдығын тексеріңіз
Қазақстан радиосы
Қазақстан телевизиясы
Біз туралы








Ең көп оқылғандар



















