ЖИ мен адам deepfake ті қалай анықтайды?
Aikyn.KZ парақшасынан алынған ақпаратқа сәйкес, Qazaq24.com хабарлайды..
ScienceNews журналында жарияланған материалға сүйенген Aikyn.kz дипфейктерді анықтауда адам мен ЖИ мүмкіндігін талдайды.
Жаңа зерттеу күтпеген қорытынды ұсынды: дипфейк суреттерді ЖИ жүйелері адамдардан әлдеқайда жақсы ажыратады, бірақ дипфейк видеоларды анықтауда адамның әлеуеті жоғарырақ.
Ғалымдардың айтуынша, алдағы уақытта дипфейкпен күресте адам мен ЖИ бірлесіп әрекет етуге мәжбүр болады. Психолог Натали Эбнер мен әріптестерінің зерттеу нәтижесі 7 қаңтар күні Cognitive Research: Principles and Implications журналында жарияланған.
Дипфейк – ЖИ көмегімен жасалатын сурет, аудио және видео. Ол адамның сырт келбетін, айтқан сөзін немесе әрекетін көшіріп, онлайн аудиторияны алдайды. Мұндай жасанды контент қаржылық алаяқтыққа, сайлауға ықпал етуге, адамның беделін түсіруге дейін қолданылып келеді. Дипфейктер күннен-күнге көбейіп, шынайыланып барады.
Зерттеу аясында шамамен 2 200 қатысушы және екі машиналық оқыту алгоритмі 200 адамның бет-әлпетін бағалап, әр қайсысының «шынайылығын» 1-ден (жалған) 10-ға (шынайы) дейін шкаламен белгілейді. Нәтижесінде адамдар дипфейкті кездейсоқ деңгейде ғана, яғни шамамен 50% жағдайда ажырата алған. Ал, ЖИ алгоритмдер жоғары нәтиже көрсетті: бір модель дұрыс жауапты шамамен 97% жағдайда тапса, екіншісінің орташа дәлдігі 79% болды.
Бұл екі фото адам мен машинаның deepfake-ті анықтау қабілетін салыстырғанда пайдаланылды. Қайсысы шынайы екенін ажырата аласыз ба? (Жауабы: сол жақтағысы). Фото ScienceNews.gov сайтынан алынды.
Келесі кезеңде зерттеушілер 1900-ға жуық қатысушыға 70 қысқа видеоны көрсетіп, видеодағы адамның бет-жүзі қаншалықты шынайы көрінетінін бағалауды сұраған. Міне, осы жерде күтпеген нәтиже шыққан, себебі видеоны бағалауда адамдар алгоритмдерден озып кеткен. Қатысушылар орта есеппен 63% жағдайда дұрыс тапса, алгоритмдер төмен нәтиже көрсеткен.
Енді ғалымдар адамның да, ЖИ-дің де «шешім қабылдау логикасын» тереңірек талдауға кіріскен. Натали Эбнердің айтуынша: «Негізгі сұрақ – кей жағдайларда машиналар неге адамнан әлдеқайда жақсы нәтиже көрсетеді, ол қандай белгілерге сүйенеді және бұл тәсіл адамның ойлау, талдау қабілетінен несімен өзгеше? Сондай-ақ адам миы видеодан қандай ұсақ «сәйкессіздіктерді» байқап, соны негізге алатынын түсіну де маңызды.» Зерттеушілер «иә» немесе «жоқ» деп қана жауап беріп қоймай, сол шешімнің неге қабылданғанын анықтауда.
Команданың қорытындысы бойынша осы талдау нәтижелері адамның ЖИ-мен қалай тиімді әріптестік орнататынын нақтылап, дипфейкке толы ақпарат кеңістігінде дұрыс бағдар табуға көмектеседі.
Бұл тақырыптағы басқа жаңалықтар:
Көрілімдер:58
Бұл хабарлама дереккөзден мұрағатталған 07 Ақпан 2026 02:31 



Кіру
Жаңалықтар
Ауа райы
Магниттік дауылдар
Намаз уақыты
Қымбат металдар
Валюта конвертері
Кредит есептегіш
Криптовалюта бағамы
Жұлдыздар
Сұрақ - Жауап
Интернет жылдамдығын тексеріңіз
Қазақстан радиосы
Қазақстан телевизиясы
Біз туралы








Ең көп оқылғандар


















