Технологиялық сингулярлық адамзат өркениетінің жойылуына алып келуі мүмкін бе
Inform.KZ парақшасынан алынған ақпаратқа сәйкес, Qazaq24.com хабарлайды..
2023 жылдың 22-ші наурызында әлемдік басылымдар Tesla, SpaceX және Twitter бас директоры Илон Маск, Apple негізін қалаушылардың бірі Стив Возняк, Pinterest негізін қалаушы Эван Шарп және бірқатар танымал ЖИ сарапшылары қол қойған ашық хат жариялады. Ашық хатта негізгі екі қорытынды тұжырым бар: біріншісі, зертханалар мен тәуелсіз сарапшылар кем дегенде алты ай бойы GPT-4-тен әлдеқайда күшті жүйелерді оқытуды дереу тоқтатуы керек. Бұл үзіліс тәуелсіз сарапшылар бақылайтын неғұрлым қуатты жүйелер үшін қауіпсіздік хаттамаларының ортақ жиынтығын бірлесіп әзірлеу және енгізу үшін пайдаланылуы керек;
екіншісі, ЖИ әзірлеушілері бұл саладағы басқару жүйесін қалыптастыру үшін саясаткерлермен бірлесіп жұмыс істеуі керек. Яғни, ЖИ-ді сенімді тексеру және сертификаттау жүйесімен айналысатын, жетілдірілген ЖИ жүйелердің қызметін қадағалайтын реттеуші жаңа құрылымдар керек.
Ашық хатта атап өтілгендей, қазіргі уақытта бақылаудың жоқтығынан ғылыми орталықтар бірінен бірі басып озып, бәсекеде жеңіп, коммерциялық табыс табуды ғана көздеген. Бақылаусыз жасалған интеллектуалды машиналар оны жасаған мамандардың өздері де болжай алмайтындай деңгейде жетілуде. Олардан туындайтын қауіпті ешкім болжай алмайтыны да ашық хатта жазылған.
Сарапшылар арасында ЖИ-дің адамға төндіретін қауіптері туралы әлемдік деңгейде жиі айтылады, зерттеледі, ұсыныстар түзіледі. Солардың бірі – Asilomar AI Principles. Бұл жасанды интеллектке (ЖИ) арналған ғылыми-зерттеу мен әзірлеудің негізін құрайтын 23 қағидадан тұратын нұсқаулық. Asilomar қағидалары адамзатқа пайдалы интеллектіні дамытудың проблемалық түйіндері мен этикасын қамтиды. Қағидалар 2017 жылы АҚШ-тың Калифорния штатындағы Pacific Grove қаласында өткен адамзатқа пайдалы ЖИ бойынша Asilomar конференциясында қабылданған. Конференцияны The Future of Life коммерциялық емес ұйымы өткізді. Мыңдаған ЖИ және робототехника зерттеушілері, Google, Apple және OpenAI сияқты беделді компаниялардың жетекшілері осы қағидаларды мақұлдап, қол қойған.
23 қағидатты жасанды интеллект, робототехника, технология саласындағы сарапшылар және әртүрлі университеттер мен ұйымдардың заң ғалымдары тобы әзірлеген. Әлемнің беделді сарапшылары Asilomar конференциясында ЖИ-дің болашағы мен оның қызметін құқықтық және этикалық реттеу мәселелерін талқылаған.
Asilomar қағидалары үш топқа бөлінген: зерттеулер, этика және құндылықтар, ұзақ мерзімді проблемалар. Қағидаларда интеллектуалды машиналардан туындайтын жағымсыз нәтижелер мен олардың алдын алу бойынша ұсыныстар берілген. 3 категорияға бөлінген қағидалар мыналар:
Бірінші топ – зерттеулер. Топ 5 қағидадан тұрады.
1. ЖИ-ді зерттеудің мақсаты – жалпы интеллект емес, адамға пайдалы интеллект жасау. ЖИ зерттеулері әрқашан пайдалы болуы керек.
2. ЖИ-ға инвестициялар оның пайдалылығын қамтамасыз ету үшін ғана тартылуы тиіс.
3. ЖИ зерттеушілері мен саясаткерлер арасында сындарлы және салауатты пікір алмасу қажет.
4. ЖИ зерттеушілері мен әзірлеушілері арасында ынтымақтастық мәдениеті, сенім және ашықтық керек.
5. Мағынасыз бәсекеден аулақ болу. Жасанды интеллект жүйелерін әзірлеуші командалар қауіпсіздік стандарттарын бұзбау үшін белсенді түрде ынтымақтасуы керек.
Келесі топ – орта мерзімді проблемалардан құралған этика мен құндылықтар. Бұл топта 13 қағида жинақталған.
6. Жасанды интеллект жүйелері өмір бойы қауіпсіз және сенімді қызмет атқарады. Қауіпсіздік стандарттары ұдайы тексеріледі, жетілдіріледі.
7. ЖИ жүйесі адамға қауіп төндірсе, оның себебін анықтау мен түзету тетіктері қосылады.
8. Автономды жүйенің сот шешімдерін қабылдауға қатысуы құзыретті орган тексере алатындай түсінікті болуы тиіс.
9. Жетілдірілген ЖИ жүйелерін дайындаушылар мен жасаушылар оларды пайдаланудың, теріс пайдаланудың және әрекеттердің моральдық салдарына жауапкершілікті мойындайды.
10. Озық жасанды интеллект жүйелері адами құндылықтарға сәйкес келетіндей етіп жасалады.
11. Жасанды интеллект жүйелері адамның абыройы мен қадір-қасиеттері, құқықтары мен бостандықтары, полимәдениет идеалдарына сәйкес әзірленіп, жұмыс істейді.
12. ЖИ жүйелердің деректерді талдау және пайдалану мүмкіндігін ескере отырып, адамдар өздері жасайтын деректерге қол жеткізуге, басқаруға және бақылауға құқығы болуы керек.
13. Жеке деректерді ЖИ-дің қолдануы жеке тұлғалардың нақты немесе болжанатын бостандығын шектемейді.
14. Жасанды интеллект технологиялары мүмкіндігінше көп адамға пайда әкеліп, олардың мүмкіндіктерін кеңейтеді. Мысалы, ауыр жұмыстарды жеңілдету, қуат көздерін пайдалануды оңтайландыру немесе білімге негізделген сараптамалық қызметтерде.
15. ЖИ жасаған экономикалық өркендеу бүкіл адамзаттың игілігі үшін кеңінен таратылатын болады.
16. Адамдар өз мақсаттарына жету үшін әртүрлі жұмыстарды ЖИ жүйелеріне тапсыру немесе тапсырмау керектігін таңдауы тиіс.
17. Ерекше жетілдірілген ЖИ жүйелерін бақылау, қолданудан туындайтын билік қоғамның ахуалын жақсартатын әлеуметтік және азаматтық процестерге нұқсан келтірмей, оларды құрметтеп, күшейтуі керек.
18. Соғыс құралдарында қолданылатын, өлімге әкелетін автономды технологиялардың жарысына жол бермеу.
Ұзақ мерзімді проблемалар топтастырылған 3-ші категорияға 5 қағида кіргізілген.
Қағидалар ЖИ-дің арқасында ұзақ мерзімді перспективада қол жеткізетін маңыздылыққа, тәуекелдерге және ықтимал жақсы нәтижелерге арналған.
19. Сарапшылар қауымдастығында жалпы консенсус болмағандықтан, болашақтағы ЖИ мүмкіндіктерінің жоғарғы шегі туралы болжамдар жасауды тежеген дұрыс.
20. Жетілдірілген ЖИ адамзат өркениетіндегі түбегейлі өзгерістерге жол ашуда. Сондықтан оны мұқият зерделеуді барлық мүмкін ресурстарды қолданып жоспарлап, басқарған жөн.
21. Жасанды интеллект жүйелер тудыратын қауіптер, апатты немесе экзистенциалды тәуекелдердің әсерін жұмсарту үшін тиісті шаралар қабылдау.
22. Сапа немесе санның жылдам өсуіне әкелетін рекурсивті өзін-өзі жетілдіруге арналған ЖИ жүйелері мен өзін-өзі оқыту технологияларын қолдану қатаң бақылауға алынып, оларға ерекше қауіпсіздік шаралары қолданылады.
23. Адамның қабілетінен тыс ақыл-ойды бір мемлекеттің немесе ұйымның ғана емес, жалпыға ортақ этикалық идеалдар мен бүкіл адамзат игілігіне қызмет ететіндей қолдану керек.
Дербес мәліметтердің құпиялығына қатысты алаңдаушылық азаматтардың жеке өміріне қол сұқпау қағидаларынан туындайды. 2018 жылдың 25-ші мамырында ЕуроОдақ елдерінде Деректерді қорғаудың жалпы ережесі (GDPR) қабылданды. Ережеде жеке деректерді өңдеу мен жеке тұлғалар туралы мәліметтерді қорғауға қатысты құқықтық нормалар жиналған. Бұл нормативтік құжат жеке тұлғалардың негізгі құқықтары мен бостандықтарын, әсіресе олардың жеке деректерін қорғауға арналған.
Орта мерзімді проблемалар нақты технологияға қатысты болмағанымен ЖИ тәсілдерін үлкен әлеуметтік-техникалық жүйелер мен әлеуметтік контекстерге біріктіру нәтижесінде туындайды. ЖИ-ді, BigData-ны қолдану мен машиналық оқыту модельдері жеке адамдардың мінез-құлқын бақылауға мүмкіндік береді, бұл жеке өмірге қол сұғуға, адамдардың таңдау еркіндігін шектеуге алып келеді. Ұлыбритания мен Австралияда 2020 жылы жүргізілген зерттеулер коммуникациялық және технологиялық артықшылықтарды қолданатын адамдардың 58%-ы технологиялық компаниялардың жеке деректерді құпия сақтай алатынына күмәнмен қарайтынын, жеке ұйымдарға өз деректерін сеніп тапсыруға қарсы екендерін анықтаған.
Бүгінде ұзақ мерзімді проблемалар табиғаттың, қоғамның немесе адамзаттың өмір сүруінің негізгі аспектілерін қамтиды. Америкалық зерттеуші Рэймонд Курцвейлдің пікірінше, ЖИ адаммен салыстырғанда әлдеқайда жоғары қабілеттерге ие бола алады. Технологиялық сингулярлық кезеңінде машиналар адамның интеллектуалдық деңгейіне жетіп, өзін-өзі жетілдіріп, адам интеллектінен асып түсіп, суперинтеллектке айналады деген қауіпті көптеген сарапшылар қайталауда.
Соңғы 5 жылдағы ЖИ жүйелерінің жылдам дамуы көрсеткендей жоғары технологиялар адамзат өркениетін тұрақты дамытуға кепілдік бермейді. Ғалымдар бұндай тұрақсыздық өркениеттің өзін-өзі жоюына немесе жылдам жетілу арқылы технологиялық сингулярлық нүктесіне шығып, адамзат өркениетінің жойылуына алып келуі мүмкін екенін айтуда. Дәл осы проблеманың алдын алу үшін қазірден бастап өте жоғары интеллектуалды машиналарға моральдық субъект мәртебесін беруді, адамның Жаратушы берген қабілеттерін күшейтіп, супер-адам жасау үшін миға техникалық импланттарды орнатуды ұсынатын технологиялар жасалуда. Осындай технологиялық жетілдірулер антропологиялық эволюцияның келесі кезеңіне адамзатты дайындау, барлық әлеуметтік бақылауды супер ЖИ-ге беру сияқты этикалық мәселелерді шешуге келіп тіреледі. Қазірше бұндай перспективалар тым фантастикалық болып көрінгенімен, олар қоғамдық талқылаулар мен ғылыми зерттеулерде жиі көтерілуде.
Ақылды машиналар мен роботтарға деген сенім мәселесін америкалық әлеуметтанушы және саясаттанушы Фрэнсис Фукуяма да айтып келеді. Ол ұзақ мерзімді перспективада әлеуметтік өзара әрекеттестік деңгейі мен мемлекеттің әл-ауқаты, бәсекеге қабілеттілігі қоғамдағы жаңа технологияға деген сенім деңгейіне байланысты болатынын алға тартады.
Интеллектуалды машиналарды қолдануда жиі талқыланатын тағы бір этикалық мәселе – әртүрлі дерекқорларда жиналған мәліметтерге бақылауды күшейту. Әсіресе жеке медициналық деректерге қол жеткізуді бақылаудың маңыздылығы жиі айтылады. Көп жағдайда азаматтардың жеке деректерін жинаған компаниялар (мысалы, сақтандыру, білім беру, денсаулық сақтау мекемелері) үлкен ақпараттық массивтерді түрлі маркетингтік жобаларда қолдану үшін үшінші тараптарға ақылы түрде беруі мүмкін. Яғни, жеке деректер сол деректің иесінің келісімінсіз үшінші тарапқа беріледі және бастапқыда келісілген құқықтық шеңберден тыс пайдаланылады.
ЖИ технологияларын өмірде пайдалану кезінде анықталатын бір-бірімен байланысты этикалық проблемалар мемлекеттердің ұлттық заңдарымен, тұтынушылар мен технологияларды жасаушылармен бірлесіп отырып шешілуі тиіс. Қалай болғанда да, ЖИ қызметіндегі гуманитарлық өлшемдер жиынтығын жасауды жаңа технологияларды не үшін қолдануға болады және не үшін қолдануға болмайтынын, жеке адамдар мен тұтас қоғамға зияны мен пайдасын қоғамдық талқылаулар жүргізіп қана анықтауға болады.
Айта кетейік, осыған дейін Қазақстан Республикасы Президенті Әкімшілігі басшысының орынбасары Әсел Жанасова Астанада өткен Silk Power 2026 алаңында сөз сөйлеп, жасанды интеллектті дамытуда әйелдердің үлесінің маңыздылығы туралы айтты.
Ұлбосын Мейірбекқызы Есенбекова
Профессор, «Дарын» мемлекеттік жастар сыйлығының лауреаты
Бұл тақырыптағы басқа жаңалықтар:
Көрілімдер:55
Бұл хабарлама дереккөзден мұрағатталған 07 Наурыз 2026 18:45 



Кіру
Жаңалықтар
Ауа райы
Магниттік дауылдар
Намаз уақыты
Қымбат металдар
Валюта конвертері
Кредит есептегіш
Криптовалюта бағамы
Жұлдыздар
Сұрақ - Жауап
Интернет жылдамдығын тексеріңіз
Қазақстан радиосы
Қазақстан телевизиясы
Біз туралы








Ең көп оқылғандар


















