Qazaq24.com
Qazaq24.com
close
up
RU
Menu

Еуропа елдері туристік салықты көбейтуде

Қызмет пен жауапкершілікті ту еткен

Қазақстандықтарға жалақы бойынша жүздеген миллион теңге берешек бар

Ирандағы соғыс Трампқа төңкеріс қаупін төндіре ме?

Қазақстанда әйелдер кәсіпкерлігін қолдау күшейіп келеді

Шарбақты ауданында жаңа Конституцияның практикалық маңызы талқыланды

Қытай 2026 жылы жалпы ішкі өнімнің өсімі 4,5 5% болады деп болжайды

Полиция Free Fire ойыны арқылы жасалған алаяқтықты әшкереледі

Әлемі әдемі әкім әйелдер

Президент бір топ әйелдер қауымын наградттады

Ел анасы, ерте оянған санасы...

Киімімнің түсіне қарай боянып, рульге отырамын автобус жүргізушісі

​Абай облысында вейптерді заңсыз сатқаны үшін үкім шығарылды

Ұлттық банк 10 мың теңгелік ескі банкноттарды пайдалану мерзімін ұзартты

Amazon да жұмыс істейді

Шымкентте жолдың қақ ортасында асфальт тағы да опырылып түсті

Қақтығысты азайту үшін Қытай Таяу Шығысқа арнайы елшісін жібереді

Жібек жолы ауылындағы қанды қылмыс: күдікті бұрын да сотталған

Батыр аналарға ілтипат

Қытайда шетелдік іссапарлар мен ресми қабылдауларға бөлінетін бюджет қысқарады

Технологиялық сингулярлық адамзат өркениетінің жойылуына алып келуі мүмкін бе

Технологиялық сингулярлық адамзат өркениетінің жойылуына алып келуі мүмкін бе

Inform.KZ парақшасынан алынған ақпаратқа сәйкес, Qazaq24.com хабарлайды..

2023 жылдың 22-ші наурызында әлемдік басылымдар Tesla, SpaceX және Twitter бас директоры Илон Маск, Apple негізін қалаушылардың бірі Стив Возняк, Pinterest негізін қалаушы Эван Шарп және бірқатар танымал ЖИ сарапшылары қол қойған ашық хат жариялады. Ашық хатта негізгі екі қорытынды тұжырым бар: біріншісі, зертханалар мен тәуелсіз сарапшылар кем дегенде алты ай бойы GPT-4-тен әлдеқайда күшті жүйелерді оқытуды дереу тоқтатуы керек. Бұл үзіліс тәуелсіз сарапшылар бақылайтын неғұрлым қуатты жүйелер үшін қауіпсіздік хаттамаларының ортақ жиынтығын бірлесіп әзірлеу және енгізу үшін пайдаланылуы керек;

екіншісі, ЖИ әзірлеушілері бұл саладағы басқару жүйесін қалыптастыру үшін саясаткерлермен бірлесіп жұмыс істеуі керек. Яғни, ЖИ-ді сенімді тексеру және сертификаттау жүйесімен айналысатын, жетілдірілген ЖИ жүйелердің қызметін қадағалайтын реттеуші жаңа құрылымдар керек.

Ашық хатта атап өтілгендей, қазіргі уақытта бақылаудың жоқтығынан ғылыми орталықтар бірінен бірі басып озып, бәсекеде жеңіп, коммерциялық табыс табуды ғана көздеген. Бақылаусыз жасалған интеллектуалды машиналар оны жасаған мамандардың өздері де болжай алмайтындай деңгейде жетілуде. Олардан туындайтын қауіпті ешкім болжай алмайтыны да ашық хатта жазылған.

Сарапшылар арасында ЖИ-дің адамға төндіретін қауіптері туралы әлемдік деңгейде жиі айтылады, зерттеледі, ұсыныстар түзіледі. Солардың бірі – Asilomar AI Principles. Бұл жасанды интеллектке (ЖИ) арналған ғылыми-зерттеу мен әзірлеудің негізін құрайтын 23 қағидадан тұратын нұсқаулық. Asilomar қағидалары адамзатқа пайдалы интеллектіні дамытудың проблемалық түйіндері мен этикасын қамтиды. Қағидалар 2017 жылы АҚШ-тың Калифорния штатындағы Pacific Grove қаласында өткен адамзатқа пайдалы ЖИ бойынша Asilomar конференциясында қабылданған. Конференцияны The Future of Life коммерциялық емес ұйымы өткізді. Мыңдаған ЖИ және робототехника зерттеушілері, Google, Apple және OpenAI сияқты беделді компаниялардың жетекшілері осы қағидаларды мақұлдап, қол қойған.

23 қағидатты жасанды интеллект, робототехника, технология саласындағы сарапшылар және әртүрлі университеттер мен ұйымдардың заң ғалымдары тобы әзірлеген. Әлемнің беделді сарапшылары Asilomar конференциясында ЖИ-дің болашағы мен оның қызметін құқықтық және этикалық реттеу мәселелерін талқылаған.

Asilomar қағидалары үш топқа бөлінген: зерттеулер, этика және құндылықтар, ұзақ мерзімді проблемалар. Қағидаларда интеллектуалды машиналардан туындайтын жағымсыз нәтижелер мен олардың алдын алу бойынша ұсыныстар берілген. 3 категорияға бөлінген қағидалар мыналар:

Бірінші топ – зерттеулер. Топ 5 қағидадан тұрады.

1. ЖИ-ді зерттеудің мақсаты – жалпы интеллект емес, адамға пайдалы интеллект жасау. ЖИ зерттеулері әрқашан пайдалы болуы керек.

2. ЖИ-ға инвестициялар оның пайдалылығын қамтамасыз ету үшін ғана тартылуы тиіс.

3. ЖИ зерттеушілері мен саясаткерлер арасында сындарлы және салауатты пікір алмасу қажет.

4. ЖИ зерттеушілері мен әзірлеушілері арасында ынтымақтастық мәдениеті, сенім және ашықтық керек.

5. Мағынасыз бәсекеден аулақ болу. Жасанды интеллект жүйелерін әзірлеуші ​​командалар қауіпсіздік стандарттарын бұзбау үшін белсенді түрде ынтымақтасуы керек.

Келесі топ – орта мерзімді проблемалардан құралған этика мен құндылықтар. Бұл топта 13 қағида жинақталған.

6. Жасанды интеллект жүйелері өмір бойы қауіпсіз және сенімді қызмет атқарады. Қауіпсіздік стандарттары ұдайы тексеріледі, жетілдіріледі.

7. ЖИ жүйесі адамға қауіп төндірсе, оның себебін анықтау мен түзету тетіктері қосылады.

8. Автономды жүйенің сот шешімдерін қабылдауға қатысуы құзыретті орган тексере алатындай түсінікті болуы тиіс.

9. Жетілдірілген ЖИ жүйелерін дайындаушылар мен жасаушылар оларды пайдаланудың, теріс пайдаланудың және әрекеттердің моральдық салдарына жауапкершілікті мойындайды.

10. Озық жасанды интеллект жүйелері адами құндылықтарға сәйкес келетіндей етіп жасалады.

11. Жасанды интеллект жүйелері адамның абыройы мен қадір-қасиеттері, құқықтары мен бостандықтары, полимәдениет идеалдарына сәйкес әзірленіп, жұмыс істейді.

12. ЖИ жүйелердің деректерді талдау және пайдалану мүмкіндігін ескере отырып, адамдар өздері жасайтын деректерге қол жеткізуге, басқаруға және бақылауға құқығы болуы керек.

13. Жеке деректерді ЖИ-дің қолдануы жеке тұлғалардың нақты немесе болжанатын бостандығын шектемейді.

14. Жасанды интеллект технологиялары мүмкіндігінше көп адамға пайда әкеліп, олардың мүмкіндіктерін кеңейтеді. Мысалы, ауыр жұмыстарды жеңілдету, қуат көздерін пайдалануды оңтайландыру немесе білімге негізделген сараптамалық қызметтерде.

15. ЖИ жасаған экономикалық өркендеу бүкіл адамзаттың игілігі үшін кеңінен таратылатын болады.

16. Адамдар өз мақсаттарына жету үшін әртүрлі жұмыстарды ЖИ жүйелеріне тапсыру немесе тапсырмау керектігін таңдауы тиіс.

17. Ерекше жетілдірілген ЖИ жүйелерін бақылау, қолданудан туындайтын билік қоғамның ахуалын жақсартатын әлеуметтік және азаматтық процестерге нұқсан келтірмей, оларды құрметтеп, күшейтуі керек.

18. Соғыс құралдарында қолданылатын, өлімге әкелетін автономды технологиялардың жарысына жол бермеу.

Ұзақ мерзімді проблемалар топтастырылған 3-ші категорияға 5 қағида кіргізілген.

Қағидалар ЖИ-дің арқасында ұзақ мерзімді перспективада қол жеткізетін маңыздылыққа, тәуекелдерге және ықтимал жақсы нәтижелерге арналған.

19. Сарапшылар қауымдастығында жалпы консенсус болмағандықтан, болашақтағы ЖИ мүмкіндіктерінің жоғарғы шегі туралы болжамдар жасауды тежеген дұрыс.

20. Жетілдірілген ЖИ адамзат өркениетіндегі түбегейлі өзгерістерге жол ашуда. Сондықтан оны мұқият зерделеуді барлық мүмкін ресурстарды қолданып жоспарлап, басқарған жөн.

21. Жасанды интеллект жүйелер тудыратын қауіптер, апатты немесе экзистенциалды тәуекелдердің әсерін жұмсарту үшін тиісті шаралар қабылдау.

22. Сапа немесе санның жылдам өсуіне әкелетін рекурсивті өзін-өзі жетілдіруге арналған ЖИ жүйелері мен өзін-өзі оқыту технологияларын қолдану қатаң бақылауға алынып, оларға ерекше қауіпсіздік шаралары қолданылады.

23. Адамның қабілетінен тыс ақыл-ойды бір мемлекеттің немесе ұйымның ғана емес, жалпыға ортақ этикалық идеалдар мен бүкіл адамзат игілігіне қызмет ететіндей қолдану керек.

Дербес мәліметтердің құпиялығына қатысты алаңдаушылық азаматтардың жеке өміріне қол сұқпау қағидаларынан туындайды. 2018 жылдың 25-ші мамырында ЕуроОдақ елдерінде Деректерді қорғаудың жалпы ережесі (GDPR) қабылданды. Ережеде жеке деректерді өңдеу мен жеке тұлғалар туралы мәліметтерді қорғауға қатысты құқықтық нормалар жиналған. Бұл нормативтік құжат жеке тұлғалардың негізгі құқықтары мен бостандықтарын, әсіресе олардың жеке деректерін қорғауға арналған.

Орта мерзімді проблемалар нақты технологияға қатысты болмағанымен ЖИ тәсілдерін үлкен әлеуметтік-техникалық жүйелер мен әлеуметтік контекстерге біріктіру нәтижесінде туындайды. ЖИ-ді, BigData-ны қолдану мен машиналық оқыту модельдері жеке адамдардың мінез-құлқын бақылауға мүмкіндік береді, бұл жеке өмірге қол сұғуға, адамдардың таңдау еркіндігін шектеуге алып келеді. Ұлыбритания мен Австралияда 2020 жылы жүргізілген зерттеулер коммуникациялық және технологиялық артықшылықтарды қолданатын адамдардың 58%-ы технологиялық компаниялардың жеке деректерді құпия сақтай алатынына күмәнмен қарайтынын, жеке ұйымдарға өз деректерін сеніп тапсыруға қарсы екендерін анықтаған.

Бүгінде ұзақ мерзімді проблемалар табиғаттың, қоғамның немесе адамзаттың өмір сүруінің негізгі аспектілерін қамтиды. Америкалық зерттеуші Рэймонд Курцвейлдің пікірінше, ЖИ адаммен салыстырғанда әлдеқайда жоғары қабілеттерге ие бола алады. Технологиялық сингулярлық кезеңінде машиналар адамның интеллектуалдық деңгейіне жетіп, өзін-өзі жетілдіріп, адам интеллектінен асып түсіп, суперинтеллектке айналады деген қауіпті көптеген сарапшылар қайталауда.

Соңғы 5 жылдағы ЖИ жүйелерінің жылдам дамуы көрсеткендей жоғары технологиялар адамзат өркениетін тұрақты дамытуға кепілдік бермейді. Ғалымдар бұндай тұрақсыздық өркениеттің өзін-өзі жоюына немесе жылдам жетілу арқылы технологиялық сингулярлық нүктесіне шығып, адамзат өркениетінің жойылуына алып келуі мүмкін екенін айтуда. Дәл осы проблеманың алдын алу үшін қазірден бастап өте жоғары интеллектуалды машиналарға моральдық субъект мәртебесін беруді, адамның Жаратушы берген қабілеттерін күшейтіп, супер-адам жасау үшін миға техникалық импланттарды орнатуды ұсынатын технологиялар жасалуда. Осындай технологиялық жетілдірулер антропологиялық эволюцияның келесі кезеңіне адамзатты дайындау, барлық әлеуметтік бақылауды супер ЖИ-ге беру сияқты этикалық мәселелерді шешуге келіп тіреледі. Қазірше бұндай перспективалар тым фантастикалық болып көрінгенімен, олар қоғамдық талқылаулар мен ғылыми зерттеулерде жиі көтерілуде.

Ақылды машиналар мен роботтарға деген сенім мәселесін америкалық әлеуметтанушы және саясаттанушы Фрэнсис Фукуяма да айтып келеді. Ол ұзақ мерзімді перспективада әлеуметтік өзара әрекеттестік деңгейі мен мемлекеттің әл-ауқаты, бәсекеге қабілеттілігі қоғамдағы жаңа технологияға деген сенім деңгейіне байланысты болатынын алға тартады.

Интеллектуалды машиналарды қолдануда жиі талқыланатын тағы бір этикалық мәселе – әртүрлі дерекқорларда жиналған мәліметтерге бақылауды күшейту. Әсіресе жеке медициналық деректерге қол жеткізуді бақылаудың маңыздылығы жиі айтылады. Көп жағдайда азаматтардың жеке деректерін жинаған компаниялар (мысалы, сақтандыру, білім беру, денсаулық сақтау мекемелері) үлкен ақпараттық массивтерді түрлі маркетингтік жобаларда қолдану үшін үшінші тараптарға ақылы түрде беруі мүмкін. Яғни, жеке деректер сол деректің иесінің келісімінсіз үшінші тарапқа беріледі және бастапқыда келісілген құқықтық шеңберден тыс пайдаланылады.

ЖИ технологияларын өмірде пайдалану кезінде анықталатын бір-бірімен байланысты этикалық проблемалар мемлекеттердің ұлттық заңдарымен, тұтынушылар мен технологияларды жасаушылармен бірлесіп отырып шешілуі тиіс. Қалай болғанда да, ЖИ қызметіндегі гуманитарлық өлшемдер жиынтығын жасауды жаңа технологияларды не үшін қолдануға болады және не үшін қолдануға болмайтынын, жеке адамдар мен тұтас қоғамға зияны мен пайдасын қоғамдық талқылаулар жүргізіп қана анықтауға болады.

Айта кетейік, осыған дейін Қазақстан Республикасы Президенті Әкімшілігі басшысының орынбасары Әсел Жанасова Астанада өткен Silk Power 2026 алаңында сөз сөйлеп, жасанды интеллектті дамытуда әйелдердің үлесінің маңыздылығы туралы айтты.

Ұлбосын Мейірбекқызы Есенбекова

Профессор, «Дарын» мемлекеттік жастар сыйлығының лауреаты

Оқиғаларды жіберіп алмау үшін Qazaq24.com сайтынан ең өзекті жаңалықтарды қарап отырыңыз.
seeКөрілімдер:55
embedДереккөз:https://kaz.inform.kz
archiveБұл хабарлама дереккөзден мұрағатталған 07 Наурыз 2026 18:45
0 Пікірлер
Кіру, пікір қалдыру үшін...
Жарияланымға бірінші жауап беріңіз...
topЕң көп оқылғандар
Қазір ең көп талқыланатын оқиғалар

Еуропа елдері туристік салықты көбейтуде

06 Наурыз 2026 10:58see113

Қызмет пен жауапкершілікті ту еткен

06 Наурыз 2026 14:19see113

Қазақстандықтарға жалақы бойынша жүздеген миллион теңге берешек бар

06 Наурыз 2026 11:42see112

Ирандағы соғыс Трампқа төңкеріс қаупін төндіре ме?

06 Наурыз 2026 17:38see110

Қазақстанда әйелдер кәсіпкерлігін қолдау күшейіп келеді

06 Наурыз 2026 11:18see110

Шарбақты ауданында жаңа Конституцияның практикалық маңызы талқыланды

06 Наурыз 2026 11:18see110

Қытай 2026 жылы жалпы ішкі өнімнің өсімі 4,5 5% болады деп болжайды

06 Наурыз 2026 02:28see110

Полиция Free Fire ойыны арқылы жасалған алаяқтықты әшкереледі

06 Наурыз 2026 11:18see109

Әлемі әдемі әкім әйелдер

07 Наурыз 2026 07:40see108

Президент бір топ әйелдер қауымын наградттады

06 Наурыз 2026 16:20see108

Ел анасы, ерте оянған санасы...

07 Наурыз 2026 09:29see108

Киімімнің түсіне қарай боянып, рульге отырамын автобус жүргізушісі

07 Наурыз 2026 15:03see106

​Абай облысында вейптерді заңсыз сатқаны үшін үкім шығарылды

06 Наурыз 2026 15:54see106

Ұлттық банк 10 мың теңгелік ескі банкноттарды пайдалану мерзімін ұзартты

06 Наурыз 2026 14:01see106

Amazon да жұмыс істейді

07 Наурыз 2026 08:13see106

Шымкентте жолдың қақ ортасында асфальт тағы да опырылып түсті

07 Наурыз 2026 08:07see105

Қақтығысты азайту үшін Қытай Таяу Шығысқа арнайы елшісін жібереді

05 Наурыз 2026 21:14see105

Жібек жолы ауылындағы қанды қылмыс: күдікті бұрын да сотталған

05 Наурыз 2026 20:09see104

Батыр аналарға ілтипат

06 Наурыз 2026 10:57see103

Қытайда шетелдік іссапарлар мен ресми қабылдауларға бөлінетін бюджет қысқарады

06 Наурыз 2026 22:55see103
newsСоңғы жаңалықтар
Күннің ең жаңа және өзекті оқиғалары