• АҚ ЖЕЛКЕН
  • 22 Желтоқсан, 2025

ЖИ ақымақ па, адам ақымақ па?

Журналымыздың биылғы соңғы санында жылды қорытындылап алсақ деп едік. Бірақ бүкіл оқиғаларды санамалап отыруға мақала ырық бермейтіні түсінікті. Сондықтан еліміздегі 2025 жылдың басты жаңалығы ретінде – жасанды интеллекттің кең ауқымды қолданысқа енгенін, сонымен бірге Жасанды интеллект және цифрлық даму министрлігі құрылғанын атап өткіміз келеді. Сондай-ақ жақында ЖИ туралы заң да қабылданды. Жалпы ЖИ желісінің не екенін алдыңғы сандарда жаздық. Оның қандай салаларда кеңінен қолданылып жатқанын журналымыздың соңғы беттеріндегі «Егерде...» айдарынан оқи аласыздар. Ал бұл мақаламызда сол ЖИ-ға алданған адамдар туралы айтқымыз келеді.

ЖИ-дің «сандырағы»

Жасанды интеллект дегенде ойымызға OpenAi компаниясының ChatGPT боты түседі. Өйткені ел нарығына алғашқылардың бірі болып кірген, ел қазынасына бірінші болып салық төлеген осы компанияның аталған өнімі болатын. Дегенмен, жыл басында жұрттың бәрі ChatGPT қолданбасын «өтірікші» деп айыптады. Өйткені интернетте мәліметтері аз адамдар туралы, көбіне өздері туралы ботқа сұрақ қойып, оның өтірік құрастырған мәтіндеріне күле бастады. Иә, сіз де, біз де ЖИ-ға өз атымызды жазып, сұрап көргеміз. Бірімізді актер, бірімізді қоғам қайраткері деді. Тіпті кейбір адамдарды ХХ ғасыр басындағы репрессия құрбандарының қатарына қосып та жіберді. Бұл ЖИ-дің құрылымын түсінбей жасалған «мазақ» еді. Өйткені ChatGPT ешқашан білмеймін деп жауап бермейтін. Ол міндетті түрде мәтін құрайды. Өйткені оның негізгі міндеті де сол. ЖИ – өздігінен ойланатын машина емес. Ол ашық деректерді қарастырып, солардан сөздер жиынтығын құраушы. Яғни ол сіздің сауалыңызға дұрыс немесе бұрыс жауап беріп жатырмын деп ойланбайды. Ол мына сөзге қай сөз ұйқасады деп ойланады. ЖИ-дің мұндай «сандырақ» мәтіндерін ғалымдар «ЖИ галлюцинациясы» деп атайды. Енді мұндай «сандырақтан» арылуға болады. Өйткені ChatGPT-дің соңғы жаңартылымы «менде нақты жауап жоқ» деп айтуға үйретілген. Негізінен бұрын да баптаулар арқылы да галлюцинациядан қашу мүмкіндіктері болатын.

Жоқ кітаптағы сілтемелер

Жә, халық біраз күліп алғаннан кейін ЖИ-ді пайдалану үдей түсті. Студенттер дипломдық жұмыстарын жаздырып, рефераттар дайындатып, оқушылар эссе жаздырып, есептерін шығартып, қарық болып қалды. Бірде ЖОО-да сабақ беретін таныс мұғалім хабарласып: «С.Қасқабасовтың «Мифтер» деген кітабы бар ма еді?» деп сұрады. Ары ойлап, бері ойлап, академик ғалымның бұл аттай кітабы жоқ екенін анық айттым. «Ойпыр-ай, онда мына студент ол кітапты қайдан алған?» деп таңданысынан кейін бәрін ұққандай болдым. Иә, ол студент жұмысын ЖИ-ға жаздырып отыр. Ал ол кітапты «бар» не «жоқ» деп анықтамайды көбіне. «Ғылыми стильде мәтін құрап бер» деген тапсырманы бұлжытпай орындап, ғылыми стильге тән сілтеме жасап береді. Бұл да ЖИ галлюцинациясының бір түрі. ЖИ-дің жады «семанти-калық (мағыналық)» емес, «статистикалық». Ол нақты білімді емес, «білімге ұқсайтын сөздердің үлгісін» болжайды. Сондықтан, авторлар есімін, баспаларды, ғылыми терминдерді сөйлесу ағынына сай «жинақтап» жаңа «сөз, сөйлем» ойлап табады. Осылай жоқ кітаптардың негізінде қаншама реферат, студенттің өзіндік жұмыстары жазылып жатыр. Сілтемелерді дұрыс көрсету үшін ЖИ моделіне анық сілтеме ойдан құрамау, нақты дереккөзі жоқ деректі қолданбау туралы баса ескерту керек. Солай болғанның өзінде әр сілтемені Google Scholar немесе кітапхана базасымен қолмен тексеру маңызды. Осы деректермен келгенде, ЖИ қолданушыларының бәрі дерлік оған алданғандар екенін ұмытпаған абзал.

Сандырақ сот үкімі

АҚШ сотының судьялары сот отырысына қолдан жасалған дәлел бейнелердің түсіп жатқанын айтып дабыл қағуда. Олар айыптаушылар мен адвокаттарға деректің нақтылығын тексеруді барынша қолға алуды тапсырған. Қараша айында Мэриленд штатының апелляциялық соты отбасы істерімен айналысатын адвокат Адам Хайманға қатысты үкім шығарды. Ол сотқа өтірік, ChatGPT арқылы жасалған құжаттар ұсынған екен. Яғни аппелляциялық өтінішке ЖИ жазып берген сот шешімдеріне сілтемелер енгізген. Іске жауапты судья Кэтрин Грил Грин Грэфф өтініштегі көптеген сілтеме нақты өмірде болмаған сот шешімдері екенін атап өтті. Кейбір шынайы цитаталар керісінше адвокаттың аргументтеріне қарсы келіп отырған. «Адвокат ЖИ арқылы жасалған сот істерін ұсынуы – өрескел қате. Құқық саласының қызметкері әрбір сілтемені жекелей, түбегейлі зерттеуге міндетті», – деп айтты судья өз қорытындысында. Өзін қорғауға тырысқан адвокат бар кінәні көмекшісіне аударып, өзінің «құжаттарды тексермегенін» алға тартқан екен. Бірақ судья оның бұл сөзіне назар аудармаған. Керісінше көмекшісімен қосып жасанды интеллектіні пайдалану этикасын оқуға міндеттеп, құжаттарды тексеру дағдысын жетілдіруге тиіс екенін атап өткен. Сонымен қатар, адвокат ісі ары қарайғы тергеу үшін тәртіптік комиссияға жолданған. Сот саласында мұндай оқиғалар соңғы уақыттарда тіпті жиілеп кетті. Қарапайым азаматтар адвокат қызметінен бас тартып, өз-өздерін чат-боттар арқылы қорғауға көшіп жатқан көрінеді. Бірақ олардың көбі жоғарыдағыдай себептермен жеңілгені былай тұрсын, қосымша айыппұл арқалап кетіп жатыр. Ғылыми мәтіндерді, кітап аттарын ойдан шығарып отырған ЖИ болмаған сот үкімдерін де жасай алатыны белгілі болды.

ЖИ-ден ауру тапқандар

Уоррен Тирни есімді ирландиялық азамат тамағы ауыра бастағанда ЖИ-дің көмегіне жүгінеді. Чат-бот одан аурудың белгілерін сұрап, әртүрлі ем-шара түрлерін ұсынады. Бірақ ешбір кеңес оң өзгеріс бермеген екен. Сонда да болса ЖИ ирландиялық азаматты жігерлендіріп, «өткінші ауру» деуін тоқтатпайды. Арада алты ай өткенде Уоррен шыдай алмай жедел жәрдем шақырғанда ғана өзінде «тамақ обырының» бар екенін анықтаған. Жақында Қазақстан телеарналарының бірінде ChatGPT көмегімен өзіне ем жасап жүрген жігіттің кейсі айтылды. Сұқбат беріп отырған дәрігер: «Науқасты көрмей, білмей, сырттай белгілер арқылы диагноз қою мүмкін емес» екенін анық айтып отыр. АҚШ азаматы тұздың зиян екенін, оны көп пайдаланғысы келмейтінін айтып ЖИ-дан көмек сұрайды. Чат-бот лезде оған тұз орнына бромид қолдануды ұсынған екен. Үш айдан кейін азамат уланып, одан ары поранойя диагнозымен психиатриялық ауруханаға түседі. Дәрігерлер бромидтің бір кездері медицинада қолданылғанын, бірақ ұзақ қолдану кезінде жүйкеге әсер етіп, галлюцинация шақыратынын дәлелдеген. Сол үшін оны дәрілік заттардан шеттеткен көрінеді. Бірақ ЖИ оның зиянын айтпай, өз қолданушысына ұсынған. Мұндай жағдайлар әлемде көптеп кездесіп жатыр. Сондықтан осы жылдың 1 қарашасында OpenAi компаниясы өзіне тиесілі чат-боттардың ендігі уақытта медицина және құқық қорғау салалары бойынша ешқандай кеңес бермейтінін хабарлады.

Кек алушы ЖИ

Мэри Кальдас есімді Испандық блогер СhatGPT-дің кесірінен Пуэрто-Рикоға ұша алмай қалғанын, жігіті екеуі жоспарлаған демалыстарының күйіп кеткенін айтып әлеуметтік желіде рилз жариялады. Мэридің айтуынша ол чат-боттан Пуэрто-Рикоға ұшу үшін қажетті құжаттар тізімін сұраған. ЖИ ол жаққа бару үшін визаның қажеті жоғын анықтап айтады. Бірақ Испания азаматтары АҚШ территориясына кіру үшін ESTA-дан (Саяхатқа электрондық рұқсат) рұқсат алу керектігін айтпаған көрінеді. Мэри жариялаған рилзнің соңында: «Бәлкім СhatGPT менен осылай кек алғысы келген шығар. Мен кейде оған ұрысып, ауыр сөздер айтамын. «Пайдасыз, ақымақ» деп жәбірлеймін. Енді сенбеймін», – деді.

Тапсырманы дұрыс берсеңіз, сонда алданбайсыз

ЖИ галлюцинациясын айналып өтудің бір ғана жолы бар. Ол – тапсырманы дұрыс жазу. Жан-жақты және сандыраққа ұрынбауын кесіп жазу керек. Сонымен бірге, әрбір келтірген дерегінің сілтемесін тауып беруін өтіндіңіз. Әрбір сілтемені тексеріп отырғаныңыз тағы абзал. Әрине, OpenAi компаниясымен бірге көптеген компаниялар өз боттарына медициналық және құқықтық кеңестер беруге тосқауыл қоя бастайды. Дегенмен, өзіңізді көрмеген, қолымен ұстап тексермеген құрылғыға өз денсаулығыңыз бен өміріңізді қалайша сеніп тапсырмақсыз? Бұл тұста «сезімі, санасы бар адам ақымақ па, сезімсіз, тек сөздерді талғаумен айналысатын ЖИ ақымақ па?» деп сұраудың өзі ақымақтық болар...

Досхан ЖЫЛҚЫБАЙ
«Ақ желкен» журналы, №12
Желтоқсан, 2025

1858 рет

көрсетілді

0

пікір

Біздің Telegram каналына жазылыңыз

алдымен сізді қызықтыратын барлық жаңалықтарды біліңіз

Редактор блогы

Балжан Мұратқызы

«Ақ желкен» журналының Бас редакторы