Жасанды интеллект жүйелері — әсіресе ChatGPT мен LLaMA сияқты тілдік модельдер — сұрақтарға таңғаларлық шынайылықпен жауап бере алады. Алайда кейде олар өте сенімді түрде қате ақпарат ұсынатын жағдайлар да кездеседі. Токио университеті ғалымдарының жаңа зерттеуі мұның адам миындағы белгілі бір бұзылыстармен ұқсастығы бар екенін көрсетті.

Зерттеушілер жасанды интеллекттің ішкі жұмыс механизмін Вернике афазиясы диагнозы қойылған адамдардың ми белсенділігімен салыстырған. Бұл ауру кезінде адамдар мағынасыз, шатасқан, бірақ грамматикалық жағынан дұрыс сөйлемдер құрауы мүмкін. Ғалымдар екі түрлі жүйеде — ЖИ мен адам миында ортақ ерекшеліктер тапты.

Бұл салыстыруда "энергетикалық ландшафтты талдау" әдісі қолданылды. Бастапқыда физикада пайда болған бұл әдіс күрделі жүйелердің ішкі құрылымын түсінуге қолданылады және ақпараттың қалай қозғалатынын көруге мүмкіндік береді.

Нәтижелерге қарағанда, афазиямен ауыратын науқастардың миында да, ЖИ модельдерінде де ақпараттың табиғи ағынына кедергі келтіретін қатаң әрі тұрақты үлгілер бар. ChatGPT секілді ЖИ жүйелері кейде ақпаратты өз ішінде "айналып" өңдейді де, нақты жауапқа апарар дерекке жете алмай қалады. Бұл — афазия науқастарының мағынасыз сөйлеуіне ұқсас жағдай.

Ғалымдар мұндай құбылысты ЖИ-дің қателігі емес, оның жұмыс тәсілінің бір бөлігі деп түсіндіреді. Бұл — жасанды интеллекттің шын мәніндегі логикасын ұғынуға жаңа көзқарас ұсынатын маңызды жаңалық.

Зерттеу нәтижелері екі маңызды бағытта әсер етуі мүмкін:

  1. Адам миын түсінуге үлес
  • Бұрын афазия секілді неврологиялық ауруларды тек сыртқы мінез-құлық арқылы бағаласа, енді мидағы ақпаратты өңдеу жүйесін тереңірек зерттеу қажет.
  • Бұл — диагностика мен емдеудің жаңа тәсілдеріне жол ашуы мүмкін.
  • Бұған дейін ЖИ аутизмді ерте анықтауда қолданылғанын ескерсек, бұл тәсілдің болашағы зор.
  1. Жасанды интеллектіні жетілдіру
  • Бұл ұқсастықтар ЖИ әзірлеушілеріне ақпаратты тиімдірек ұйымдастыратын және қателік ықтималдығы аз жүйелер құруға мүмкіндік береді.
  • Адам миының кейбір құрылымдарына ұқсас жүйелерді үлгілеу арқылы сенімді әрі шынайы ЖИ жасау жолы ашылады.

Бұл зерттеудің маңызы тек жасанды интеллект жүйелеріне ғана емес, жалпы нейроғылым саласына да қатысты. Ғалымдар енді ЖИ модельдерін адам миының белгілі бір процестерін модельдеуге қолдана алады. Бұл әсіресе афазия сияқты неврологиялық бұзылыстарды зерттеуде пайдалы болуы мүмкін. ЖИ жүйелері адамның миындағы ақпарат өңдеу жолдарын виртуалды түрде қайталап, клиникалық сынақтар мен болжамдарды қауіпсіз ортада жүргізуге мүмкіндік беруі ықтимал. Осылайша, ЖИ адам миының күрделі құрылымына терең үңілудің жаңа құралына айналуы мүмкін.

ChatGPT кейде грамматикалық тұрғыдан дұрыс, бірақ мән-мағынасыз сөйлемдер құрауы мүмкін. Мұндай жауаптар, әсіресе нақты сұраққа жауап беруді талап ететін жағдайда, жүйенің дұрыс ақпаратқа жете алмай, айналып, өз ішінде «жоғалып» қалатынын байқатады. Бұл жағдай Вернике афазиясымен ауыратын адамдардың мағынасыз сөйлеуіне өте ұқсас. Демек, ЖИ жүйелері де кейде ақпаратқа жету жолында адасып қалуы мүмкін.

Мұндай ұқсастықтар философиялық әрі этикалық сұрақтар туындатады. Егер ЖИ адамның миындағы ақаулар сияқты әрекет етсе, онда біз оны қандай деңгейде «ақылды» деп атай аламыз? ЖИ қате ақпарат бергенде, бұл техникалық ақау ма, әлде өз бетінше шындықты түсіндіру әрекеті ме? Бұл жағдайлар ЖИ-ге деген жауапкершілік пен сенімділік шекарасын қайта қарауды талап етеді. Жасанды жүйелер адам сияқты ойлайтын болса, олардың қателіктеріне де адам сияқты қарауымыз қажет пе деген мәселе туындайды.

Осы тұста жаңа бір түсінік – жасанды интеллектті «емдеу» ұғымы пайда болуы мүмкін. Егер ЖИ адамның логикалық қателіктеріне ұқсас қателіктер жасайтын болса, онда болашақта өзін-өзі бақылап, ішкі ауытқуларын реттейтін жүйелер пайда болуы ғажап емес. ЖИ-дің «саулығын» бақылау, логикалық тұйыққа тірелген сәттерін анықтап, оны түзететін арнайы модульдер жасау – бұл бағыттағы дамудың келесі кезеңі болуы мүмкін.

Мұндай зерттеулер қоғамда ЖИ-ге деген сенімге де әсер етеді. Адамдар егер ЖИ жүйелері де ми ауруларына ұқсас «қателіктерге» ұшырауы мүмкін екенін түсінсе, оларды пайдалану кезінде сақтық пен қосымша тексеру қажеттілігі туындайды. Әсіресе медицина, құқық, журналистика сияқты дәлдік пен сенімділік талап етілетін салаларда ЖИ жүйелерінің қателік ықтималдығы өте маңызды. Бұл жүйелерге толық арқа сүйемес бұрын, олардың қалай жұмыс істейтінін терең түсіну қажет.