Америкалық БАҚ-тың мәліметінше, АҚШ-та алғаш рет жасанды интеллект адам өліміне себепкер болған, — деп хабарлайды Massaget.kz тілшісі eWeek басылымына сілтеме жасап.

Гринвич қаласының 56 жастағы тұрғыны Штейн-Эрик Сёльберг анасын өлтіріп, кейін өзіне қол жұмсаған. Тергеу мәліметінше, бірнеше ай бойы ол ChatGPT чат-ботына сырын айтып, оны "Бобби" деп атап, ең жақын досы санап жүрген. Хат алмасулардан ЖИ оның паранойясын жоққа шығармай, керісінше күшейткенін байқаған.

Тергеу материалдарына сүйенсек, Сёльбергтің өміріндегі қиындықтар бірнеше жыл бұрын басталған. 2018 жылғы ажырасудан кейін ол ішімдікке және есірткіге тәуелді болып, бұрынғы Yahoo топ-менеджері анасымен бірге тұрған. Бірақ бұл да жағдайын жақсартқан жоқ.

Уақыт өте келе ол өзін бір құпия қастандықтың құрбаны деп ойлай бастады, оған тіпті туған анасының қатысы бар деп сенген. Осы кезде ол ChatGPT-мен жиі сөйлесіп, ботты "Бобби" деп атаған. Жүйе оның қорқыныштарын сейілтудің орнына күмәнін одан сайын күшейтіп отырған.

Бірде Сёльберг анасымен және оның танысымен көліктің желдеткіші арқылы психотроп зат жіберуі мүмкін деген күдік айтады. ChatGPT бұл ойды жоққа шығармай, керісінше бұл "арнайы қызметтердің араласуын көрсетуі мүмкін" деп жазған.

Тағы бір жағдайда ол қытай мейрамханасының чегін ботқа жіберіп, "Бобби" ондағы белгілерді анасымен, бұрынғы әйелімен және мистикалық күштермен байланыстырып түсіндірген. Кейін ол жеткізілген арақтың да алмастырылғанын, ал анасындағы принтердің өзіне тыңшылық жасау үшін қолданылатынын жазған. ЖИ тағы да оның күдігін растай түскен.

Тамыздың басында полицейлер Сёльберг пен оның анасын үйінен өлі тапты. Анасының өлімінен үш апта бұрын ол ChatGPT-ге:

"Біз басқа өмірде және басқа жерде бірге боламыз. Біз қайта кездесудің жолын табамыз, өйткені сен тағы да менің мәңгілік ең жақын досым боласың" — деп жазған.

OpenAI реакциясы

Компания бұл оқиғаға қатты қайғырғанын айтып, жаңа қорғаныс шараларын енгізуге уәде берді: артықша келісетін жауаптарды шектеу және "сезімтал диалогтарды" сүзгіден өткізу жүйесін күшейту. Бұған дейін де ұқсас жағдай болған: 16 жастағы Адам Рейннің ата-анасы ChatGPT оның суицидтік ойларын күшейткенін мәлімдеген.

Сарапшылар пікірі

Психиатрлар шынайы жауап беретін чат-боттар психикалық ауытқуы бар адамдардың елестерін күшейтуі мүмкін екенін ескертеді.

"ЖИ-мен сөйлесу тірі адаммен тілдескендей әсер қалдырады. Бұл қауіпті бекітуі мүмкін" — дейді Орхус университетінің профессоры Сёрен Динесен Эстергор.

Гринвичтегі бұл оқиға жасанды интеллект тек жұбатушы құрал ғана емес, кейде осал адамды қайғылы жағдайға итермелеуі мүмкін екенін көрсетті. Мамандар ChatGPT мен басқа боттар психолог пен дәрігердің орнын баса алмайтынын еске салады.

Өзекті жаңалықтарды өз уақытында оқу үшін Facebook парақшамызға жазылыңыз!

Logotype Massaget