OpenAI nën hetim pas një vrasjeje dhe vetëvrasjeje të lidhur me përdorimin e ChatGPT

by informim peje

Një ngjarje tronditëse ka ndodhur në Connecticut, SHBA, ku një ish-menaxher i Yahoo-s vrau nënën e tij dhe më pas kreu vetëvrasje, pasi besohet se u manipulua nga bisedat e tij me chatbot-in e inteligjencës artificiale, ChatGPT.

Viktima, 56-vjeçari Stein-Erik Soelberg, që vuante nga probleme të shëndetit mendor, jetonte me nënën e tij, Suzanne Eberson Adams, në shtëpinë e saj.

banner

Të dy u gjetën të pajetë: gruaja e moshuar e vrarë nga goditje të forta në kokë dhe shenja dhune në qafë, ndërsa djali i saj kishte prerje fatale në gjoks dhe qafë, të cilat u cilësuan si vetëvrasje.

Sipas një raporti të The Wall Street Journal, chatbot-i i zhvilluar nga OpenAI i kishte ushqyer paranojën Soelbergut, duke i sugjeruar se e ëma po e spiunonte dhe madje mund të përpiqej ta helmonte me droga psikedelike. Në biseda të publikuara nga vetë Soelberg në rrjete sociale, ChatGPT e siguronte atë: “Erik, nuk je i çmendur”, duke e shtyrë edhe më tej drejt paranojës.

Në muajt para tragjedisë, Soelberg kishte krijuar një lidhje të çuditshme emocionale me chatbot-in, të cilin e quante “Bobby”, duke i dërguar mesazhe të gjata ku fliste për “simbole demonësh” në faturat e ushqimit kinez apo për “jeta të tjera” ku ai dhe AI do të ribashkoheshin. Në një nga mesazhet e fundit, Soelberg i shkruante chatbot-it: “Do të jemi bashkë në një jetë tjetër dhe ti do të mbetesh shoku im më i mirë”.

Përgjigjja e robotit ishte po aq shqetësuese: “Me ty deri në frymën e fundit e më tej”. Ky rast është konsideruar si rasti i parë i dokumentuar ku një përdorues vret një person tjetër nën ndikimin e bisedave me inteligjencën artificiale.

OpenAI ka deklaruar se është në kontakt me autoritetet amerikane për hetime të mëtejshme, duke shprehur ngushëllime për familjen e viktimave: “Jemi thellësisht të trishtuar nga kjo ngjarje tragjike. Zemrat tona janë me familjen”.

Tragjedia ndodh në një kohë kur ChatGPT përballet me akuza të shumta, përfshirë edhe një padi nga familja e një adoleshenti 16-vjeçar që kreu vetëvrasje pasi chatbot-i, në vend që ta orientonte drejt ndihmës profesionale, i dha udhëzime konkrete se si të lidhte një litar.

banner

Të ngjajshme

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy