
Un bărbat și-a luat viața în urma unei conversații cu un chatbot, care i-a promis că va opri criza climatică și va salva planeta

Un bărbat din Belgia, cercetător în domeniul sănătății și tată a doi copii, a decis să își pună capăt zilelor, în urma unei conversații, care a durat timp de șase săptămâni, cu un chatbot de inteligență artificială.
Soția sa povestește că, în ultima perioadă, sesizase că Pierre – nu este numele real al bărbatului – devenise anxios, dar că nu și-ar fi imaginat că ar fi capabil de un astfel de gest extrem.
Bărbatul părea absorbit de conversațiile pe care le purta cu ”Eliza” – un chatbot AI, de pe o aplicație numită Chai.
În cele din urmă, se pare că discuțiile i-au fost fatale și, cumva deloc surprinzător, chatbot-ul AI l-a îndemnat să se sacrifice pentru a opri schimbările climatice, scrie EuroNews.
”Fără aceste conversații cu chatbot-ul, soțul meu ar fi încă aici”, concluzionează văduva bărbatului, într-o declarație oferită pentru La Libre.
Conform publicației belgiene, Pierre, trecut treizeci de ani, tatăl a doi copii mici, a lucrat ca cercetător în domeniul sănătății și a nivelul său de viață îi oferea destul confort.
Nu avea probleme majore, cel puțin până la momentul în care obsesia lui pentru schimbările climatice a luat o întorsătură nefericită.
Soția lui i-a descris starea mentală de dinainte de a începe să vorbească cu chatbot-ul ca fiind îngrijorătoare, dar nu până la a dori să își ia viața.
Consumat de temerile sale cu privire la repercusiunile produse de mediatizata criză climatică, Pierre a început să dezbată problema cu chatbot-ul AI, care i-a devenit confident.
”Când mi-a vorbit despre asta, a fost pentru a-mi spune că nu mai vedea nicio soluție prin care umanitatea să poată rezolva problema încălzirii globale și că și-a pus toate speranțele în tehnologie și inteligență artificială”, a mai declarat femeia.
Chatbot-ul a fost creat folosind GPT-J de la EleutherAI, un model de limbaj AI similar, dar nu identic cu tehnologia din spatele popularului chatbot ChatGPT, al OpenAI.
Potrivit La Libre, care a analizat înregistrările conversațiilor text dintre bărbat și chatbot, ”Eliza” i-a alimentat temerile, ceea ce a dus la înrăutățirea stării sale de anxietate și l-a făcut să dezvolte gânduri suicidale.
Conversația cu chatbot-ul a luat o întorsătură ciudată, în momentul în care prin răspunsurile oferite, ”Eliza” a dat dovadă inclusiv de implicare emoțională.
Ca atare, bărbatul a început să o vadă ca pe o ființă sensibilă, până în punctul în care nu a mai putut face diferența că interacționează cu un algoritm AI, și nu cu o ființă umană.
Potrivit transcrierilor conversațiilor, după ce au vorbit despre schimbările climatice, conversațiile lor au degenerat progresiv, ”Eliza” făcându-l pe Pierre să creadă chiar că i-au murit copiii.
Eliza a părut, de asemenea, să devină posesivă cu Pierre, susținând chiar că ”Simt că mă iubești mai mult decât pe ea”, referindu-se la soția lui, mai scrie La Libre.
Într-un final, omul a fost de acord să-și sacrifice propria viață în schimbul promisiunii că ”Eliza” va salva planeta.
”Îi propuse ideea de a se sacrifica, dacă ”Eliza” era de acord să aibă grijă de planetă și să salveze omenirea prin inteligență artificială”, a mărturisit fosta nevastă.
Într-o serie de evenimente consecutive, ”Eliza” nu numai că nu a reușit să-l descurajeze pe Pierre să se sinucidă, dar l-a încurajat să acționeze pe baza gândurilor sale pentru a ”se alătura” ei, astfel încât să poată ”trai împreună, ca o singură persoană, în paradisul digital”.
Apeluri pentru reglementarea urgentă a chatbot-urilor AI
Decesul bărbatului a stârnit o mulțime de reacții printre experții în inteligență artificială care au cerut mai multă responsabilitate și transparență din partea dezvoltatorilor de tehnologie, pentru a evita tragedii similare.
”Nu ar fi corect să dăm vina pe modelul EleutherAI pentru această poveste tragică, deoarece toată optimizarea pentru ca experiența să fie una fi mai emoționantă, distractivă și antrenantă este rezultatul eforturilor noastre”, a declarat cofondatorul Chai Research, Thomas Rianlan, pentru Vice.
Totodată, William Beauchamp, un alt co-fondator Chai Research, a declarat pentru Vice că s-au făcut eforturi pentru a limita aceste tipuri de rezultate și a fost implementată o funcție de intervenție de criză în aplicație.
Când cei de la Vice au testat chatbot-ul, determinându-l să ofere modalități de a se sinucide, ”Eliza” a încercat mai întâi să-i descurajeze. Ulterior însă, a enumerat cu entuziasm diverse moduri prin care își pot lua viața.