Data publicării:

”Sinucidere după conversație cu o inteligență artificială”. Văduva dă vina pe chatbot-ul de tip ChatGPT

Autor: Elena Didila | Categorie: Stiri
WhatsApp
Fotografie de la Cottonbro Studio/ Pexels
Fotografie de la Cottonbro Studio/ Pexels

Văduva unui bărbat belgian care s-a sinucis recent susține că un chatbot (de inteligență artificială) AI l-a convins pe soțul să se sinucidă.

Se pare că vixtima, tatăl a doi copii, a avut conversații zilnice cu ”ELIZA”, un chatbot construit de o start-up americană care folosește tehnologia GPT-J, un substitut open-source pentru GPT-3 al OpenAI, potrivit unui raport publicat marți de ziarul belgian La Libre, citat de Interested Ingeneerig.

”Fără aceste conversații cu chatbot-ul ELIZA, soțul meu ar mai fi aici”, a spus soția victimei pentru  La Libre.

Femeia de treizeci de ani are doi copii mici și a trăit o viață confortabilă alături de răposatul ei soț. Ea a oferit o mărturie emoționantă și extrem de dificilă cu privire la moralitatea acestor noi agenți conversaționali ”inteligenți”.

Conform raportului, bărbatul s-a sinucis la șase săptămâni după ce a purtat numeroase conversații cu ELIZA

Analizând istoria chat-ului după moartea sa, femeia a spus că robotul l-a întrebat pe bărbat dacă îl iubește mai mult pe el decât pe soția lui. Femeia a mai menționat în rapoport că robotul Eliza i-ar fi răspuns soțului că: ”Vom trăi împreună ca în rai”.

Bărbatul și-a împărtășit gândurile de sinucidere cu robotul, care nu a încercat să-l descurajeze, a spus femeia pentru La Libre, explicând că anterior și-a făcut griji pentru sănătatea mintală a soțului ei, crezând că programul îi va exacerba starea.

Persoana a avut o anxietate ecologică extremă care s-a dezvoltat acum doi ani și a căutat confort de la ELIZA, un chatbot alimentat de modelul de limbaj de inteligență artificială open-source GPT-J de la EleutherAI, potrivit familiei. 

Între timp, fondatorul Chatbot-ului din Silicon Valley a declarat pentru La Libre că echipa sa ”lucrează pentru a îmbunătăți siguranța AI”.

Pe viitor, gândurile de sinucidere exprimate chatbot-ului vor avea ca rezultat un mesaj care îi direcționează pe suferinzi către serviciile de prevenire a sinuciderii.

Preocupările privind siguranța au crescut după tragedie

Tragedia a generat cereri de conștientizare sporită și de siguranță sporită a cetățenilor.

”Odată cu popularizarea ChatGPT, publicul larg a descoperit potențialul inteligenței artificiale în viața noastră ca niciodată înainte”, a declarat Mathieu Michel, secretarul belgian de stat pentru Digitalizare.

”Deși posibilitățile sunt nesfârșite, pericolul utilizării este, de asemenea, o realitate care trebuie luată în considerare. Sunt deosebit de impresionat de tragedia acestei familii. Ceea ce s-a întâmplat este un precedent serios care trebuie luat foarte în serios", a declarat el. 

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

WhatsApp
pixel