Bărbat din Norvegia depune plângere după ce ChatGPT i-a spus că şi-a ucis copiii


Arve Hjalmar Holmen, un bărbat din Norvegia, a depus o plângere la Autoritatea norvegiană pentru Protecția Datelor după ce a primit o informație falsă de la ChatGPT, care susținea că și-ar fi ucis cei doi fii și că a fost condamnat la 21 de ani de închisoare. Incidentul este un exemplu al așa-numitelor „halucinații” ale inteligenței artificiale, atunci când modelele AI inventează informații și le prezintă drept fapte reale.

Holmen a precizat că, deși chatbot-ul a menționat corect vârsta sa, a generat o poveste complet falsă despre viața sa personală, inclusiv acuzația de crimă. Informațiile prezentate de ChatGPT descriau un incident tragic în care ar fi fost implicat, dar aceste detalii erau complet neadevărate. Holmen susține că răspunsul chatbot-ului este defăimător și periculos, deoarece ar putea duce la credința greșită că astfel de evenimente s-au întâmplat cu adevărat.

Grupul pentru drepturile digitale Noyb, care a depus plângerea în numele lui Holmen, argumentează că acest răspuns încalcă normele europene de protecție a datelor, în special în ceea ce privește acuratețea informațiilor personale. Noyb subliniază că Holmen nu a fost niciodată acuzat sau condamnat pentru vreo infracțiune și este un cetățean respectabil.

În ciuda avertismentului pe care ChatGPT îl include în răspunsurile sale („ChatGPT poate face greșeli. Verificați informațiile importante”), Noyb consideră că simpla adăugare a acestui disclaimer nu este suficientă. „Nu poți răspândi informații false și apoi să adaugi un mic disclaimer. Este inacceptabil”, a declarat Joakim Söderberg, avocat al Noyb.

„Halucinațiile” sunt o problemă majoră pentru sistemele de inteligență artificială generativă, iar cercetătorii sunt încă în căutarea unui mod de a rezolva aceste erori. În trecut, și alte platforme, precum Apple și Google, au întâmpinat dificultăți similare cu AI-ul lor, care a generat informații false sau inadecvate.

În urma plângerii, Holmen a continuat să ceară responsabilitate din partea OpenAI, în speranța că acest incident va conduce la o mai mare precauție în utilizarea și dezvoltarea tehnologiilor de inteligență artificială.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *