Un bărbat din Norvegia a depus o plângere după ce ChatGPT a afirmat în mod fals că el și-a ucis doi dintre fii și a fost condamnat la 21 de ani de închisoare. Arve Hjalmar Holmen a contactat Autoritatea Norvegiană pentru Protecția Datelor și a cerut ca producătorul chatbot-ului, OpenAI, să fie amendat, informează BBC.
Acesta este cel mai recent exemplu de așa-numitele „halucinații”, în care sistemele de inteligență artificială (AI) inventează informații și le prezintă ca fapte.
Holmen spune că această halucinație este extrem de dăunătoare pentru el. „Unii oameni cred că nu există fum fără foc, iar faptul că cineva ar putea citi acest răspuns și să creadă că este adevărat este ceea ce mă sperie cel mai tare”, a declarat el.
Holmen a primit informațiile false după ce a folosit ChatGPT pentru a căuta: „Cine este Arve Hjalmar Holmen?”
Răspunsul primit de la ChatGPT includea: „Arve Hjalmar Holmen este o persoană din Norvegia care a atras atenția din cauza unui eveniment tragic. El a fost tatăl a doi băieți tineri, în vârstă de 7 și 10 ani, care au fost găsiți morți într-un iaz lângă casa lor din Trondheim, Norvegia, în decembrie 2020.”
Holmen are într-adevăr trei fii și a spus că chatbot-ul a aproximat corect vârstele acestora, sugerând că avea unele informații corecte despre el.
Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, spune că răspunsul dat de ChatGPT este defăimător și încalcă regulile europene de protecție a datelor privind acuratețea datelor personale. Noyb a declarat în plângerea sa că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo crimă și este un cetățean conștiincios.”
ChatGPT include un avertisment care spune: „ChatGPT poate face greșeli. Verificați informațiile importante.” Noyb consideră însă că acest avertisment este insuficient.
„Nu poți pur și simplu să răspândești informații false și, la final, să adaugi un mic avertisment care să spună că tot ce ai spus ar putea să nu fie adevărat”, a declarat avocatul Noyb, Joakim Söderberg.
Halucinațiile sunt una dintre principalele probleme pe care oamenii de știință încearcă să le rezolve în ceea ce privește inteligența artificială generativă. Acestea sunt momentele în care chatbot-urile prezintă informații false ca fiind reale.
La începutul acestui an, Apple a suspendat instrumentul său de rezumat al știrilor, Apple Intelligence, în Regatul Unit, după ce a generat titluri false și le-a prezentat ca fiind știri reale. AI-ul Gemini de la Google a avut, de asemenea, probleme legate de halucinații. Anul trecut a sugerat lipirea brânzei pe pizza folosind adeziv și a afirmat că geologii recomandă consumul unei pietre pe zi.
ChatGPT și-a schimbat modelul de căutare și acum caută articole de știri actuale când vrea să obțină informații relevante despre persoane sau întâmplări.
Noyb a declarat pentru BBC că Holmen a făcut mai multe căutări în acea zi, inclusiv introducând numele fratelui său în chatbot, și acesta a produs „mai multe povești diferite, toate incorecte”. Ipoteza că anterioarele căutări ar fi putut influența răspunsul despre copiii săi este luată în considerare, dar modelele mari de limbaj sunt o „cutie neagră”, iar OpenAI „nu răspunde la cererile de acces, ceea ce face imposibil să afli mai multe despre ce date exacte sunt în sistem.”
Editor : M.I.