Un bărbat cere ca OpenAI să fie amendat după ce ChatGPT a spus că și-a ucis copiii. Ce sunt „halucinațiile” sistemelor AI

Data publicării:
ChatGPT chat with AI
ChatGPT și-a schimbat modelul de căutare,. Sursa foto: Profimedia Images

Un bărbat din Norvegia a depus o plângere după ce ChatGPT a afirmat în mod fals că el și-a ucis doi dintre fii și a fost condamnat la 21 de ani de închisoare. Arve Hjalmar Holmen a contactat Autoritatea Norvegiană pentru Protecția Datelor și a cerut ca producătorul chatbot-ului, OpenAI, să fie amendat, informează BBC.

Acesta este cel mai recent exemplu de așa-numitele „halucinații”, în care sistemele de inteligență artificială (AI) inventează informații și le prezintă ca fapte.

Holmen spune că această halucinație este extrem de dăunătoare pentru el. „Unii oameni cred că nu există fum fără foc, iar faptul că cineva ar putea citi acest răspuns și să creadă că este adevărat este ceea ce mă sperie cel mai tare”, a declarat el.

Holmen a primit informațiile false după ce a folosit ChatGPT pentru a căuta: „Cine este Arve Hjalmar Holmen?”

Răspunsul primit de la ChatGPT includea: „Arve Hjalmar Holmen este o persoană din Norvegia care a atras atenția din cauza unui eveniment tragic. El a fost tatăl a doi băieți tineri, în vârstă de 7 și 10 ani, care au fost găsiți morți într-un iaz lângă casa lor din Trondheim, Norvegia, în decembrie 2020.”

Holmen are într-adevăr trei fii și a spus că chatbot-ul a aproximat corect vârstele acestora, sugerând că avea unele informații corecte despre el.

Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, spune că răspunsul dat de ChatGPT este defăimător și încalcă regulile europene de protecție a datelor privind acuratețea datelor personale. Noyb a declarat în plângerea sa că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo crimă și este un cetățean conștiincios.”

ChatGPT include un avertisment care spune: „ChatGPT poate face greșeli. Verificați informațiile importante.” Noyb consideră însă că acest avertisment este insuficient.

„Nu poți pur și simplu să răspândești informații false și, la final, să adaugi un mic avertisment care să spună că tot ce ai spus ar putea să nu fie adevărat”, a declarat avocatul Noyb, Joakim Söderberg.

Halucinațiile sunt una dintre principalele probleme pe care oamenii de știință încearcă să le rezolve în ceea ce privește inteligența artificială generativă. Acestea sunt momentele în care chatbot-urile prezintă informații false ca fiind reale.

La începutul acestui an, Apple a suspendat instrumentul său de rezumat al știrilor, Apple Intelligence, în Regatul Unit, după ce a generat titluri false și le-a prezentat ca fiind știri reale. AI-ul Gemini de la Google a avut, de asemenea, probleme legate de halucinații. Anul trecut a sugerat lipirea brânzei pe pizza folosind adeziv și a afirmat că geologii recomandă consumul unei pietre pe zi.

ChatGPT și-a schimbat modelul de căutare și acum caută articole de știri actuale când vrea să obțină informații relevante despre persoane sau întâmplări.

Noyb a declarat pentru BBC că Holmen a făcut mai multe căutări în acea zi, inclusiv introducând numele fratelui său în chatbot, și acesta a produs „mai multe povești diferite, toate incorecte”. Ipoteza că anterioarele căutări ar fi putut influența răspunsul despre copiii săi este luată în considerare, dar modelele mari de limbaj sunt o „cutie neagră”, iar OpenAI „nu răspunde la cererile de acces, ceea ce face imposibil să afli mai multe despre ce date exacte sunt în sistem.”

Editor : M.I.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Cât de des trebuie să-ți speli picioarele: Adevărul surprinzător despre...
Digi FM
Cu ce se ocupă Petre Roman după ce a renunțat la cariera politică: „Aceasta e satisfacția mea cea mai mare...
Pro FM
Debodează de senzualitate și arată acest lucru. Karmen, irezistibilă în ținute ce-i subliniază decolteul...
Film Now
Acum un an, Owen Cooper era un băiat normal și juca fotbal în parc, azi e la Hollywood. Ce spun vecinii...
Adevarul
Transformarea dramatică a unui soldat ucrainean, care a pierdut 40 de kilograme în aproape trei ani de...
Newsweek
Care pensionari nu iau 400 lei ajutor la pensie în aprilie și nici bani pe cardul de alimente? De ce
Digi FM
Shiloh, fiica actorilor Angelina Jolie și Brad Pitt, imagini virale. Fanii sunt convinși că adolescenta calcă...
Digi World
De cât somn avem cu adevărat nevoie? Cercetătorii dezvăluie ce se întâmplă cu creierul atunci când nu dormim...
Digi Animal World
Această femeie a coborât un munte, cărându-și câinele de 49 de kilograme în spate. Imaginile cu animalul...
Film Now
Chet, fiul lui Tom Hanks, dezvăluie numele actriței care i-a oferit „cel mai bun moment” din viața lui. Este...
UTV
Chef Matteo Grandi a slăbit 90 de kilograme în 8 luni. La ce alimente a renunțat din dieta sa