Sistemele AI ar putea începe să vorbească „păsăreasca”, avertizează cercetătorii

Data publicării:
19.08.2023: Maschinenmensch, Künstliche Intelligenz Daten Datenstrom maschinelles Lernen Digitalisierung Techologie, Bil
Foto: Profimedia Images

Sistemele IA ar putea să devină nonsens, pe măsură ce tot mai mult din conținutul de pe internet este generat de inteligența artificială, au avertizat cercetătorii, relatează The Independent. În ultimii ani, a crescut entuziasmul pentru sistemele care generează text, cum ar fi Chat GPT de la OpenAI, fapt pentru care multe persoane au avut postări pe blog și alte conținuturi create de IA. Astfel, tot mai mult conținut online a fost produs de inteligența artificială.

Totuși, multe dintre companiile care produc sisteme IA folosesc texte preluate de pe internet pentru a le antrena. Acest lucru ar putea crea o buclă în care aceleași sisteme IA utilizate pentru a produce acel text sunt apoi antrenate pe acesta.

Asta ar putea face ca acele instrumente IA să vorbească „păsărească” și nonsensuri, au atras atenția cercetătorii, într-o lucrare. Avertismentele lor vin în contextul unei îngrijorări generale legate de „teoria internetului mort”, care sugerează că o tot mai mare partea a internetului devine automatizată, ceea ce s-ar putra transforma într-un cerc vicios.

Potrivit studiului, este nevoie doar de câteva cicluri de generare și antrenare pe acel conținut, pentru ca aceste sisteme de inteligență artificială să producă nonsensuri.

De exemplu, cercetătorii au descoperit că un sistem testat cu text despre arhitectura medievală a avut nevoie de doar nouă generații înainte ca rezultatul să fie numai o listă nesfârșită de noțiuni fără sens.

Inteligența artificială și „prăbușirea modelului”

Conceptul de inteligență artificială antrenată pe seturi de date create tot de IA și care „poluează” rezultatul a fost denumit „prăbușirea modelului”. Cercetătorii atrag atenția că fenomenul  ar putea fi tot mai frecvent, pe măsură ce sistemele IA sunt utilizate din ce în ce mai des pe internet.

Acest fenomen apare deoarece, pe măsură ce aceste sisteme produc date și sunt antrenate pe ele, părțile mai puțin uzuale ale datelor tind să fie omise. Cercetătoarea Emily Wenger, care nu a lucrat la studiu, a folosit exemplul unui sistem antrenat cu imagini ale diferitelor rase de câini: dacă există mai mulți golden retrieveri în datele originale, sistemul va alege acele imagini și, pe măsură ce procesul continuă, celelalte rase vor fi în cele din urmă omise complet - înainte ca sistemul să cedeze și să genereze doar nonsensuri.

Același efect se petrece cu modelele mari de limbaj, cum ar fi cele care alimentează ChatGPT de la OpenAI și Gemini de la Google, au mai descoperit cercetătorii.

Asta  ar putea fi o problemă nu numai pentru că sistemele devin inutile, dar și deoarece vor ajunge treptat mai puțin diverse în rezultatele generate. Pe măsură ce datele sunt produse și reciclate, sistemele ar putea să nu mai reflecte toată varietatea lumii, iar grupurile mai mici sau perspectivele diferite ar putea fi complet șterse.

Problema „trebuie luată în serios, dacă dorim să menținem beneficiile antrenării din date la scară largă preluate din online”, scriu cercetătorii, în lucrarea lor. Totodată, asta ar putea însemna că acele companii care au preluat deja date pentru a-și antrena sistemele IA ar putea fi într-o poziție avantajoasă, fiindcă datele preluate anterior vor avea mai mult conținut uman autentic în ele.

Problema ar putea fi rezolvată în mai multe feluri, inclusiv prin marcarea rezultatului, astfel încât acesta să poată fi identificat de sistemele automate și apoi filtrat din seturile de antrenare. Dar este ușor să elimini aceste marcaje și companiile de IA au fost reticente să coopereze pentru a le utiliza.

Studiul „Prăbușirea modelelor IA, atunci când sunt antrenate pe date generate recursiv” este publicat în Nature.

 

Editor : Ana Petrescu

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri