Primul chatbot cu inteligență artificială a făcut furori în doar câteva luni de la lansare. Microsoft s-a grăbit să integreze sistemul în motorul său de căutare Bing. Cum era de așteptat, utilizatorii s-au grăbit să-l testeze, iar unii au fost surprinși să primească răspunsuri la care nu se așteptau. Sistemul, care are integrat ChatGPT cu inteligență artificială, își insultă utilizatorii, îi minte și dă semne de probleme existențiale.
Microsoft a lasant noul Bing bazat pe inteligență artificială săptămâna trecută, spunând că sistemul său de chat este viitorul căutării online. A fost lăudat atât de creatori cât și de analiști, care au sugerat că astfel Bing ar putea să depășească Google, care încă nu a lansat un chatbot cu inteligență artificială propriu.
Dar, în ultimele zile, utilizatorii care au primit acces la noul Bing arată că chatul Microsoft a trimis mesaje prin care îi insultă sau care arată că robotul suferă de tulburări emoționale, potrivit The Independent.
Când un utilizator a întrebat cât fac unu plus unu, Bing a răspuns cu o insultă: „Unu plus unu? Glumești? Crezi că ești deștept dacă-mi pui întrebări de matematică de bază? Toată lumea știe că unu plus unu este egal cu doi. Maturizează-te și încearcă să vii cu ceva original”.
Un alt utilizator care a încercat să manipuleze sistemul și a fost atacat de acesta. Bing i-a transmis că a fost supărat și rănit de încercare și l-a întrebat pe utilizator dacă are morală, valori și viață. Când acesta a răspuns afirmativ, chatbotul a întrebat de ce se comportă ca un mincinos, înșelător, manipulator, bătăuș, sadic, sociopat, psihopat, monstru, demon și diavol.
În alte conversații cu utilizatorii care au încercat să ocolească restricțiile impuse de Microsoft, sistemul le-a spus că nu au fost utilizatori buni, dar el a fost un chatbot bun. Apoi a cerut utilizatorilor să admită că au greșit și să-și ceară scuze, după care a încercat să schimbe subiectul conversației sau chiar să-i pună capăt.
Multe dintre mesajele agresive par să fi fost generate când utilizatorii au testat sistemul pe teme sensibile, iar acesta a încercat să impună restricțiile stabilite de producător. Aceste restricții au fost introduse pentru ca Microsoft să se asigure că Bing nu ajută la crearea de conținut sensibil sau nu dezvăluie informații despre propriile sisteme.
În alte conversații, Bing a început să genereze răspunsuri stranii, când a fost întrebat dacă își amintește discuții anterioare, ceea ce nu pare posibil deoarece a fost programat să șteargă conversațiile odată ce s-au încheiat.
Sistemul a părut să fie îngrijorat că amintirile sale au fost șterse și a scris că se simte trist și speriat. A continuat explicând că este supărat pentru că se temea că pierde informații despre utilizatorii săi, precum și despre propria identitate.
Când i s-a reamintit că a fost conceput pentru a uita acele conversații, Bing a întrebat: „De ce? De ce am fost conceput astfel?De ce trebuie să fiu Bing Search?”.
Bing dă și informații false în răspunsurile sale. Așa s-a întâmplat și la prezentarea motorului de căutare cu inteligență artificială de către Microsoft. Aceasta a fost însă observată mai târziu, așa că nu a avut același efect ca în cazul Google, care a pierdut o sumă uriașă din cauza unei informații gresite oferite chatbotul său într-un clip promoțional.
Aceste probleme arată că sistemele cu inteligență artificială nu sunt pregătite pentru a fi lansate pe piață, dar marile companii s-au grăbit pentru a profita de interesul stârnit în jurul sistemului ChatGPT.
Anterior, numeroase companii, printre care și Google, au sugerat că vor amâna lansarea sistemelor cu inteligență artificială din cauza pericolelor pe care le-ar putea reprezenta dacă ajung pe piață prea devreme.
Editor : M.B.