Rusia, China, Israel și Iran s-au folosit de modelele de inteligență artificială OpenAI pentru propagandă
OpenAI a lansat primul său raport despre modul în care instrumentele sale de inteligență artificială sunt folosite pentru operațiuni sub acoperire, joi, dezvăluind că Rusia, China, Israel și Iran au desfășurat operațiuni de dezinformare în scop propagandistic, oprite de companie.
Grupări din aceste țări au folosit modelele AI generative ale companiei pentru a crea și a posta conținut de propagandă pe rețelele sociale și pentru a-și traduce conținutul în diferite limbi. Potrivit raportului, niciuna dintre campanii nu a reușit să ajungă la multe conturi, acestea fiind stopate de OpenAI, scrie The Guardian.
Pe măsură ce AI generativă a devenit o industrie în plină expansiune, a existat o îngrijorare larg răspândită în rândul cercetătorilor și a legiuitorilor cu privire la potențialul său de a crește cantitatea și calitatea dezinformării online. Companiile de inteligență artificială, cum ar fi OpenAI, care are ChatGPT, au încercat cu rezultate mixte să oprească astfel de încercări.
Raportul de 39 de pagini al OpenAI este unul dintre cele mai detaliate relatări ale unei companii de inteligență artificială despre utilizarea software-ului său pentru propagandă. OpenAI a susținut că cercetătorii săi au găsit și au interzis conturi asociate cu cinci operațiuni de dezinformare în ultimele trei luni, care proveneau de la un amestec de actori statali și privați.
În Rusia, două operațiuni au creat și răspândit conținut care critica SUA, Ucraina și mai multe națiuni baltice. Una dintre operațiuni a folosit un model OpenAI pentru a crea un bot care a postat pe Telegram. Operațiunea de influență a Chinei a generat text în engleză, chineză, japoneză și coreeană, pe care agenții l-au postat apoi pe Twitter și Medium.
Iranienii au generat articole complete care au atacat SUA și Israelul, pe care le-au tradus în engleză și franceză. O firmă israeliană numită Stoic a condus o rețea de conturi false pe rețele sociale care a creat o gamă largă de conținut, inclusiv postări care acuzau protestele studenților americani împotriva războiului Israelului din Gaza ca fiind antisemite.
Câteva dintre entitățile care răspândeau dezinformare, pe care OpenAI le-a interzis de pe platforma sa, erau deja cunoscute cercetătorilor și autorităților. Trezoreria SUA a sancționat în martie doi ruși care ar fi fost în spatele uneia dintre campaniile pe care OpenAI le-a detectat, în timp ce Meta a interzis și Stoic din platforma sa anul acesta, pentru încălcarea politicilor sale.
Raportul subliniază, de asemenea, modul în care AI generativă este încorporată în campaniile de dezinformare ca mijloc de îmbunătățire a anumitor aspecte ale generării de conținut, cum ar fi realizarea de postări mai convingătoare în limbi străine, dar că nu este singurul instrument de propagandă.
„Toate aceste operațiuni au folosit AI într-o oarecare măsură, dar niciuna nu a folosit-o exclusiv”, se arată în raport. „În schimb, materialul generat de AI a fost doar unul dintre multele tipuri de conținut pe care le-au postat, alături de formate mai tradiționale, cum ar fi texte scrise manual sau meme copiate de pe internet.”
Deși niciuna dintre campanii nu a avut un impact notabil, utilizarea tehnologiei arată cum actorii rău intenționați descoperă că AI generativă le permite să intensifice propaganda. Scrierea, traducerea și postarea conținutului pot fi acum realizate mai eficient prin utilizarea instrumentelor AI, coborând ștacheta pentru crearea de campanii de dezinformare.
În ultimul an, actori rău intenționați au folosit inteligența artificială generativă în țări din întreaga lume pentru a încerca să influențeze politica și opinia publică. Audio deepfake, imagini generate de inteligență artificială și campanii bazate pe text au fost folosite pentru a perturba campaniile electorale, ceea ce duce la o presiune crescută asupra companiilor precum OpenAI pentru a restricționa utilizarea instrumentelor lor.
OpenAI a declarat că intenționează să elibereze periodic rapoarte similare privind operațiunile de influență sub acoperire, precum și să elimine conturile care încalcă politicile sale.
Editor : M.I.
Descarcă aplicația Digi24 și află cele mai importante știri ale zilei
Urmărește știrile Digi24.ro și pe Google News