Rusia, China, Israel și Iran s-au folosit de modelele de inteligență artificială OpenAI pentru propagandă

Data publicării:
Screen with ChatGPT chat with AI or artificial intelligence. Man search for information using artificial intelligence chatbot developed by OpenAI
Raportul de 39 de pagini al OpenAI este unul dintre cele mai detaliate relatări ale unei companii de inteligență artificială despre utilizarea software-ului său pentru propagandă. Imagine cu caracter ilustrativ. Sursa foto: Profimedia Images

OpenAI a lansat primul său raport despre modul în care instrumentele sale de inteligență artificială sunt folosite pentru operațiuni sub acoperire, joi, dezvăluind că Rusia, China, Israel și Iran au desfășurat operațiuni de dezinformare în scop propagandistic, oprite de companie.

Grupări din aceste țări au folosit modelele AI generative ale companiei pentru a crea și a posta conținut de propagandă pe rețelele sociale și pentru a-și traduce conținutul în diferite limbi. Potrivit raportului, niciuna dintre campanii nu a reușit să ajungă la multe conturi, acestea fiind stopate de OpenAI, scrie The Guardian.

Pe măsură ce AI generativă a devenit o industrie în plină expansiune, a existat o îngrijorare larg răspândită în rândul cercetătorilor și a legiuitorilor cu privire la potențialul său de a crește cantitatea și calitatea dezinformării online. Companiile de inteligență artificială, cum ar fi OpenAI, care are ChatGPT, au încercat cu rezultate mixte să oprească astfel de încercări.

Raportul de 39 de pagini al OpenAI este unul dintre cele mai detaliate relatări ale unei companii de inteligență artificială despre utilizarea software-ului său pentru propagandă. OpenAI a susținut că cercetătorii săi au găsit și au interzis conturi asociate cu cinci operațiuni de dezinformare în ultimele trei luni, care proveneau de la un amestec de actori statali și privați.

În Rusia, două operațiuni au creat și răspândit conținut care critica SUA, Ucraina și mai multe națiuni baltice. Una dintre operațiuni a folosit un model OpenAI pentru a crea un bot care a postat pe Telegram. Operațiunea de influență a Chinei a generat text în engleză, chineză, japoneză și coreeană, pe care agenții l-au postat apoi pe Twitter și Medium.

Iranienii au generat articole complete care au atacat SUA și Israelul, pe care le-au tradus în engleză și franceză. O firmă israeliană numită Stoic a condus o rețea de conturi false pe rețele sociale care a creat o gamă largă de conținut, inclusiv postări care acuzau protestele studenților americani împotriva războiului Israelului din Gaza ca fiind antisemite.

Câteva dintre entitățile care răspândeau dezinformare, pe care OpenAI le-a interzis de pe platforma sa, erau deja cunoscute cercetătorilor și autorităților. Trezoreria SUA a sancționat în martie doi ruși care ar fi fost în spatele uneia dintre campaniile pe care OpenAI le-a detectat, în timp ce Meta a interzis și Stoic din platforma sa anul acesta, pentru încălcarea politicilor sale.

Raportul subliniază, de asemenea, modul în care AI generativă este încorporată în campaniile de dezinformare ca mijloc de îmbunătățire a anumitor aspecte ale generării de conținut, cum ar fi realizarea de postări mai convingătoare în limbi străine, dar că nu este singurul instrument de propagandă.

„Toate aceste operațiuni au folosit AI într-o oarecare măsură, dar niciuna nu a folosit-o exclusiv”, se arată în raport. „În schimb, materialul generat de AI a fost doar unul dintre multele tipuri de conținut pe care le-au postat, alături de formate mai tradiționale, cum ar fi texte scrise manual sau meme copiate de pe internet.”

Deși niciuna dintre campanii nu a avut un impact notabil, utilizarea tehnologiei arată cum actorii rău intenționați descoperă că AI generativă le permite să intensifice propaganda. Scrierea, traducerea și postarea conținutului pot fi acum realizate mai eficient prin utilizarea instrumentelor AI, coborând ștacheta pentru crearea de campanii de dezinformare.

În ultimul an, actori rău intenționați au folosit inteligența artificială generativă în țări din întreaga lume pentru a încerca să influențeze politica și opinia publică. Audio deepfake, imagini generate de inteligență artificială și campanii bazate pe text au fost folosite pentru a perturba campaniile electorale, ceea ce duce la o presiune crescută asupra companiilor precum OpenAI pentru a restricționa utilizarea instrumentelor lor.

OpenAI a declarat că intenționează să elibereze periodic rapoarte similare privind operațiunile de influență sub acoperire, precum și să elimine conturile care încalcă politicile sale.

Editor : M.I.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Este Nicușor Dan bun de președinte al României? Părerea AI despre întrebarea momentului la români
Digi FM
Nicușor Dan, despre campania lui Călin Georgescu: “Specialiştii cu care am vorbit spun că trece de 10...
Pro FM
Cum arată mama lui Fuego și ce mesaj emoționant i-a transmis public de ziua ei. Fanii, impresionați complet...
Film Now
Meg Ryan, o mamă extrem de mândră. Cu ce se ocupă la 20 de ani Daisy, fiica pe care a adoptat-o din China, ca...
Adevarul
Jurnalista din România, dezamăgită de Țara lui Moș Crăciun. „Laponia e prima țeapă pe care o iau de pe...
Newsweek
De ce pensia intră pe card, în ianuarie, mult mai devreme? Ce bani iau în plus pensionarii?
Digi FM
Iluzie optică: Poți să găsești ursul polar din imagine? Doar cei mai inteligenți reușesc în mai puțin de 5...
Digi World
O iluzie optică a făcut vâlvă pe rețelele sociale. Poți să ”vezi” cele trei creaturi din imagine în 15...
Digi Animal World
Cum arată un câine care a dispărut timp de 4 luni și a trăit în sălbăticie. Stăpânii abia l-au recunoscut...
Film Now
Cum o privește el, nu o privește nimeni! Keanu Reeves, fascinat de Alexandra Grant pe covorul roșu la...
UTV
Reactia lui Sydney Sweeney dupa criticile dure legate de aspectul ei fizic