Rusia, China, Israel și Iran s-au folosit de modelele de inteligență artificială OpenAI pentru propagandă

Data publicării:
Screen with ChatGPT chat with AI or artificial intelligence. Man search for information using artificial intelligence chatbot developed by OpenAI
Raportul de 39 de pagini al OpenAI este unul dintre cele mai detaliate relatări ale unei companii de inteligență artificială despre utilizarea software-ului său pentru propagandă. Imagine cu caracter ilustrativ. Sursa foto: Profimedia Images

OpenAI a lansat primul său raport despre modul în care instrumentele sale de inteligență artificială sunt folosite pentru operațiuni sub acoperire, joi, dezvăluind că Rusia, China, Israel și Iran au desfășurat operațiuni de dezinformare în scop propagandistic, oprite de companie.

Grupări din aceste țări au folosit modelele AI generative ale companiei pentru a crea și a posta conținut de propagandă pe rețelele sociale și pentru a-și traduce conținutul în diferite limbi. Potrivit raportului, niciuna dintre campanii nu a reușit să ajungă la multe conturi, acestea fiind stopate de OpenAI, scrie The Guardian.

Pe măsură ce AI generativă a devenit o industrie în plină expansiune, a existat o îngrijorare larg răspândită în rândul cercetătorilor și a legiuitorilor cu privire la potențialul său de a crește cantitatea și calitatea dezinformării online. Companiile de inteligență artificială, cum ar fi OpenAI, care are ChatGPT, au încercat cu rezultate mixte să oprească astfel de încercări.

Raportul de 39 de pagini al OpenAI este unul dintre cele mai detaliate relatări ale unei companii de inteligență artificială despre utilizarea software-ului său pentru propagandă. OpenAI a susținut că cercetătorii săi au găsit și au interzis conturi asociate cu cinci operațiuni de dezinformare în ultimele trei luni, care proveneau de la un amestec de actori statali și privați.

În Rusia, două operațiuni au creat și răspândit conținut care critica SUA, Ucraina și mai multe națiuni baltice. Una dintre operațiuni a folosit un model OpenAI pentru a crea un bot care a postat pe Telegram. Operațiunea de influență a Chinei a generat text în engleză, chineză, japoneză și coreeană, pe care agenții l-au postat apoi pe Twitter și Medium.

Iranienii au generat articole complete care au atacat SUA și Israelul, pe care le-au tradus în engleză și franceză. O firmă israeliană numită Stoic a condus o rețea de conturi false pe rețele sociale care a creat o gamă largă de conținut, inclusiv postări care acuzau protestele studenților americani împotriva războiului Israelului din Gaza ca fiind antisemite.

Câteva dintre entitățile care răspândeau dezinformare, pe care OpenAI le-a interzis de pe platforma sa, erau deja cunoscute cercetătorilor și autorităților. Trezoreria SUA a sancționat în martie doi ruși care ar fi fost în spatele uneia dintre campaniile pe care OpenAI le-a detectat, în timp ce Meta a interzis și Stoic din platforma sa anul acesta, pentru încălcarea politicilor sale.

Raportul subliniază, de asemenea, modul în care AI generativă este încorporată în campaniile de dezinformare ca mijloc de îmbunătățire a anumitor aspecte ale generării de conținut, cum ar fi realizarea de postări mai convingătoare în limbi străine, dar că nu este singurul instrument de propagandă.

„Toate aceste operațiuni au folosit AI într-o oarecare măsură, dar niciuna nu a folosit-o exclusiv”, se arată în raport. „În schimb, materialul generat de AI a fost doar unul dintre multele tipuri de conținut pe care le-au postat, alături de formate mai tradiționale, cum ar fi texte scrise manual sau meme copiate de pe internet.”

Deși niciuna dintre campanii nu a avut un impact notabil, utilizarea tehnologiei arată cum actorii rău intenționați descoperă că AI generativă le permite să intensifice propaganda. Scrierea, traducerea și postarea conținutului pot fi acum realizate mai eficient prin utilizarea instrumentelor AI, coborând ștacheta pentru crearea de campanii de dezinformare.

În ultimul an, actori rău intenționați au folosit inteligența artificială generativă în țări din întreaga lume pentru a încerca să influențeze politica și opinia publică. Audio deepfake, imagini generate de inteligență artificială și campanii bazate pe text au fost folosite pentru a perturba campaniile electorale, ceea ce duce la o presiune crescută asupra companiilor precum OpenAI pentru a restricționa utilizarea instrumentelor lor.

OpenAI a declarat că intenționează să elibereze periodic rapoarte similare privind operațiunile de influență sub acoperire, precum și să elimine conturile care încalcă politicile sale.

Editor : M.I.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Modelul Dacia nemai văzut până acum: Mașina pe care orice român și-ar dori-o
Digi FM
Cu ce se ocupă, de fapt, Dragoș Moștenescu, Costel din „La bloc”, în Anglia. Emil Mitrache l-a dat de gol...
Pro FM
Iubita lui CRBL, reacție dură după ce a fost criticată pentru relația pe care o are cu artistul: „Își dau cu...
Film Now
Cum a reacționat fostul soț al lui Megan Fox, după ce actrița a anunțat că e însărcinată: “A aflat înainte de...
Adevarul
Eugen Ionesco și absurdul din Diaspora înainte de ’89: condamnat în România, sărac în Franța
Newsweek
Pensionarii cu această pensie NU plătesc facturi la căldură timp de 6 luni. Care sunt condițiile?
Digi FM
Laura Cosoi, detalii neștiute despre viața de familie și cele 4 fetițe: "Aida a apărut într-o perioadă cruntă...
expozitie timisoara istoria postei
Istoria poștei, de la scrisori trimise cu diligența la e-mail. Cum arată „ștampila pentru un secol”. „Scoți...
Digi Animal World
Reacția unei femei când soțul ei a venit acasă cu un câine, în ciuda entuziasmului copiilor: „A spus că e...
Film Now
Trailerul pentru cel mai așteptat film din 2025, 14 milioane de vizualizări în 19 ore. Buget fenomenal...
UTV
Anca Dinicu a devenit mamica! Actrita a dezvaluit numele bebelusului