Partidele de extremă dreaptă germane folosesc tot mai mult AI pentru a influența alegerile. Ce este fenomenul „valea stranie”

Data actualizării: Data publicării:
Screenshot 2024-10-13 140146
Foto: @complotisto/ X

Partidele politice folosesc inteligența artificială pentru a crea realități alternative cu un conținut emoțional menite să încânte privitorul sau să-l sperie cu scenarii înfricoșătoare. DW Fact Check scrie cum influențează acest lucru oamenii.

O înregistrare video arată un bărbat blond, cu ochi albaștri, în cămașă albă, care își verifică buletinul de vot. O altă scenă din același videoclip arată un grup de femei cu voal care merg pe stradă. Acest videoclip a fost publicat pe contul X al partidului de extremă dreapta AfD în landul Brandenburg din estul Germaniei, înaintea alegerilor de stat. Un videoclip similar a fost vizionat de aproape 900.000 de ori.

Aceste videoclipuri încearcă să facă apel la emoțiile oamenilor, prezentând un viitor înfricoșător și oferind soluții simple. Niciun conținut nu este real - videoclipurile au fost create cu ajutorul inteligenței artificiale (AI).

Acest conținut poate fi produs rapid și este ieftin. În comparație cu alte videoclipuri cu AI mai elaborate, este destul de ușor de observat că acestea sunt false. Dar dacă așa stau lucrurile, de ce sunt ele create? DW Fact Check a analizat acest fenomen.

În comparație cu deepfakes, care imită vocile, gesturile și mișcările atât de bine încât pot fi confundate cu cele reale, aceste softfakes nu încearcă să ascundă faptul că sunt generate de calculator.

„Softfakes” în campaniile electorale

Astfel de softfakes sunt din ce în ce mai des utilizate în campaniile electorale politice. Maximilian Krah, pe atunci candidatul principal al AfD la alegerile europene, a postat o cantitate masivă de imagini cu inteligență artificială pe contul său TikTok.

Chipurile nenaturale sunt un indiciu - niciunul dintre oamenii prezentați nu este real.

În Franța, partidele politice au creat, de asemenea, imagini cu inteligență artificială înaintea alegerilor europene și prezidențiale, menite să stârnească emoții.

Un studiu care a analizat conturile de social media ale tuturor partidelor franceze în timpul campaniilor electorale a constatat că partidele de extremă-dreapta au fost deosebit de predispuse la utilizarea acestor softfakes. Nici măcar o singură imagine nu a fost etichetată ca fiind generată de AI, deși toate partidele au fost de acord cu acest lucru într-un cod de conduită înainte de alegerile pentru Parlamentul European.

Acestea trebuiau „să se abțină de la producerea, utilizarea sau diseminarea de conținut înșelător”. Conținutul generat de inteligența artificială este menționat în mod explicit în codul de conduită. Cu toate acestea, partide precum Patrioții, Reuniunea Națională și Recucerirea au utilizat pe scară largă astfel de conținut.

Aceste tipuri de imagini au apărut și înainte de alegerile prezidențiale din SUA din 2024. Fostul președinte american Donald Trump a postat o fotografie cu o femeie care era menită să o înfățișeze pe vicepreședinta SUA Kamala Harris adresându-se unui grup de oameni în uniformă în stil comunist - o mișcare pentru a susține că Harris este de fapt comunistă.

Problema unui astfel de conținut merge dincolo de dezinformare și distribuirea de știri false. Acestea creează realități alternative. Versiunile artificiale ale realității sunt prezentate ca fiind mai reale decât realitatea însăși.

Ce ne influențează percepția?

În anii 1970, oamenii de știință au început să analizeze reacțiile oamenilor la roboții care arătau și acționau aproape uman. Inginerul japonez în robotică Masahiro Mori a inventat termenul „uncanny valley” (valea stranie).

Cu cât roboții semănau mai mult cu oamenii, cu atât se simțeau mai înfiorători.

„De fapt, ne simțim mai inconfortabil pentru că observăm o deconectare între ceea ce credem noi că este și ceea ce este în fața noastră”, a declarat pentru DW Nicholas David Bowman, redactor-șef al Journal of Media Psychology și profesor asociat la Newhouse School of Public Communications de la Universitatea Syracuse.

„Ne face să ne simțim inconfortabil, pentru că nu ne putem împăca cu ideea. Simțim această tulburare pentru că știm că este greșit.”

Ce se va întâmpla însă atunci când imaginile generate de inteligența artificială vor trece prin „valea stranie” și nu ni se vor mai părea înfiorătoare?

„Odată ce vom trece de efectul uncanny valley, nici nu ne vom da seama. Probabil că nu vom sesiza diferența”, a spus el.

Dar nu am ajuns încă acolo. „Oamenii au aceste reacții instinctive atunci când văd un videoclip. Acesta este cel mai bun detector al nostru pentru a ști dacă ceva este sau nu generat de inteligența artificială sau real”, a spus el.

Situația devine complicată dacă oamenii încearcă să ignore acest sentiment instinctiv, pentru că vor să creadă că falsul este real, a spus el. „Oamenii pot dezactiva asta - nu încerc să caut pentru că sunt deja de acord cu convingerile și se aliniază cu ceea ce vreau să văd”, a adăugat Bowman. „Dacă ești partizan, de extremă stânga sau de extremă dreapta, și vezi conținut care nu este real, pur și simplu nu-ți pasă pentru că ești de acord cu conținutul.” 

Influența inteligenței artificiale reprezintă un risc pentru mediul informațional

Utilizarea deepfakes și softfakes în campaniile electorale este tot mai răspândită. Acesta este, de asemenea, un lucru pe care Philip Howard l-a observat. El este co-fondator și președinte al International Panel on the Information Environment (IPIE), o organizație globală independentă dedicată furnizării de cunoștințe științifice privind amenințările la adresa peisajului informațional.

Pentru un studiu recent, aceștia au contactat peste 400 de cercetători din mai mult de 60 de țări.

Mai mult de două treimi consideră că videoclipurile, vocile, imaginile și textele generate de inteligența artificială au avut un impact negativ asupra mediului informațional global. Mai mult de jumătate cred că aceste tehnologii vor avea un impact negativ în următorii cinci ani.

„Cred că ar trebui să fi depășit punctul de autoreglementare a industriei”, a declarat Howard pentru DW.

„Acum, companiile de inteligență artificială se auditează singure. Își dau note pentru temele făcute”, a adăugat el.

Dar acest lucru, spune el, nu este suficient, pentru că nu există destule verificări independente.

„Dacă reușim să determinăm autoritățile de reglementare să facă presiuni pentru audituri independente, astfel încât investigatorii independenți, jurnaliștii, cadrele universitare să se poată uita sub capotă, atunci cred că putem schimba lucrurile.”

Editor : A.C.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri