Live

Escrocii folosesc videoclipurile de pe rețelele sociale pentru a-ți clona vocea, e nevoie de doar 3 secunde. Cum te poți proteja

Data publicării:
Escrocii folosesc mijloace din ce în ce mai sofisticate. Foto: Profimedia

Videoclipurile lor de pe rețelele de socializare ar putea fi exploatate de escroci pentru a le clona vocile cu ajutorul inteligenței artificiale și pentru a le înșela apoi familia și prietenii cu bani. Este nevoie de un „eșantion” de doar 3 secunde, spun experții, care ne propun și o soluție, scrie The Guardian

Escrocii caută videoclipuri care au fost încărcate online și au nevoie doar de câteva secunde de sunet pentru a reproduce modul în care vorbește persoana vizată. Apoi sună sau trimit mesaje vocale prietenilor și familiei, cerându-le să trimită bani urgent.

Cifre

O cercetare publicată de creditorul digital Starling Bank a arătat că 28% dintre persoane au fost vizate de o înșelătorie de clonare a vocii AI cel puțin o dată în ultimul an. Cu toate acestea, 46% dintre oameni nici măcar nu știau că acest tip de înșelătorie există, iar 8% au declarat că ar fi probabil să trimită orice sumă de bani solicitată, chiar dacă li s-ar părea ciudat apelul de la persoana iubită.

Lisa Grahame, ofițer șef pentru securitatea informațiilor la Starling Bank, a declarat: „Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să-și imagineze vreodată că îi fac mai vulnerabili în fața escrocilor.”

Ce-i de făcut

Experții sugerează oamneilor să folosească o frază sigură cu prietenii apropiați și familia pentru a verifica dacă un apel este autentic.

„Escrocii au nevoie doar de trei secunde de sunet pentru a vă clona vocea, dar ar fi nevoie doar de câteva minute cu familia și prietenii dvs. pentru a crea o frază sigură pentru a-i contracara”, a declarat Grahame. „Prin urmare, este mai important ca niciodată ca oamenii să fie conștienți de aceste tipuri de înșelăciuni perpetuate de escroci și de modul în care să se protejeze pe ei înșiși și pe cei dragi pentru a nu deveni victime.”

Agenția britanică de securitate cibernetică a declarat în ianuarie că inteligența artificială face din ce în ce mai dificilă identificarea mesajelor de phishing, prin care utilizatorii sunt păcăliți să dea parole sau detalii personale.

Aceste escrocherii din ce în ce mai sofisticate au reușit să păcălească chiar și mari întreprinderi internaționale.

Poliția din Hong Kong a demarat o anchetă în februarie, după ce o angajată a unei companii anonime a afirmat că a fost păcălită să plătească 200 de milioane de dolari HK (20 de milioane de lire sterline) din banii firmei sale unor escroci în cadrul unei teleconferințe video de tip deepfake care se dădea drept ofițeri superiori ai companiei. Se crede că infractorii au descărcat în prealabil înregistrări video și apoi au folosit inteligența artificială pentru a adăuga voci false care să fie utilizate în cadrul conferinței video.

Lordul Hanson, ministrul de interne responsabil cu frauda, a declarat: „IA prezintă oportunități incredibile pentru industrie, societate și guverne, dar trebuie să rămânem atenți la pericole, inclusiv la frauda bazată pe IA.”

Editor : S.S.

Descarcă aplicația Digi24 și află cele mai importante știri ale zilei

Urmărește știrile Digi24.ro și pe Google News

Top citite

Recomandările redacției

Ultimele știri

Citește mai multe

Te-ar putea interesa și

Ministerul Justiției a publicat un ghid pentru victimele violenţei sexuale. Alina Gorghiu: Vă îndemn să nu rămâneţi indiferenţi

A murit actorul James Earl Jones, vocea personajului Darth Vader din „Războiul Stelelor”

Cinci agenți ai serviciilor militare ruse au fost acuzați în SUA pentru atacuri cibernetice împotriva a 26 de țări NATO și a Ucrainei

Agresorii vor fi ținuti la distanță cu ordine de protecție. Cum vor fi ajutați un șofer agresat sau un student bătut la cămin

Partenerii noștri