Live

Un fost angajat Google avertizează că "roboții ucigași" ar putea porni un război și comite atrocități

Data actualizării: Data publicării:
Foto: Gettyimages

O nouă generație de arme autonome sau "roboți ucigași" ar putea porni accidental un război sau cauza atrocități în masă, avertizează un fost inginer software de la Google, informează The Guardian.

Laura Nolan a demisionat de la Google anul trecut, după ce a fost trimisă să lucreze la un proiect care avea ca scop îmbunătățirea tehnologiei dronelor armatei SUA. Acum, ea cere ca toate armele cu inteligență artificială și fără operator uman să fie interzise.

Spre deosebire de dronele militare, care sunt controlate de personal specializat de la mii de kilometri distanță, roboții ar putea face lucruri grave "pentru care nu au fost programați".

"Probabilitatea unui dezastru este direct proporțională cu numărul acestor mașini aflate în același loc la un anumit moment. Pot apărea atrocități și crime, chiar și pe timp de război, în special dacă sunt trimise în același loc sute de mii de astfel de roboți", a spus Laura Nolan.

Google a recrutat-o pe Nolan pentru Proiectul Maven în 2017, după ce fusese angajată anterior la companie alți patru ani și devenise unul dintre cei mai buni ingineri software din Irland ai companiei.

"S-ar putea produce accidente la scară largă pentru că acești roboți vor începe să se comporte în moduri neprogramate anterior. De aceea aceste sisteme avansate de armament ar trebui să fie controlate de oameni, altfel ar trebui interzise pentru că sunt prea imprevizibile și perioculoase", a mai spus Nolan.

Nolan a povestit cum a devenit "foarte îngrijorată din punct de vedere etic" de rolul său în proiect, care al cărui scop era să ajute Departamentul american al Apărării să dezvolte mai rapid o tehnologie de recunoaștere video pentru drone.

Potrivit acesteia, în loc să folosească un număr mare de operatori care să urmărească filmările efectuate de drone cu potențiale ținte, lor li s-a cerut să dezvolte un sistem în care inteligența artificală ar putea diferenția oamenii și obiectele mult mai rapid.

Proiectul Maven a fost abandonat anul acesta, după ce peste 3.000 de angajați Google au semnat o petiție.

"În calitate de inginer de fiabilitate, rolul meu era să mă asigură că sistemele și infrastructurile noastre erau în funcțiune, iar asta era contribuția mea la Maven. Deși nu am fost direct implicată în creșterea vitezei cu care se făcea recunoașterea video, am realizat că făceam parte din lanțul crimei; că asta va duce ulterior la oameni uciși de armata SUA în țări precum Afganistan", a spus Nolan.

Deși a părăsit Proiectul Maven, Nolan este de părere că dezvoltarea armelor autonome prezintă un risc mult mai ridicat pentru omenire decât cel produs de drone telecomandate.

Ea a subliniat că factori externi, precum vremea sau incapacitatea roboților de a desluși comportamentul complex al oamenilor, ar putea interfera cu programarea acestora, cu posibile consecințe fatale.

"Ai putea avea un scenariu în care armele autonome care au fost trimise într-o misiune se confruntă cu situații neașteptate: condiții meteorologice neprevăzute care nu au fost incluse în sistem sau întâlnirea unui grup de oameni înarmați care vânează. Roboții nu au discernământul să facă diferența între situații", a mai declarat Nolan.

Editor web: Vlad Mironescu

Descarcă aplicația Digi24 și află cele mai importante știri ale zilei

Urmărește știrile Digi24.ro și pe Google News

Top citite

Recomandările redacției

Ultimele știri

Citește mai multe

Te-ar putea interesa și

ChatGPT devine motor de căutare asemănător Google. Și alţi giganţi ai tehnologiei au lansat servicii similare în 2023 şi 2024

Ce putem face dacă inteligența artificială devine conștientă. Planul cercetătorilor pentru a evita scenariul „Frankenstein”

Denunțătorul unor practici considerate ilegale ale companiei OpenAI a fost găsit mort într-un apartament din San Francisco

BBC depune plângere la Apple în legătură cu ştiri false generate de AI şi care îi sunt atribuite

Partenerii noștri