RAPORT. Autonomia totală a armelor va duce la apariția „roboților ucigași” și la un război nuclear internațional

Data publicării:
killer robo

Un nou raport cere interzicerea urgentă și totală a programelor din industria apărării ce au ca scop dezvoltarea de arme autonome.

Utilizarea armelor autonome într-un teatru de război ar reprezenta o încălcare flagrantă a dreptului internațional, se arată într-un raport elaborat de organizația non-guvernamentală Campaign to Ban Killer Robots.

Activiștii și experții care au lucrat la acest raport fac referire îndeosebi la Clauza Martens, din dreptul internațional umanitar, relatează The Guardian.

Clauza Martens (care poartă numele juristului rus Feodor Martens), unul dintre pilonii Convențiilor de la Haga și de la Geneva, stipulează faptul că dreptul cutumiar şi principiile generale se aplică tuturor entităţilor implicate în război, atât statelor care nu au consimţit la dreptul convenţional al războiului, cât şi celor care au consimţit iniţial şi s-au dezangajat ulterior şi, de asemenea, entităţilor care nu pot fi părţi la tratate. 

Avioanele, navele și tancurile controlate prin intermediul inteligenței artificiale, fără a fi supuse intervenței factorului uman, ar putea duce la autonomia deplină a armelor, se menționează în raport.

Până acum, 26 de state susțin în mod categoric interzicerea autonomizării depline a tehnicii militare, printre care Austria, China și Belgia, cele mai recente adeziuni.

Oponenții spectrului autonomizării cer ca tehnologiile emergente axate pe exploatarea deplină a inteligenței artificiale în sectoarele de apărare să țină cont de „principiile umanității” și de „dictatele conștiinței publice”.

„Permiterea dezvoltării de roboți ucigași ar submina toate standardele morale și legile stabilite. Țările ar trebui să colaboreze pentru a interzice aceste sisteme de arme înainte ca ele să prolifereze în întreaga lume”, spune Bonnie Docherty, cercetător în domeniul armelor și coordonatorul raportului.

Pe 27 august, peste 70 de guverne din întreaga lume se vor reuni la Oficiul ONU de la Geneva pentru a discuta despre provocările sistemelor autonome.

În luna mai a acestui an, think tank-ul american RAND Corporation a organizat o serie de workshop-uri la care au luat parte experți în securitate nucleară și în domeniul inteligenței artificiale.

Atelierele au vizat modul în care programele de inteligență artificială ar putea influența până în 2040 securitatea nucleară la nivel mondial.

Frica principală a cercetătorilor? Aceea că inserarea unor programe de inteligență în infrastructura balistică ar putea, în cazul unei defecțiuni sau al unei „acțiuni cu premeditare”, să provoace un război nuclear la scară internațională.

Chiar dacă în perioada Războiului Rece astfel de scenarii erau considerate „decoruri” de imaginație science fiction, „pericolul ar putea fi, în curând, mai mult știință, decât ficțiune”, se arata într-un raport RAND Corporation.

„Progresele uluitoare în domeniul inteligenței artificiale au creat mașinării care pot învăța și gândi, provocând o nouă cursă a armelor printre cele mai importante puteri nucleare ale lumii. Nu este vorba despre roboții ucigași dintr-un blockbuster de Hollywood, ci despre cum computerele ar putea încălca regulile de bază ale descurajării nucleare și despre cum ar putea manipula oamenii să ia decizii devastatoare”, scrie în preambulul documentului.

Experții avertizează că o anumită logică „paranoică” caracteristică anilor Războiului Rece nu a dispărut din relațiile internaționale pe segment militar. În sensul că, pe măsură ce tehnologia nucleară avansează, țările care dețin arsenale de focoase își vor suspecta constant inamicii că sunt cu un pas înaintea lor. Acest lucru ar putea declanșa un cerc vicios în care toate puterile nucleare se înarmează „până la absurd”, căutând să fie mereu pregătite de un conflict de o asemenea factură.

„Sistemele autonome nu au nevoie să ucidă oameni pentru a submina stabilitatea sau pentru a declanșa un război catastrofal”, atrage atenția Edward Geist, cercetător al RAND Corporation.

„A greși este uman, la urma urmei. Dar o mașinărie nu face greșeli, nu simte presiunea unei conștiințe și nu are prejudecăți”, se mai arată în raportul RAND.

 

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Liviu Dragnea, “trădarea” supremă față de PSD: “Presă plătită îl apără pe Ciolacu în cazul Nordis!”
Digi FM
Motivul pentru care Fuego nu s-a căsătorit până la 48 de ani: “Când ajungem în camera noastră, suntem niște...
Pro FM
Cheryl Cole, solista care l-a făcut tată pe Liam Payne, îndurerată la înmormântarea cântărețului. Mesajul din...
Film Now
Selena Gomez dezvăluie cel mai bun sfat pe care l-a primit de la o femeie: „Chiar funcționează!”
Adevarul
Elena Lasconi, fotografii cu fiica ei, înainte de alegeri. „Avem multe de învățat de la copiii noștri”
Newsweek
HAOS la Poșta Română: Peste 2.000.000 de pensii, în pericol să nu fie livrate. Guvernul intervine
Digi FM
Denis Drăguș, împăcare neașteptată cu familia sa, cu care nu mai vorbise de cinci ani. Tatăl atacantului: „Am...
Ylva Johansson face declaratii
Comisarul european pentru Afaceri Interne, despre admiterea Românei în Schengen terestru: Sper să se întâmple...
Digi Animal World
Un bărbat s-a deghizat în crocodil și a încercat să-i atragă atenția unui aligator adevărat. Imaginile sunt...
Film Now
Joaquin Phoenix, gesturi atente și priviri pline de iubire pentru soția lui, Rooney Mara. Discreți și...
UTV
One Direction, reuniti pentru a-l conduce pe ultimul drum pe Liam Payne. Imagini emotionante de la...