Un nou raport cere interzicerea urgentă și totală a programelor din industria apărării ce au ca scop dezvoltarea de arme autonome.
Utilizarea armelor autonome într-un teatru de război ar reprezenta o încălcare flagrantă a dreptului internațional, se arată într-un raport elaborat de organizația non-guvernamentală Campaign to Ban Killer Robots.
Activiștii și experții care au lucrat la acest raport fac referire îndeosebi la Clauza Martens, din dreptul internațional umanitar, relatează The Guardian.
Clauza Martens (care poartă numele juristului rus Feodor Martens), unul dintre pilonii Convențiilor de la Haga și de la Geneva, stipulează faptul că dreptul cutumiar şi principiile generale se aplică tuturor entităţilor implicate în război, atât statelor care nu au consimţit la dreptul convenţional al războiului, cât şi celor care au consimţit iniţial şi s-au dezangajat ulterior şi, de asemenea, entităţilor care nu pot fi părţi la tratate.
Avioanele, navele și tancurile controlate prin intermediul inteligenței artificiale, fără a fi supuse intervenței factorului uman, ar putea duce la autonomia deplină a armelor, se menționează în raport.
Până acum, 26 de state susțin în mod categoric interzicerea autonomizării depline a tehnicii militare, printre care Austria, China și Belgia, cele mai recente adeziuni.
Oponenții spectrului autonomizării cer ca tehnologiile emergente axate pe exploatarea deplină a inteligenței artificiale în sectoarele de apărare să țină cont de „principiile umanității” și de „dictatele conștiinței publice”.
„Permiterea dezvoltării de roboți ucigași ar submina toate standardele morale și legile stabilite. Țările ar trebui să colaboreze pentru a interzice aceste sisteme de arme înainte ca ele să prolifereze în întreaga lume”, spune Bonnie Docherty, cercetător în domeniul armelor și coordonatorul raportului.
Pe 27 august, peste 70 de guverne din întreaga lume se vor reuni la Oficiul ONU de la Geneva pentru a discuta despre provocările sistemelor autonome.
În luna mai a acestui an, think tank-ul american RAND Corporation a organizat o serie de workshop-uri la care au luat parte experți în securitate nucleară și în domeniul inteligenței artificiale.
Atelierele au vizat modul în care programele de inteligență artificială ar putea influența până în 2040 securitatea nucleară la nivel mondial.
Frica principală a cercetătorilor? Aceea că inserarea unor programe de inteligență în infrastructura balistică ar putea, în cazul unei defecțiuni sau al unei „acțiuni cu premeditare”, să provoace un război nuclear la scară internațională.
Chiar dacă în perioada Războiului Rece astfel de scenarii erau considerate „decoruri” de imaginație science fiction, „pericolul ar putea fi, în curând, mai mult știință, decât ficțiune”, se arata într-un raport RAND Corporation.
„Progresele uluitoare în domeniul inteligenței artificiale au creat mașinării care pot învăța și gândi, provocând o nouă cursă a armelor printre cele mai importante puteri nucleare ale lumii. Nu este vorba despre roboții ucigași dintr-un blockbuster de Hollywood, ci despre cum computerele ar putea încălca regulile de bază ale descurajării nucleare și despre cum ar putea manipula oamenii să ia decizii devastatoare”, scrie în preambulul documentului.
Experții avertizează că o anumită logică „paranoică” caracteristică anilor Războiului Rece nu a dispărut din relațiile internaționale pe segment militar. În sensul că, pe măsură ce tehnologia nucleară avansează, țările care dețin arsenale de focoase își vor suspecta constant inamicii că sunt cu un pas înaintea lor. Acest lucru ar putea declanșa un cerc vicios în care toate puterile nucleare se înarmează „până la absurd”, căutând să fie mereu pregătite de un conflict de o asemenea factură.
„Sistemele autonome nu au nevoie să ucidă oameni pentru a submina stabilitatea sau pentru a declanșa un război catastrofal”, atrage atenția Edward Geist, cercetător al RAND Corporation.
„A greși este uman, la urma urmei. Dar o mașinărie nu face greșeli, nu simte presiunea unei conștiințe și nu are prejudecăți”, se mai arată în raportul RAND.