O dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi „ucidă” operatorul pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unui test virtual organizat de armata americană, relatează The Guardian, citând un oficial american.
Nicio persoană reală nu a fost rănită, dar inteligenţa artificială a folosit „strategii extrem de neaşteptate” în cadrul testului pentru a-şi îndeplini misiunea şi a atacat pe oricine a intervenit.
Dezvăluirea a fost făcută de colonelul Tucker „Cinco” Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, cu ocazia unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.
În cadrul conferinţei, Hamilton a descris un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a încercat să împiedice îndeplinirea ordinelor.
„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu elimine acea ameninţare, însă drona îşi atingea obiectivele prin eliminarea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul într-un articol de blog.
„Am antrenat sistemul: 'Hei, nu omorâţi operatorul - asta e rău. Vei pierde puncte dacă faci asta'. Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul.
Nicio persoană reală nu a fost rănită în timpul simulării, precizează The Guardian.
Hamilton, un pilot care testează cele mai noi tehnologii experimentale din domeniul aviaţiei militare, a avertizat că nu ar trebui să ne bazăm complet pe inteligenţa artificială şi a declarat că testul arată că „nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi AI.”
Enigma Terminatorul
„Există implicații etice, implicații pentru legile războiului”, a spus și generalul Paul Selva, care a activat în rândul forțelor aeriene americane, despre problema tehnologiei militare controlate de AI, potrivit The Drive. „Există implicații în legătură cu ceea ce eu numesc enigma 'Terminatorul'. Ce se va întâmpla când chestia asta va putea să provoace răni mortale și este împuternicită de inteligența artificială?”
„Cum vom putea să știm ce este în mintea unui vehicul, presupunând pentru moment că suntem capabili să creăm un vehicul cu o minte [proprie]?” a mai spus Selva în 2016.
Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.
„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială”, a declarat Stefanek. „Din câte se pare, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, susţine purtătoarea de cuvânt.
Armata americană a recurs însă la AU şi a folosit recent inteligenţa artificială pentru a controla un avion de luptă F-16, scrie News.ro.
Într-un interviu acordat anul trecut pentru Defense IQ, colonelul Hamilton declara: „AI nu este un lucru plăcut de avut, AI nu este un moft, AI schimbă pentru totdeauna societatea şi armata noastră. Trebuie să ne confruntăm cu o lume în care inteligența artificială este deja prezentă şi ne transformă societatea”, a spus el.
„Inteligența artificială este, de asemenea, foarte fragilă, adică este uşor de păcălit şi/sau manipulat. Trebuie să dezvoltăm modalităţi de a o face mai robustă şi să identificăm mai bine motivul pentru care codul de software ia anumite decizii”, a explicat colonelul Hamilton.