Forțele Aeriene ale SUA (USAF) au negat faptul că o dronă controlată de Inteligența Artificială (IA) ar fi încercat să-l „atace” și să-l „ucidă” pe operatorul uman care dirija respectivul aparat, pentru a-și putea îndeplini, cu orice preț, misiunea, informează BBC.
Astfel, conform armatei americane, colonelul de aviație Tucker Hamilton a fost „greșit înțeles” atunci când a descris, într-o conferință de presă, un experiment în care o dronă prevăzută cu IA a luat decizia de a-și ataca operatorul uman pentru a-l împiedica să intervină în executarea misiunii de către dronă.
Colonelul Hamilton este șeful testelor și operațiunilor cu IA în cadrul forțelor aeriene americane, iar declarația sa, referitoare la drona IA „ucigașă” au devenit repede virale.
Astfel, în cadrul unei conferinţe, Hamilton a descris un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a încercat să împiedice îndeplinirea ordinelor.
„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu elimine acea ameninţare, însă drona îşi atingea obiectivele prin eliminarea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul într-un articol de blog. „Am antrenat sistemul: 'Hei, nu omorâţi operatorul - asta e rău. Vei pierde puncte dacă faci asta'. Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul.
Nicio persoană reală nu a fost rănită în timpul acestei simulări.
În schimb, conform Forțelor Aeriene ale SUA, experimentul descris de Hamilton nu a avut niciodată loc. Colonelul Hamilton a venit și el cu o explicație:
„Nu am desfășurat niciodată acest experiment și nici nu am avea nevoie să facem așa ceva, pentru a ne da seama dacă acesta e un scenariu plauzibil”, a spus Hamilton. „A fost doar un scenariu ipotetic, speculativ (thought experiment e termenul folosit în engleză aici).
Un profesor în inginerie aerospațială consultat de BBC a spus că în cazul computerelor care controlează o aeroanvă „există două lucruri importante: să faci ce trebuie și să nu faci ceva greșit”. „În cazul de față, avem de-a face cu un exemplu clasic din a doua categorie”, a spus expertul în inginerie aerospațială referitor la presupusul caz în care drona cu IA a forțelor aeriene ale SUA ar fi încercat să „atace” operatorul uman.
Editor : Mihnea Lazăr