Eskalacija sukoba između SAD-a, Izraela i Irana stavila je u središte pozornosti upotrebu umjetne inteligencije u ratovanju. Napadi koji su se prije planirali tjednima danas se isplaniraju u samo nekoliko sati ili čak minuta.
Odluke o odabiru najbolje mete se danas donose brže nego ikada ranije, a napadi na infrastrulturu, vojne ciljeve i političko i vojno vodstvo se odvijaju simultano. Gotovo 900 napada na Iran je isplanirano u samo prvih 12 sati sukoba, jer je upravo upotreba AI-a drastično skratila vrijeme između otkrivanja mete i napada.
Trenutno u svojim vojnim operacijama AI koriste SAD i Izrael, dok Iran koristi uglavnom dronove i cyber taktike. Ne postoje jasni dokazi da Iran koristi napredne AI sustave u istoj mjeri kao druge velike sile, a zbog sankcija AI program kojeg koristi Iran je slabiji u usporedbi sa SAD-om.
Etička pitanja oko upotrebe umjetne inteligencije u ratovanju
Rastu i etičke zabrinutosti oko korištenja umjetne inteligencije u ratovanju. O tome raspravljaju znanstvenici, vojske, vlade i organizacije. Trenutno više od 120 država pregovara o pravilima za autonomno oružje jer još ne postoje jasni međunarodni zakoni za takve sustave.
Najvažnija pitanja koja se postavljaju su:
- Tko je odgovoran ako AI ubije pogrešnu osobu?
Ako autonomno oružje pogriješi cilj, ubije civile ili napravi ratni zločin postavlja se pitanje odgovornosti.
Da li je u tom slučaju kriv vojnik koji je pokrenuo sustav, programer koji je napisao algoritam ili država koja ga koristi?
AI nema moralnu odgovornost, pa je trenutno teško odrediti tko je kriv. - Treba li stroj donositi odluke o životu i smrti?
Mnogi etičari smatraju da strojevi ne bi smjeli odlučivati tko će živjeti, a tko umrijeti. AI nema empatiju, nema moralnu prosudbu i ne razumije ljudske vrijednosti. Zato mnogi traže pravilo “human in the loop” odnosno da čovjek uvijek mora odobriti napad. - Što ako AI pogriješi u prepoznavanju ciljeva?
AI može pogriješiti u prepoznavanju cilja i označiti civila kao vojnika, vozilo može biti pogrešno identificirano, a algoritam može krivo interpretirati podatke. Sve navedeno može dovesti do većeg broja civilnih žrtava i kršenja međunarodnog humanitarnog prava. - Što ako ponašanje AI sustava postane nepredvidivo?
AI sustavi ponekad djeluju nepredvidivo, posebno u kompleksnim situacijama.
Problemi uključuju pogreške u algoritmu, neočekivane reakcije sustava te ponašanje koje programeri nisu predvidjeli. To može dovesti do nekontrolirane eskalacije sukoba. - Hakerski napadi i zloupotreba
AI oružje može biti hakirano sabotirano ili preuzeto od neprijatelja.
Ako se to dogodi, sustav bi mogao napasti vlastitu vojsku ili civile.
Sukob između Anthropica i Pentagona
Anthropic je AI tvrtka koja razvija chatbot Claude AI assistant, ujedno i model koji se koristio u zatvorenim vojnim sustavima. Problem je nastao kada je Pentagon tražio da može koristiti taj AI za bilo koje “zakonite vojne svrhe” bez posebnih ograničenja uključujući potencijalno vojne operacije, nadzor i razvoj oružja što je Anthropic odbio.
Zašto je Anthropic rekao “ne”
Dodatno, vojska je označila kompaniju kao rizik za opskrbni lanac što je vrlo ozbiljna oznaka koja se obično koristi za tvrtke povezane s neprijateljskim državama.
Političke i društvene posljedice za Anthropic
Nakon eskalacije sukoba američka vlada je počela prelaziti na AI modele drugih tvrtki, poput OpenAI. Dio javnosti je podržao Anthropic jer je odbio sudjelovati u razvoju AI oružja a zanimljivo je da je nakon tog sukoba aplikacija Claude naglo postala popularna i čak nakratko bila najpreuzimanija aplikacija u App Storeu.
Ovaj slučaj je važan jer ukazuje na veliku raspravu koja se danas vodi diljem svijeta o tome tko treba kontrolirati umjetnu inteligenciju. Ovo je jedan od prvih velikih konflikata gdje je AI postao pitanje nacionalne sigurnosti.









