Umjetna inteligencija u ratovanju: etičke dileme i sigurnosni izazovi

Eskalacija sukoba između SAD-a, Izraela i Irana stavila je u središte pozornosti upotrebu umjetne inteligencije u ratovanju. Napadi koji su se prije planirali tjednima danas se isplaniraju u samo nekoliko sati ili čak minuta.

Odluke o odabiru najbolje mete se danas donose brže nego ikada ranije, a napadi na infrastrulturu, vojne ciljeve i političko i vojno vodstvo se odvijaju simultano.  Gotovo 900 napada na Iran je isplanirano u samo prvih 12 sati sukoba, jer je upravo upotreba AI-a drastično skratila vrijeme između otkrivanja mete i napada.

Trenutno u svojim vojnim operacijama AI koriste SAD i Izrael, dok Iran koristi uglavnom dronove i cyber taktike. Ne postoje jasni dokazi da Iran koristi napredne AI sustave u istoj mjeri kao druge velike sile, a zbog sankcija AI program kojeg koristi Iran je slabiji u usporedbi sa SAD-om.

Etička pitanja oko upotrebe umjetne inteligencije u ratovanju

Rastu i etičke zabrinutosti oko korištenja umjetne inteligencije u ratovanju. O tome raspravljaju znanstvenici, vojske, vlade i organizacije. Trenutno više od 120 država pregovara o pravilima za autonomno oružje jer još ne postoje jasni međunarodni zakoni za takve sustave.

Najvažnija pitanja koja se postavljaju su:

  1. Tko je odgovoran ako AI ubije pogrešnu osobu?
    Ako autonomno oružje pogriješi cilj, ubije civile ili napravi ratni zločin postavlja se pitanje odgovornosti.
    Da li je u tom slučaju kriv vojnik koji je pokrenuo sustav, programer koji je napisao algoritam ili država koja ga koristi?
    AI nema moralnu odgovornost, pa je trenutno teško odrediti tko je kriv.
  2. Treba li stroj donositi odluke o životu i smrti?
    Mnogi etičari smatraju da strojevi ne bi smjeli odlučivati tko će živjeti, a tko umrijeti. AI nema empatiju, nema moralnu prosudbu i ne razumije ljudske vrijednosti. Zato mnogi traže pravilo “human in the loop” odnosno da čovjek uvijek mora odobriti napad.
  3. Što ako AI pogriješi u prepoznavanju ciljeva?
    AI može pogriješiti u prepoznavanju cilja i označiti civila kao vojnika, vozilo može biti pogrešno identificirano, a algoritam može krivo interpretirati podatke. Sve navedeno može dovesti do većeg broja civilnih žrtava i kršenja međunarodnog humanitarnog prava.
  4. Što ako ponašanje AI sustava postane nepredvidivo?
    AI sustavi ponekad djeluju nepredvidivo, posebno u kompleksnim situacijama.
    Problemi uključuju pogreške u algoritmu, neočekivane reakcije sustava te ponašanje koje programeri nisu predvidjeli. To može dovesti do nekontrolirane eskalacije sukoba.
  5. Hakerski napadi i zloupotreba
    AI oružje može biti hakirano sabotirano ili preuzeto od neprijatelja.
    Ako se to dogodi, sustav bi mogao napasti vlastitu vojsku ili civile.

Sukob između Anthropica i Pentagona

Anthropic je AI tvrtka koja razvija chatbot Claude AI assistant, ujedno i model koji se koristio u zatvorenim vojnim sustavima. Problem je nastao kada je Pentagon tražio da može koristiti taj AI za bilo koje “zakonite vojne svrhe” bez posebnih ograničenja uključujući potencijalno vojne operacije, nadzor i razvoj oružja što je Anthropic odbio.

Zašto je Anthropic rekao “ne”

Tvrtka Anthropic ima stroga pravila o etici umjetne inteligencije. Njihovi modeli ne smiju biti korišteni za razvoj autonomnog oružja koje samo bira mete masovni nadzor građana sustave koji bi automatski odlučivali o napadu. Direktor Anthropica Dario Amodei izjavio je da kompanija “ne može u dobroj savjesti ukloniti te sigurnosne granice.”Pentagon je smatrao da privatna tvrtka ne bi smjela ograničavati vojsku u načinu korištenja tehnologije zbog čega im je vojska zaprijetila raskidom ugovora vrijednog oko 200 milijuna dolara te razmatra stavljanje Anthropica na “crnu listu dobavljača”.
Dodatno, vojska je označila kompaniju kao rizik za opskrbni lanac što je vrlo ozbiljna oznaka koja se obično koristi za tvrtke povezane s neprijateljskim državama. American soldier

Političke i društvene posljedice za Anthropic

Nakon eskalacije sukoba američka vlada je počela prelaziti na AI modele drugih tvrtki, poput OpenAI. Dio javnosti je podržao  Anthropic jer je odbio sudjelovati u razvoju AI oružja a zanimljivo je da je nakon tog sukoba aplikacija Claude naglo postala popularna i čak nakratko bila najpreuzimanija aplikacija u App Storeu.

Ovaj slučaj je važan jer ukazuje na veliku raspravu koja se danas vodi diljem svijeta o tome tko treba kontrolirati umjetnu inteligenciju.  Ovo je jedan od prvih velikih konflikata gdje je AI postao pitanje nacionalne sigurnosti.

Oglasi

Lidija N. Katić

Magistra ekonomije koja sa posebnim zanimanjem prati politička zbivanja, razvoj umjetne inteligencije i sve teme vezane uz zdravlje i dugovječnost.

Pročitajte još i:

Američka veleposlanica najavljuje “zlatno doba” u odnosima SAD-a i Hrvatske

Američka veleposlanica u Hrvatskoj, Nicole McGraw, najavila je početak “zlatnog doba” u bilateralnim odnosima Sjedinjenih Američkih Država i Republike Hrvatske, s posebnim naglaskom na strateška ulaganja u energetiku i tehnološki

Svaki dan nova ideja: Trump traži produljenje primirja s Iranom, državom koju je napao prije dva mjeseca

Američki predsjednik Donald Trump objavio je u srijedu kako će na neodređeno vrijeme produžiti primirje s Iranom, samo dva tjedna nakon što je zaprijetio da će “cijela jedna civilizacija umrijeti

Zmajske Kolumne

Život u tri doba: Kako ruralna Hrvatska oblikuje mlade, zrelu dob i umirovljenike

Život u tri doba: Kako ruralna Hrvatska oblikuje mlade, zrelu dob i umirovljenike

Ruta 66 kulturni spomenik i ikona američke povijesti slavi 100. rođendan

Ruta 66 kulturni spomenik i ikona američke povijesti slavi 100. rođendan

Čišćenje DPF-a vožnjom pod visokim okretajima: Spas ili rizik?

  • By A.S.
  • 17 travnja, 2026
Čišćenje DPF-a vožnjom pod visokim okretajima: Spas ili rizik?

Snovi su puno više nego što mislimo

Snovi su puno više nego što mislimo

Zašto hrvatski gradovi ratuju protiv tratinčica i maslačaka?

Zašto hrvatski gradovi ratuju protiv tratinčica i maslačaka?

Uskrs dolazi: Otkrivamo trikove za savršeno kuhana jaja – bez pucanja, sivih rubova i ljuštenja noćne more

Uskrs dolazi: Otkrivamo trikove za savršeno kuhana jaja – bez pucanja, sivih rubova i ljuštenja noćne more