Israels forsvarsstyrker (IDF) er begyndt at integrere AI i militære operationer ved at indsamle efterretninger om slagmarken, udvælge mål for luftangreb og planlægge logistiske operationer.
IDF-embedsmænd bekræftede, at de bruger et AI-anbefalingssystem, der er i stand til at analysere enorme mængder data for at vælge luftangrebsmål.
Angrebene orkestreres ved hjælp af en anden AI-model, kaldet 'Fire Factory', som bruger data om militære mål til at bestemme ammunitionsmængder, rangordne dronemål og foreslå angrebsplaner.
Ifølge en embedsmand fra IDF gennemgår alle mål og luftangrebsplaner en grundig gennemgang af menneskelige operatører. Men lige nu er teknologien ikke underlagt nogen internationale eller statslige regler.
Tilhængere hævder, at AI-systemet kan hjælpe militæret med at reducere antallet af ofre.
På den anden side sagde Tal Mimran, der er lektor i international ret ved Hebrew University of Jerusalem og tidligere juridisk rådgiver for hæren: "Hvis der er en fejl i beregningen af AI, og hvis AI ikke kan forklares, hvem skal vi så give skylden for fejlen? Man kan udslette en hel familie på grund af en fejl."
AI i moderne krigsførelse: en glidebane?
Detaljer om IDF's praktiske brug af AI i operationer forbliver stort set fortrolige.
Ikke desto mindre, Bloomberg hørte det at IDF havde opnået betydelig intelligens på slagmarken via AI, herunder i Gazastriben. Her udfører Israel regelmæssigt luftangreb som svar på raketangreb.
Under den 11 dage lange konflikt i Gaza i 2021 blev IDF erklærede begivenheden som verdens første 'AI-krig' med henvisning til brugen af AI til at opdage raketaffyringsramper og indsætte dronesværme.
Israel gennemfører også angreb i Syrien og Libanon, der er rettet mod våbenleverancer til Iran-støttede militser som Hizbollah.
Det er den type strategier, som AI'er som Fire Factory understøtter.
Oberst Uri, leder af hærens digitale transformationsenhed, bemærkede: "Det, der før tog timer, tager nu minutter, med et par minutter mere til menneskelig gennemgang. Med det samme antal mennesker kan vi gøre meget mere."
IDF har etableret sig som en global frontløber inden for autonome våben. Israelske forsvarsentreprenører konstruerede nogle af disse systemer, mens hæren udviklede andre, som StarTrack-grænsekontrolkameraerne.
Spørgsmålet er, hvor det ender? Hvad sker der, når robotsystemer er i stand til at fungere autonomt?
Analytikere har allerede beskrevet brugen af kunstig intelligens på slagmarken som en af de mest Overhængende og presserende risici.
Catherine Connolly, en forsker i automatiserede beslutninger hos Stop dræberrobotter"Det er bare en softwareændring, der kan få dem til ikke at være semi, men til at være helt autonome."
Det er værd at fremhæve, at det ikke kun er Israel, der bruger AI-støttede våben. "Vi kan gå ud fra, at amerikanerne og endda kineserne og måske flere andre lande også har avancerede systemer på disse områder," sagde Liran Antebi, seniorforsker ved det Israel-baserede Institute for National Security Studies.
Men i modsætning til Israel "har de, så vidt jeg ved, aldrig demonstreret operationel brug og succes."
I øjeblikket er der ingen internationale rammer for, hvad der sker, når AI-krigsudstyr går galt, hvilket kan resultere i fatale fejl.
Som Connolly fra Stop Killer Robots bemærkede: "Hvor præcist og nøjagtigt kan man vide, at et system vil være, medmindre det allerede er blevet trænet og testet på mennesker?"
Mimran argumenterede for, at IDF udelukkende skulle bruge AI til defensive formål og sagde, at uanset teknologien "er der et punkt, hvor du er nødt til at træffe en værdibaseret beslutning ... Og til det kan vi ikke stole på AI."
Brugen af kunstig intelligens i krigsførelse er tankevækkende, men ikke af de rigtige grunde. Forskere spekulerer i, at avanceret AI kan ikke adlyder menneskelige kommandoer og etablere "nye mål" med uforudsigelige resultater.