In een wereld waar "oorlogsspellen" niet langer alleen naar bordspellen of videospellen verwijzen, maar naar scenario's op leven en dood die mogelijk worden gemaakt door machine-intelligentie, is de kwestie van verantwoordelijkheid monumentaal.
Militairen voeren hun onderzoek naar en investeringen in AI op.
Sommige analisten definieerden een 11-daagse ontmoeting tussen Israël en Palestina van 2021 als de eerste "AI-oorlogwaar Israëlische technologieën hielpen bij inlichtingen over en inzet op het slagveld.
In de afgelopen maanden, tet Amerikaanse leger heeft een taakgroep generatieve AI en testte met succes een autonoom vliegtuig met AI.
De toenemende rol van AI in oorlogsvoering brengt een reeks complexe juridische en ethische dilemma's met zich mee waar we nog geen antwoord op hebben, zelfs ondanks het feit dat er op dit moment militaire AI-technologie wordt ingezet.
Wie is verantwoordelijk als AI fout gaat?
Fabrikant van militaire technologie Rafael's "Vuurwever" lokaliseert vijandelijke posities met behulp van sensoren en stelt de best geplaatste eenheid voor om op hen te vuren.
In de beschrijving van het product staat: "Fire Weaver berekent de Rules of Engagement en stuurt het richten en vuren, waarbij voor elk doel de meest geschikte schutter wordt gebruikt".
"Berekent" is hier het sleutelwoord. AI-wapens kunnen de beslissing om een doelwit te vernietigen terugbrengen tot een binaire ja/nee beslissing, dus wat als Fire Weaver een kind aanziet voor een vijandelijke soldaat? Of een humanitaire hulptruck in plaats van een vijandelijk voertuig?
Op dit moment is het gebrek aan morele, ethische en juridische duidelijkheid schrijnend. AI bevindt zich in een juridisch en ethisch vacuüm en dat kan nog wel even zo blijven, want het maken van wetten is notoir traag - en zelden wordt het geconfronteerd met zo'n snel evoluerende technologie.
In de bredere samenleving zijn er al veel voorbeelden van AI die mensen en hun rechten in gevaar brengt. Deze geven een kijkje in de leemte in de wetgeving en ethiek die is ontstaan door AI en de verschillende toepassingen ervan.
Bijvoorbeeld, ChatGPT vermeend Een man uit Georgia, Mark Walters, werd schuldig bevonden aan bedrijfsverduistering en beschuldigde professor in de rechten Jonathan Turley van aanranding. ChatGPT was vals in beide gevallen.
Op dezelfde manier hebben Getty Images en verschillende artiesten, auteurs en andere ontwerpers rechtszaken over auteursrecht tegen techbedrijven voor het gebruik van trainingsgegevens om hun modellen te bouwen.
Trainingsgegevens worden vaak verzameld van derden, zoals Common Crawl, en 'schaduwbibliotheken' zoals Bibliotik, vergelijkbaar met torrentsites zoals PirateBay.
Wie is er in dat geval aansprakelijk voor schending van het auteursrecht? De AI-ontwikkelaars of de uitgevers van datasets? Het is een cartooneske cirkel van verantwoordelijkheid waarbij elke potentiële schuldige wijst naar degenen naast hem en uiteindelijk ontsnapt iedereen aan de schuld.
Dit wazige ethische landschap is veel riskanter in de context van AI-wapens en algoritmische militaire tactieken, waar de berekeningen van een model letterlijk leven of dood kunnen bepalen.
Militaire organisaties zijn zich al bewust van de paradigmaverschuiving die AI-wapens met zich meebrengen. Volgens het Ministerie van Defensie (DoD) is de eerste van zijn vijf "ethische principes voor kunstmatige intelligentie" voor militair gebruik is "Verantwoordelijk", gedefinieerd als: "DoD-personeel zal gepaste niveaus van oordeelsvorming en zorgvuldigheid in acht nemen, terwijl het verantwoordelijk blijft voor de ontwikkeling, de inzet en het gebruik van AI-mogelijkheden".
Dit betekent dat een mens uiteindelijk verantwoordelijk moet zijn voor de acties van de machine. Het leger heeft altijd vertrouwd op het principe dat iemand - meestal de commandant of een soldaat - verantwoordelijk moet worden gehouden voor acties tijdens oorlogsvoering. Toch wordt de rol van AI in het besluitvormingsproces steeds onduidelijker.
De eerste vraag is of het indrukken van de "Goedkeuren"-knop gelijk staat aan verwijtbaarheid, nu AI steeds geavanceerdere taken krijgt op het gebied van targeting, surveillance en andere gebieden.
Als de voorspellingen van AI bijvoorbeeld zouden falen, met burgerslachtoffers tot gevolg, is het twijfelachtig of iemand zou accepteren dat 'de machine' als enige schuld krijgt aan een ongeluk.
Op hun beurt kunnen er situaties zijn waarin mensen ten onrechte de schuld krijgen van hun rol in een ongeluk waar ze geen bijdrage aan hebben geleverd, wat antropoloog M.C. Elish beschrijft als een ".morele kreukelzone."
Elish's onderzoek naar industriële en machine-gebaseerde ongelukken suggereert dat mensen de neiging hebben om de schuld op zich te nemen bij elk ongeluk, zelfs als de fout ligt bij de machine, het algoritme of de besluitvormer die de technologie in eerste instantie goedkeurde.
Ze baseert zich op verschillende voorbeelden uit de praktijk, zoals een nucleair ongeluk op Three Mile Island in Pennsylvania en de crash van vlucht 447 van Air France, die grotendeels werden toegeschreven aan 'menselijke fouten' in plaats van een meer ingewikkelde reeks storingen verspreid over meerdere personen en systemen.
Elish zegt over verantwoordelijkheid in het tijdperk van AI: "Met betrekking tot autonome en robotachtige technologieën zijn de regels, wetten en normen nog in ontwikkeling en kunnen ze bijzonder gevoelig zijn voor onzekerheden of zelfs ontwijkingen van verantwoordelijkheid."
Dit roept ook vragen op over de rol van democratische processen in oorlogvoering en de soevereiniteit van menselijke besluitvorming. Toen de Vietnamoorlog werd uitgezonden in huiskamers in heel Amerika, beïnvloedde de directheid van de tol die de oorlog eiste de publieke opinie en het beleid.
AI-geassisteerde strijd zou daarentegen de maatschappelijke checks and balances uit het publieke sentiment en het democratische discours kunnen verwijderen.
Ethicus en filosoof Thomas Metzinger benadrukt dat ethische normen niet alleen juridische constructies zijn, maar sociale constructies die voortkomen uit democratische processen.
Als algoritmes de beslissingen nemen, wordt menselijke betrokkenheid - en dus morele verantwoordelijkheid - diffuus en overbodig.
Internationale juridische implicaties van AI in oorlogsvoering
Een van de pijlers van de Conventie van Genève is het "onderscheid"-principe, dat het maken van onderscheid tussen strijders en burgers voorschrijft.
Technologie heeft al bewezen de beloften van een betere bescherming van burgers niet waar te maken: volgens uitgelekte documenten van de Amerikaanse drone-aanvallen tijdens het presidentschap van Obama waren slechts 10% van de mensen die gedood werden bij Amerikaanse drone-aanvallen het beoogde doelwit. De onderschepping.
AI-algoritmen zijn slechts zo goed als de gegevens waarop ze getraind zijn en de regels die ze moeten volgen. In oorlogsvoering kan een algoritme gegevens verkeerd interpreteren door oorlogsmist, gebrekkige trainingsgegevens of opzettelijk misleidende vijandelijke tactieken.
Het Internationale Comité van het Rode Kruis (ICRC) is begonnen met discussies over de legaliteit van autonome wapensystemen onder het bestaande internationale humanitaire recht, maar er zijn weinig concrete definities.
Ze stellen vast dat de bestaande kaders niet geschikt zijn voor de nieuwe uitdagingen van AI, en de ICRC's voorgestelde principes zijn vaag; bijvoorbeeld: "Onvoorspelbare autonome wapensystemen moeten uitdrukkelijk worden uitgesloten."
Waar leggen we de grens voor 'onvoorspelbaar' als één minuscuul foutje rampzalig kan zijn?
Bovendien is het slagveld voortdurend aan verandering onderhevig en zal er sprake zijn van 'edge cases', blinde vlekken waarmee geen rekening wordt gehouden in AI-training. Het is uitzonderlijk moeilijk om AI-systemen te bouwen die reageren op dynamische omgevingsomstandigheden met dezelfde reactietijden als mensen.
Terwijl AI-wapens hun nauwkeurigheid behouden in typische slagveldscenario's, wat gebeurt er als de omgeving afwijkt van wat het model denkt dat de "grondwaarheid" is, of als randgevallen de nauwkeurigheid verstoren?
Erosie van morele gevoeligheid
Het doden in oorlogsvoering is enorm veranderd met de komst van moderne militaire strategieën en tactieken.
Tijdens de Eerste Wereldoorlog werden historische analyses en verslagen zoals S.L.A. Marshalls controversiële boek "Mannen tegen vuur" suggereren dat slechts 15 tot 25% van de frontsoldaten hun wapens afvuurden met de intentie om te doden.
Vandaag de dag ervaart een soldaat die een drone bedient vanaf duizenden kilometers afstand niet de onmiddellijke emotionele en psychologische impact van zijn acties, wat blijkt uit het feit dat PTSS en andere mentale gezondheidsproblemen over het algemeen minder vaak voorkomen dan bij soldaten die in het veld dienen.
Het ontwerp van militaire technologie heeft zich aangepast aan nieuwe paradigma's van 'oorlogsvoering op afstand'. De controllers die voor drones worden gebruikt, hebben veel weg van videogamecontrollers, een ontwerpkeuze die misschien niet toevallig is.
AI-operators kunnen beslissingen op leven en dood nemen in een omgeving die de realiteit van oorlog abstraheert tot datapunten en beelden op een scherm, waardoor de realiteit van de oorlog wordt gescheiden van de werkelijkheid. de laatste morele banden die we hebben met de levens van degenen die in een conflict verwikkeld zijn geraakt.
Hoe gaan we nu verder?
Terwijl militaire AI zich ontwikkelt tot iets waar velen bang voor zijn, wordt de verantwoordelijkheid voor fouten en mislukkingen bij één persoon gelegd, ontwikkelaars, organisaties of hele groepen lijkt onwaarschijnlijk.
Wie, of wat, moet dan de verantwoordelijkheid dragen? HHoe voorkomen we dat we in een toekomst terechtkomen waarin moorden meer machine dan mens wordt en waarin ethische verantwoordelijkheid verdwijnt in algoritmische abstracties?
Na verloop van tijd zullen steeds intelligentere kunstmatige systemen waarschijnlijk het weefsel van ethiek en verantwoordelijkheid veranderen, vooral als ze tekenen van gevoel of bewustzijn vertonen.
Maar dat is geen verklaring voor hoe deze situatie in het heden wordt beheerd en zoals zoveel dingen in de wereld van AI zijn er meer vragen dan antwoorden.