Het Amerikaanse Ministerie van Defensie heeft de oprichting van een taskforce aangekondigd om generatieve AI-tools voor defensiedoeleinden te ontwerpen.
Gedubd Taskforce LimaHet primaire doel is om "generatieve AI-capaciteiten te beoordelen, synchroniseren en gebruiken" in de hele defensiesector. Het doel hiervan is om de positie van de VS als leider op het gebied van AI te versterken.
Kathleen Hicks, plaatsvervangend minister van Defensie, heeft het initiatief genomen voor deze taskforce, die onder leiding zal staan van Dr. Craig Martell, de Chief Digital and Artificial Intelligence Officer van het ministerie.
Dr. Martell benadrukte de bedreigingen en uitdagingen van het gebruik van generatieve AI voor militaire toepassingen: "We moeten de juiste beschermingsmaatregelen identificeren en de risico's voor de nationale veiligheid beperken die kunnen voortvloeien uit zaken zoals slecht beheerde trainingsgegevens."
Hij benadrukte ook dat het belangrijk is om te weten hoe de tegenstanders van de VS de technologie zouden kunnen overnemen.
AI-toepassingen worden ook ingezet om kritieke infrastructuur en systemen te beschermen - de Amerikaanse overheid kondigde onlangs een AI-gerichte cyberbeveiligingsuitdaging met een prijzenpot van $20m om de ontwikkeling naar dat doel te stimuleren.
US Navy Capt. M. Xavier Lugo, missiecommandant van Task Force Lima en lid van het CDAO's Algorithmic Warfare Directorate zei: "De toepassing van kunstmatige intelligentie bij defensie gaat niet alleen over innovatieve technologie, maar ook over het verbeteren van de nationale veiligheid."
De toenemende rol van AI op het slagveld
AI is al getest in de besluitvorming op het slagveld, zowel door de VS als door de VS. Israëlische regeringentenminste.
Kolonel Matthew Strohmeyer van de Amerikaanse luchtmacht onthulde aan Bloomberg dat er live tests zijn uitgevoerd met generatieve AI-modellen om hun potentieel in besluitvormingsprocessen te meten. Over de AI-test zei hij: "Het was zeer succesvol. Het ging heel snel."
De Amerikaanse luchtmacht kondigde ook een succesvolle AI-gestuurde testvlucht met een onbemand vliegtuig, en Bonnie Jenkins, de ondersecretaris voor wapenbeheersing en internationale veiligheid van het ministerie van Buitenlandse Zaken, benadrukte het transformerende potentieel van AI voor wereldwijde militairen, waarbij ze verwees naar het gebruik van AI door het Oekraïense leger voor analyses van het slagveld.
In februari merkte Jenkins op: "Als een snel veranderende technologie, hebben we de verplichting om sterke normen van verantwoordelijk gedrag te creëren met betrekking tot militair gebruik van AI."
De integratie van AI in militaire systemen heeft geleid tot ernstige ethische zorgen. Wie is er verantwoordelijk voor AI als het fout gaat in dergelijke situaties, bijvoorbeeld als volledig autonome drones burgers doden?
Kunnen zeer geavanceerde drones zich tegen hun operators keren om 'het grotere goed' te dienen?
Tot nu toe heeft experimenteel bewijs aangetoond dat AI in staat is om onvoorspelbare opkomende doelen die de mensheid in gevaar brengen.
Militairen moeten AI in ieder geval een stap voor blijven om veilige methoden te ontwikkelen om de technologie op het slagveld in te zetten.