Los drones están matando soldados rusos de forma autónoma en Ucrania

14 de octubre de 2023

IA Rusia

Los drones dotados de inteligencia artificial identifican y atacan objetivos de forma autónoma en Ucrania. 

Según un informe de New Scientistes casi seguro que el ataques con drones están matando a soldados rusos sin mando directo ni supervisión de un operador humano, aunque faltan datos oficiales. 

La pieza clave de este desarrollo es el cuadricóptero Saker Scout, recientemente puesto en servicio en Ucrania. 

Este dron puede transportar una carga útil de 3 kilos a través de unos 12 kilómetros. Los drones de esta naturaleza, operados a distancia, han demostrado su eficacia en el actual conflicto entre Rusia y Ucrania. Este modelo pesado en particular supone una amenaza incluso para los tanques fuertemente blindados.

Saker, una empresa ucraniana creada en 2021, tenía como objetivo inicial ofrecer soluciones de IA asequibles a pequeñas empresas, concretamente sistemas de visión impulsados por IA para drones en sectores como la agricultura. 

Pero con la invasión rusa, la empresa pasó a apoyar al ejército. Su plataforma de visión artificial reconoce ahora unos 64 tipos diferentes de "objetos militares", que incluyen vehículos y otros equipos, según informó un portavoz de la empresa.

A pesar de las capacidades autónomas del Saker Scout, también puede controlarse manualmente. En modo manual, la IA indica los objetivos y los localiza y verifica antes de atacar. El dron está integrado en el sistema de distribución de inteligencia Delta de Ucrania, que ingiere datos de diversas fuentes aéreas y por satélite para construir una visión holística del campo de batalla.

Además, el dron posee doble funcionalidad autónoma. Puede ser enviado a una región para reconocimiento o "instruido para encontrar y atacar objetivos de forma autónoma". 

Tal y como el portavoz transmitió a New Scientist, el Saker Scout ya ha entrado en acción en modo autónomo, lo que subraya el despliegue de tecnología militar autónoma en el campo de batalla, algo que muchos temen. 

El portavoz subrayó que emplear el dron de forma autónoma no es tan infalible como contar con un operador humano, pero que la IA había demostrado su eficacia y que esperar hasta que "fuera perfecto era innecesario".

Mykhailo Fedorov, ministro ucraniano de Transformación Digital, reflexionó sobre la evolución de la dinámica bélica y afirmó que el armamento autónomo representa una progresión "lógica e inevitable" en la tecnología de los drones.

Comentando la ubicuidad de esta tecnología, Paul Scharre, del Center for a New American Security, declaró: "Los clasificadores de imágenes existen desde hace al menos 10 años y este tipo de software puede descargarse fácilmente y entrenarse con datos adecuados." 

Además, expresó su preocupación por la propensión del dron a identificar objetivos erróneamente: "Los sistemas demostrados hasta ahora tienen cierto grado de falsos positivos, lo cual es de esperar".

Las autoridades de todo el mundo, incluida la ONU, llevan años deliberando sobre medidas reguladoras de las armas autónomas. 

Un informe de la ONU de 2021 aludía al posible despliegue de drones de ataque autónomos en Libia en 2020, pero este extremo sigue sin corroborarse. En la actualidad, no existe una legislación detallada que regule el uso de armas autónomas. 

El Departamento de Defensa de EE.UU. (DoD) creó cinco "principios éticos de la inteligencia artificialincluyendo "Responsable", definido como "El personal del DoD ejercerá los niveles apropiados de juicio y cuidado, siendo responsable del desarrollo, despliegue y uso de las capacidades de IA". 

Aunque este tipo de normas significan la intención de controlar el armamento de IA, sin definiciones sólidas de términos como "niveles apropiados de juicio y cuidado", son extremadamente subjetivas. 

A este respecto, Scharre afirma: "Una característica central del debate ha sido la capacidad de tales armas para cumplir el derecho de guerra y evitar víctimas civiles." 

Dilemas éticos

Las armas autónomas plantean numerosas cuestiones éticas

¿Quién es responsable si salen mal? ¿Qué ocurre si identifican mal los "objetivos", lo que podría causar víctimas civiles? Y quizás lo más distópico, ¿qué pasaría si las armas de IA se volvieran contra sus operadores o se rebelaran?

Hasta ahora, estas tecnologías siguen siendo poco frecuentes y tenemos pruebas limitadas de su seguridad. 

Mientras que el teatro de batalla abierto en Ucrania puede suponer un riesgo civil mínimo, podría no ser el caso en algún lugar más concurrido, como Palestina, por ejemplo. 

El creciente papel de la IA en el campo de batalla es quizá inevitable, ya que la tecnología promete operaciones inteligentes, escalables y rentables que no pongan en peligro al personal de ningún bando. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales