El gobierno de Biden ha incluido a otras ocho empresas de IA en su marco voluntario de seguridad.
Google, Anthropic, Microsoft, Amazon, OpenAI, Meta e Inflection se unen al marco voluntario de la Casa Blanca para el desarrollo y despliegue ético de la IA a finales de julio.
Esta semana, la Casa Blanca anunció que Adobe, IBM, Nvidia, Salesforce, Cohere, Scale AI, Palantir y Stability se habían unido a ellos.
El marco de Biden anima a las empresas a compartir protocolos de seguridad y medidas de salvaguarda, revelar las capacidades y limitaciones de sus tecnologías de IA y utilizar la IA para "ayudar a abordar los mayores retos de la sociedad".
Este compromiso hace sospechar que algunas de las empresas participantes, como Palantir, son conocidas por sus aplicaciones militares de inteligencia artificial y sus tecnologías de vigilancia nacional. La empresa es conocida por sus relaciones globales con diversos gobiernos y organizaciones militares.
Alex Karp, Consejero Delegado de Palantir alentó recientemente los EE.UU. a aprovechar la IA para el armamento y la tecnología militar, y el Ejército del Aire ya ha realizaron vuelos de prueba con éxito con un jet controlado por la IA.
Karp, que intervino en febrero en una cumbre sobre tecnología militar basada en IA, indicó que la empresa está proporcionando análisis de datos para aplicaciones en el campo de batalla al ejército ucraniano. A pesar de ello, Karp estipuló que una "arquitectura que permita la transparencia sobre las fuentes de datos" debería ser "obligatoria por ley."
Durante una audiencia del Comité de Servicios Armados del Senado, Shyam Sankar, Director Técnico de Palantir, comentó que detener el desarrollo de la IA podría poner en peligro la supremacía tecnológica de Estados Unidos sobre China. Subrayó la necesidad de que EE.UU. siga invirtiendo en "capacidades que aterroricen a nuestros adversarios".
Los críticos sugieren que el marco de la Casa Blanca pasa por alto consideraciones éticas vitales, como la transparencia de los datos de entrenamiento de IA generativa, que la mayoría de las empresas guardan bajo llave.
Aunque la Casa Blanca indicó que se está elaborando una orden ejecutiva para "proteger los derechos y la seguridad de los estadounidenses", no se han hecho públicos más detalles.
Las complejidades de la IA ética no se limitan a Palantir. Otras grandes empresas tecnológicas como Google y Microsoft han tenido su ración de controversias en torno a contratos militares.
Google una vez dirigió el Proyecto MavenLa empresa Palantir, que había puesto en marcha una iniciativa para utilizar la IA en la vigilancia con drones, la abandonó tras las protestas de sus empleados. Al parecer, Palantir retomó el proyecto después.
En la actualidad, los esfuerzos de la administración Biden se centran principalmente en recomendaciones no vinculantes y decretos ejecutivos.
Jeff Zeints, Jefe de Gabinete de la Casa Blanca a Reuters que la administración está "tirando de todas las palancas de que disponemos" para mitigar los riesgos asociados a la IA.
Por su parte, el líder de la mayoría del Senado de Estados Unidos, Chuck Schumer, está celebrando una serie de "Foros de Inteligencia Artificial". mañana, 13 de septiembre.
El alcance del marco voluntario de la Casa Blanca se alarga
Según un hoja informativa del gobierno que cubre el marco, los compromisos de quienes se han adherido hasta ahora sirven de "importante puente hacia la acción gubernamental".
Las empresas han acordado someter sus sistemas de IA a rigurosas pruebas de seguridad internas y externas antes de su lanzamiento público.
"Estas pruebas, que llevarán a cabo en parte expertos independientes, protegen contra algunas de las fuentes más significativas de riesgos de la IA, como la bioseguridad y la ciberseguridad", declaró la Casa Blanca.
En particular, las empresas también se comprometerán a compartir información sobre la gestión de los riesgos de la IA dentro de la industria y con los gobiernos, la sociedad civil y el mundo académico.
El objetivo es crear un entorno de colaboración para mejorar los protocolos de seguridad de la IA y ofrecer una plataforma de colaboración técnica para frustrar los intentos de eludir las salvaguardias.
"Para desarrollar estos compromisos, la Administración consultó con Alemania, Australia, Brasil, Canadá, Chile, Corea del Sur, Emiratos Árabes Unidos, Filipinas, Francia, India, Israel, Italia, Japón, Kenia, México, Nigeria, Nueva Zelanda, Países Bajos, Reino Unido, Singapur y la Unión Europea", reveló la Casa Blanca.
Existen otras iniciativas diseñadas para reforzar la resistencia de EE.UU. frente a la IA, como un concurso denominado "Ciberdesafío AI"en colaboración con DARPA.
La regulación de la IA parece acelerarse hacia una masa crítica, y la UE también avanza hacia la versión final de su Ley de IA.