Polémicas internas relacionadas con la IA afectan a Microsoft y Google

7 de marzo de 2024

Google Microsoft

Esta semana, dos situaciones de información privilegiada en las que se han visto implicados los gigantes tecnológicos Microsoft y Google han suscitado dudas sobre el desarrollo responsable de sistemas de inteligencia artificial y la gestión de la propiedad intelectual. 

En primer lugar, en Microsoft, Shane Jones, director de ingeniería de software con seis años de experiencia, ha estado probando de forma independiente el generador de imágenes de IA Copilot Designer en su tiempo libre. 

Jones dijo CNBC que estaba profundamente preocupado por las imágenes violentas, sexuales y con derechos de autor que la herramienta era capaz de generar. "Fue un momento revelador", afirma Jones. "Fue cuando me di cuenta por primera vez de que esto no era un modelo seguro".

Desde noviembre de 2022, Jones ha estado probando activamente el producto en busca de vulnerabilidades, una práctica conocida como red-teaming. 

Descubrió que Copilot Designer podía crear imágenes que mostraban "demonios y monstruos junto a terminología relacionada con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en retablos violentos, y consumo de alcohol y drogas entre menores". 

A pesar de informar de sus hallazgos a Microsoft en diciembre, Jones afirma que la empresa se ha mostrado reacia a retirar el producto del mercado.

Copilot de Microsoft ha actuado de forma extraña en ocasiones, incluyendo adoptar un "modo dios" que lo vio jurar perseguir la dominación mundial. 

En una carta dirigida a la presidenta de la Comisión Federal de Comercio, Lina Khan, Jones escribió: "Durante los últimos tres meses, he instado repetidamente a Microsoft a retirar Copilot Designer del uso público hasta que se pudieran establecer mejores salvaguardias." 

Añadió que, puesto que Microsoft "ha rechazado esa recomendación", insta a la empresa a añadir indicaciones claras al producto y a cambiar su clasificación en la aplicación Android de Google para indicar que sólo es apto para un público maduro.

Según los informes, Copilot Designer ha sido fácil de engatusar para que se salte sus barandillas y ha sido el responsable del reciente y notorio caso explícito de imágenes de Taylor Swiftque circuló por millones de personas en las redes sociales.

Como argumenta Jones, la La capacidad de los sistemas de IA para generar imágenes perturbadoras y potencialmente dañinas plantea serias dudas sobre la eficacia de los dispositivos de seguridad y lo fácil que es subvertirlos. 

Polémica interna en Google

Mientras tanto, Google está lidiando con su propia controversia relacionada con la IA.

Linwei Ding, también conocido como Leon Ding, antiguo ingeniero de software de Google, fue acusado en California de cuatro cargos relacionados con el presunto robo de secretos comerciales sobre IA mientras trabajaba en secreto para dos empresas chinas. 

El ciudadano chino es acusado de robar más de 500 archivos confidenciales relacionados con la infraestructura de los centros de datos de supercomputación de Google, que alojan y entrenan grandes modelos de IA.

Según la acusación, Google contrató a Ding en 2019 y comenzó a subir datos confidenciales de la red de Google a su cuenta personal de Google en mayo de 2022. 

Estas subidas continuaron periódicamente durante un año, durante el cual Ding pasó unos meses en China trabajando para Beijing Rongshu Lianzhi Technology. Esta nueva empresa tecnológica se puso en contacto con él y le ofreció un salario mensual de $14.800 para que fuera su Director de Tecnología (CTO).

Ding también habría fundado su propia empresa de IA, Shanghai Zhisuan Technology.

Fiscal General Merrick Garland declaró"El Departamento de Justicia no tolerará el robo de inteligencia artificial y otras tecnologías avanzadas que podrían poner en riesgo nuestra seguridad nacional". El director del FBI, Christopher Wray, añadió que las presuntas acciones de Ding "son la última ilustración de los extremos" a los que llegarán las empresas en China "para robar la innovación estadounidense."

Mientras el mundo lidia con el potencial transformador de la IA, las polémicas internas en las empresas tecnológicas amenazan con avivar las llamas de la disensión. 

Los casos de Microsoft y Google ponen de relieve la importancia de fomentar una cultura de innovación responsable, que incluya la confianza y la transparencia dentro de la propia empresa.

La IA es una tecnología que exige confianza, y las empresas tecnológicas deben ofrecer más garantías. Esto no siempre ha sido así.

For ejemplo, recientemente un grupo de más de 100 expertos en tecnología cofirmó una carta suplicando a las empresas de IA que abran sus puertas a pruebas independientes. 

Argumentaron que las empresas tecnológicas son demasiado reservadas sobre sus productos, excepto cuando se ven obligadas a ello, como vimos cuando Google retiró Modelo de generación de imágenes de Gemini por crear imágenes extrañas e históricamente inexactas. 

En estos momentos, parece que el excepcional ritmo de desarrollo de la IA suele dejar a su paso la confianza y la seguridad.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales