Alphabet pide precaución: Chatbots de IA y confidencialidad

17 de junio de 2023

Alphabet, la empresa matriz de Google, advierte a sus empleados de que no utilicen chatbots, incluido su propio Bard, por miedo a proteger datos confidenciales. Citando una antigua política de protección de datos, la empresa ha advertido a sus empleados de que no introduzcan información privada en los chatbots de inteligencia artificial. 

Chatbots como Bard y ChatGPT emplean inteligencia artificial generativa para mantener conversaciones que imitan la interacción humana y responden a las peticiones de los usuarios.

Como parte del proceso de formación, los revisores humanos pueden leer estas interacciones. Los investigadores han descubierto que los modelos de IA incorporados a estos chatbots son capaces de recrear los datos ingeridos durante el entrenamiento, creando potencialmente un riesgo de fuga. 

Además, Alphabet ha dado instrucciones a sus desarrolladores para que se abstengan de emplear directamente código informático generado por chatbot. Bard puede ofrecer recomendaciones de codificación, pero la empresa entiende la necesidad de prudencia y franqueza sobre las limitaciones de su tecnología. 

Dado que Google compite con ChatGPT, un servicio respaldado por OpenAI y Microsoft, esta cuidadosa estrategia pretende minimizar cualquier posible daño a la empresa de Google.

Otras empresas, como Samsung, Amazon y Deutsche Bank, han adoptado medidas de seguridad similares, lo que demuestra que el listón de la seguridad corporativa está subiendo. 

Preocupa la posibilidad de que se comparta información incorrecta, privada o incluso protegida por derechos de autor en las conversaciones de los chatbots.

Algunas empresas han creado soluciones de software para resolver estos problemas. Por ejemplo, Cloudflare ofrece la opción de etiquetar y limitar la transferencia de datos al exterior, protegiendo los datos sensibles. 

Aunque son más caras, Google y Microsoft también ofrecen herramientas conversacionales para clientes comerciales que no incluyen sus datos en los modelos de IA de código abierto. Aunque los usuarios tienen la opción de eliminarlos, Bard y ChatGPT conservan por defecto los historiales de chat de los usuarios.

Yusuf Mehdi, director de marketing de la división de consumo de Microsoft, ha declarado: "Tiene sentido que las empresas eviten utilizar chatbots disponibles para el público en general por motivos comerciales. En comparación con su chatbot gratuito Bing, Microsoft establece normas más estrictas para su software comercial. Otro ejecutivo admitió limitaciones personales a la hora de utilizar este tipo de programas, a pesar del silencio de Microsoft sobre el tema de la prohibición general de información privada en programas de IA de acceso público".

Las medidas de seguridad aplicadas por Alphabet y otras empresas ponen de relieve la necesidad de garantizar la protección de los datos privados cuando se utilizan chatbots de IA. Las empresas pueden reducir los riesgos y garantizar la confidencialidad de los datos estableciendo normas y soluciones técnicas.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Jay Parmar

Jay es redactor técnico y licenciado en Informática. Es un entusiasta de la IA y el ML desde hace mucho tiempo y escribe para varias plataformas como HashDork, TutorialsPoint. Fuera del trabajo, Jay simplifica la tecnología y trabaja como freelance.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales