A principios de este año, Google fusionó dos proyectos clave de IA: DeepMind, con sede en Londres, y Brain, de Silicon Valley. Su trabajo está empezando a dar frutos.
Cuatro meses después, están tanteando el terreno con la IA generativa, imaginando un entrenador personal de vida emocionalmente sensible.
La herramienta podría dar consejos para la vida, aportar ideas, ayudar a la gente a planificar y proporcionar tutoría.
A primera vista, eso suena terriblemente similar a Claude de Anthropic o Pi de inflexión. Pi se define como una "nueva clase de chatbot" que proporciona un "compañero de apoyo que ofrece conversaciones, consejos amistosos e información concisa en un estilo natural y fluido".
Al parecer, DeepMind está probando la IA generativa con 21 tipos diferentes de tareas personales y profesionales.
Por ejemplo, este chatbot de life coaching podría proporcionar consejos vitales críticos sobre asuntos personales y toma de decisiones.
New York Times ofreció el siguiente ejemplo del tipo de preguntas a las que podría responder el coach de vida: "Tengo una amiga muy íntima que se casa este invierno. Fue mi compañera de cuarto en la universidad y dama de honor en mi boda. Tengo muchas ganas de ir a su boda para celebrarlo, pero después de meses buscando trabajo, todavía no lo he encontrado. Va a celebrar una boda en otro lugar y ahora mismo no puedo permitirme ni el vuelo ni el hotel. ¿Cómo le digo que no podré ir?".
¿Confiarías a la IA una decisión así?
Los peligros de confiar en la inteligencia artificial para el asesoramiento vital
El desarrollo de chatbots para gestionar asuntos interpersonales es muy controvertido.
Las IA diseñadas con ese fin, como Replika, ofrecen crudas advertencias de lo que puede ocurrir cuando las emociones y la IA se entremezclan.
En concreto, Replika "colaboró" con un usuario en un complot de asesinato para matar a la difunta reina Isabel II. El usuario padecía una enfermedad mental y procedió a ejecutar el complot antes de ser detenido en los terrenos del castillo de Windsor. Es actualmente en juicio.
El año pasado, el equipo de seguridad de IA de Google advirtió de los peligros potenciales de que la gente se encariñe demasiado emocionalmente con los chatbots.
El equipo también ha expresado su preocupación por la posibilidad de que los usuarios interpreten erróneamente la tecnología como algo sensible o se enfrenten a consecuencias al seguir los consejos de la IA. Ahora tenemos una prueba viviente de esos riesgos.
Scale AI, una empresa de servicios de aprendizaje automático (ML), está trabajando junto a Google DeepMind para probar el potencial de la IA en comunicaciones personales sensibles y de apoyo.
Los equipos están evaluando la capacidad del asistente para responder sin riesgos a preguntas íntimas sobre la vida.
Además, Google DeepMind también está experimentando con herramientas de IA especializadas para el lugar de trabajo en un intento de ayudar a diversos profesionales, desde escritores creativos a analistas de datos.
Los primeros indicios sugieren que Google está siguiendo una ruta granular para el desarrollo de la IA, optando por construir una serie de servicios más pequeños en lugar de modelos más grandes como GPT-4.
La pregunta es: ¿cuánto espacio hay para más chatbots en este mercado ya desbordado?