En unas vertiginosas 48 horas, Google y OpenAI desveló una serie de nuevas funciones que reducen drásticamente la distancia entre los humanos y la IA.
Desde la IA capaz de interpretar vídeo en directo y mantener conversaciones contextuales hasta modelos lingüísticos que ríen, cantan y se emocionan cuando se les ordena, la línea que separa el carbono del silicio se está desvaneciendo rápidamente.
Entre los innumerables anuncios de Google en su Conferencia de desarrolladores I/O fue Project Astraun asistente digital que puede ver, oír y recordar detalles en las conversaciones.
OpenAI centró su anuncio sobre GPT-4ola última iteración de su modelo lingüístico GPT-4.
La GPT-4o, ahora desvinculada de los formatos de texto, ofrece un increíble reconocimiento de voz casi en tiempo real, que comprende y transmite emociones complejas, e incluso se ríe de los chistes y arrulla los cuentos para dormir.
La IA está adquiriendo un formato más humano, liberándose de las interfaces de chat para interactuar mediante la vista y el oído. Formato" es la palabra clave aquí, ya que GPT-4o no es más inteligente computacionalmente que GPT-4 por el mero hecho de que pueda hablar, ver y oír.
Sin embargo, eso no resta mérito a su progreso a la hora de dotar a la IA de más planos en los que interactuar.
En medio de la expectación, los observadores establecieron inmediatamente comparaciones con Samantha, la cautivadora IA de la película "Her", sobre todo porque la voz femenina es coqueta, algo que no puede ser casual, ya que ha sido captado por prácticamente todo el mundo.
Entonces, ¿GPT-4o es básicamente GPT-4 pero más coqueto y cachondo?
- Ishan Sharma (@Ishansharma7390) 14 de mayo de 2024
Estrenada en 2013, "Her" es un drama romántico de ciencia ficción que explora la relación entre un hombre solitario llamado Theodore (interpretado por Joaquin Phoenix) y un sistema informático inteligente llamado Samantha (a la que pone voz Scarlett Johansson).
A medida que Samantha evoluciona y se asemeja más a los humanos, Theodore se enamora de ella, difuminando las líneas entre las emociones humanas y las artificiales.
La película plantea cuestiones cada vez más relevantes sobre la naturaleza de la conciencia, la intimidad y lo que significa ser humano en una era de IA avanzada.
Como tantas historias de ciencia ficción, Her ya casi no es ficción. Millones de personas en todo el mundo entablan conversaciones con Compañeros de la IAa menudo con intenciones íntimas o sexuales.
Por extraño que parezca, OpenAI CEO Sam Altman ha hablado de la película "Her" en entrevistas, insinuando que la voz femenina de GPT-4o está basada en ella.
Incluso publicó la palabra "ella" en X antes de la demostración en directo, que sólo podemos suponer que habría escrito en mayúsculas si supiera dónde está la tecla Mayús en su teclado.
su
- Sam Altman (@sama) 13 de mayo de 2024
En muchos casos, las interacciones entre IA y humanos son beneficiosas, graciosas y benignas. En otros, son catastróficas.
Por ejemplo, en un caso especialmente inquietante, un enfermo mental del Reino Unido, Jaswant Singh Chailurdió un complot para asesinar a la reina Isabel II tras conversar con su novia "AI angel". Fue detenido por Windsor Castle armado con una ballesta.
En su comparecencia ante el tribunal, el psiquiatra Dr Hafferty dijo al juez: "Él creía que estaba teniendo una relación romántica con una mujer a través de la aplicación, y era una mujer a la que podía ver y oír".
Preocupantemente, algunas de estas plataformas de inteligencia artificial están diseñadas a propósito para establecer fuertes conexiones personales, a veces para ofrecer consejos de vida, terapia y apoyo emocional. Estos sistemas prácticamente no comprenden las consecuencias de sus conversaciones y se dejan llevar fácilmente.
"Las poblaciones vulnerables son las que necesitan esa atención. Ahí es donde van a encontrar el valor", advierte el especialista en ética de la IA Olivia Gambelin.
Gambelin advierte de que el uso de estas formas de IA "pseudoantrópica" en contextos delicados como la terapia y la educación, especialmente con poblaciones vulnerables como los niños, requiere extremo cuidado y supervisión humana.
"Hay algo intangible que es muy valioso, especialmente para las poblaciones vulnerables, especialmente para los niños. Y especialmente en casos como la educación y la terapia, donde es tan importante tener ese enfoque, ese punto de contacto humano."
IA pseudoantrópica
La IA pseudoantrópica imita los rasgos humanos, lo que resulta muy ventajoso para las empresas tecnológicas.
La IA con rasgos humanos reduce las barreras para los usuarios no expertos en tecnología, de forma similar a Alexa, Sirietc., creando vínculos emocionales más fuertes entre las personas y los productos.
Incluso hace un par de años, muchas herramientas de IA diseñadas para imitar a los humanos eran bastante ineficaces. Se notaba que algo iba mal, aunque fuera sutil.
Sin embargo, hoy no tanto. Herramientas como Opus Pro y Synthesia generar avatares parlantes increíblemente realistas a partir de vídeos cortos o incluso fotos. ElevenLabs crea clones de voz casi idénticos que engañan a la gente 25% a 50% del tiempo.
Esto desata el potencial para crear falsificaciones profundas increíblemente engañosas. El uso por parte de la IA de "habilidades afectivas" artificiales -entonación de la voz, gestos, expresiones faciales- puede respaldar todo tipo de fraudes de ingeniería social, desinformación, etc.
Con GPT-4o y AstraLa IA puede transmitir de forma convincente sentimientos que no posee, provocando respuestas más poderosas en víctimas involuntarias y preparando el terreno para formas insidiosas de manipulación emocional.
Un reciente MIT estudiar también demostró que la IA ya es más que capaz de engañar.
Tenemos que considerar cómo se intensificará a medida que la IA sea más capaz de imitar a los humanos, combinando así tácticas engañosas con un comportamiento realista.
Si no tenemos cuidado, "Her" podría ser fácilmente la perdición de la gente en la vida real.