Bienvenido a nuestro resumen semanal de noticias sobre IA creada por humanos.
Esta semana la IA se ha puesto a escribir chistes y a detectar mentiras.
Un modelo chino en tiempo real venció al GPT-4o.
Y OpenAI se abrió cuando debería haberse cerrado.
Profundicemos.
OpenAI hackeado
OpenAI ha sido criticada por ser muy cerrada, a pesar de su nombre. Esta semana nos enteramos de que los servidores de la empresa estaban abiertos de par en par por todas las razones equivocadas.
OpenAI sufrió una violación de datos como un hacker violó sus defensas. A medida que se acelere la carrera mundial por la inteligencia artificial, es probable que veamos más intentos de este tipo.
Microsoft es el mayor inversor de OpenAI, pero esta semana sorprendió se retiró de su papel de observador el OpenAI's board y Apple también declinaron sentarse a la mesa.
Microsoft afirma que se trata de una evolución natural de su relación con OpenAI, pero ¿podría estar ocurriendo algo más?
Todavía estamos esperando que el asistente de voz de GPT-4o pase de ser una demo a un producto disponible públicamente. Mientras OpenAI se retuerce las manos y habla de problemas de seguridad, el laboratorio francés de IA Kyutai lanzó su asistente de voz Moshi.
Tiene errores y la demo tenía un montón de fallos, pero al menos Moshi está ahí para que la gente lo use.
Tu turno Sam. Kling ya lo está matando así que también puedes liberar a Sora mientras estás en ello.
Definitivamente creado usando alguna IA, pero no estoy seguro de cuál. Probablemente Kling. pic.twitter.com/1SNW9WslJi
- AshutoshShrivastava (@ai_for_success) 11 de julio de 2024
Debes estar bromeando
¿Puede ser graciosa la IA? Un nuevo estudio compara los chistes escritos por humanos con los escritos por GPT-3.5.
También compararon los titulares satíricos escritos por humoristas profesionales de The Onion con los escritos por la IA. Adivina qué chistes se consideraron más graciosos en una prueba a ciegas.
Si existiera un dispositivo que te dijera cuándo alguien miente, ¿lo utilizarías? Los investigadores hicieron un Detector de mentiras AI que detecta las mentiras mucho mejor que los humanos.
Todo parece una buena idea hasta que se explora lo socialmente disruptiva que puede llegar a ser esta tecnología.
Nuevos modelos
¿Podría un diminuto modelo de IA vencer a GPT-4? Salesforce ha desafiado las tendencias en IA con el modelos xLAM-1B y 7B, diminutos pero potentes.
La IA agenética necesita convertir las peticiones de lenguaje natural de los usuarios en llamadas a API o funciones específicas. Estos minúsculos modelos son cientos de veces más pequeños que GPT-4 y Gemini 1.5 Pro, pero los superan en la clasificación de llamadas a funciones de Berkeley.
La empresa tecnológica china SenseTime lanzó su modelo multimodal SenseNova 5.5 y afirma que supera a GPT-4o. La versión interactiva en tiempo real del modelo mostraba las mismas funciones de voz que vimos en la demostración de GPT-4o, aunque en mandarín.
SenseTime y otras empresas chinas de IA están repartiendo fichas de API gratuitas para captar nuevos clientes mientras OpenAI cierra el acceso a la API en China.
Anthropic nos impresionó con Claude Sonnet 3.5 el mes pasado y su plataforma acaba de recibir otra actualización. La consola Anthropic y Claude han recibido nuevas y emocionantes funciones de avisos y artefactos.
Mal comportamiento de la IA
La aplicación de diseño web colaborativo Figma ha dado un rápido giro al cerrar su función AI Make Design.
El diseñador de aplicaciones crea diseños pulidos pero algunos usuarios dicen que les resultan sospechosamente familiares. ¿Dónde he visto ese diseño de aplicación antes de....?
Si los adultos no saben cómo crear y utilizar la IA de forma ética, ¿debería sorprendernos que los niños se equivoquen?
Un tribunal español condenó a 15 niños por crear material explícito generado por IA. Es fácil echar la culpa a los niños, pero la situación pone de relieve cómo se ha ignorado en gran medida el impacto de la IA en los niños.
Y este tipo de investigación no inspira precisamente confianza.
https://t.co/vki4nKLPKb pic.twitter.com/zSA8dysuK2
- ControlAI (@ai_ctrl) 8 de julio de 2024
Dr. AI
¿Es posible saber si una persona va a desarrollar Alzheimer en los próximos 6 años? Un nuevo sistema de IA puede predecir la aparición temprana de la enfermedad de Alzheimer mediante el análisis del habla.
La precisión de la predicción supera a la de las pruebas tradicionales y no invasivas, y podría hacer que los pacientes recibieran un tratamiento más temprano.
En un gran avance médico, los investigadores utilizaron IA para identificar infecciones resistentes a los fármacos como la fiebre tifoidea antes de intentar tratarlos con antibióticos.
La velocidad y precisión del sistema de IA permiten a los médicos hacer diagnósticos más rápidos para poder prescribir antes los antibióticos más eficaces. Esto podría suponer un gran impulso para reducir la propagación de bacterias resistentes a los medicamentos.
En otras noticias...
Estas son algunas de las historias sobre inteligencia artificial que nos han gustado esta semana:
- Microsoft se burla de su avanzada modelo de síntesis de texto a voz denominado VALL-E-2 pero dice que es demasiado peligroso para liberarlo.
- Investigadores probó si los modelos de IA son autoconscientes y si saben cuándo se despliegan o se someten a pruebas.
- Shanghai publica el primeras directrices sobre robots humanoides salvaguardar la dignidad y la seguridad humanas.
- IA agenética: ¿cuál es la situación actual y ¿Qué queda por hacer para que los agentes de IA sean realmente útiles?
- Historias generadas por IA y herramienta de análisis "Atrápame" de Wimbledon sigue equivocándose en sus datos sobre tenis.
- Instalaciones nucleares abandonadas como Three Mile Island podría volver a funcionar para potenciar las necesidades de la IA.
Y eso es todo.
OpenAI ha estado muy callado incluso cuando otros modelos de IA le pisan los talones GPT-4o. Crucemos los dedos para que la semana que viene tengamos alguna noticia sobre OpenAI que no sean demandas y hackeos.
¿Cree que la IA llegará algún día a dominar el humor? Escribir un chiste es una cosa, pero no estoy seguro de que un algoritmo pueda crear el próximo Seinfeld o Fawlty Towers.
Esperemos que, de momento, los ingenieros de IA centren sus modelos en tareas más sencillas, como curar el cáncer y liberar energía.
Díganos lo que piensa, comparta con nosotros sus intentos de humor con IA en Xy sigue enviándonos esos enlaces de noticias sobre IA.