Bienvenido al resumen de noticias sobre IA generada por humanos de esta semana.
Esta semana, la IA ha erosionado nuestra confianza a pesar de que parece que no nos cansamos de ella.
Actores, programadores y pilotos de caza podrían perder su trabajo a manos de la IA.
Y los científicos juran con el dedo meñique no utilizar la IA para fabricar proteínas malas.
Profundicemos.
Confiar pero verificar
La confianza de la sociedad en la IA sigue disminuyendo a pesar de que la adopción de herramientas de IA generativa crece a un ritmo frenético. ¿Por qué estamos tan dispuestos a adoptar una tecnología a pesar de nuestros temores sobre cómo configurará nuestro futuro? ¿Qué hay detrás de esta desconfianza y puede solucionarse?
La exploración de Sam disonancia entre la creciente desconfianza y el aumento de usuarios de la IA generativa nos ayuda a analizar con honestidad nuestra conflictiva relación con la IA.
Una de las razones del escepticismo ante la IA son las opiniones alarmistas pregonadas por algunos sectores de la industria. Un informe encargado por el gobierno estadounidense afirma que La IA supone una "amenaza de extinción" para nuestra especie.
El informe recomienda prohibir los modelos de código abierto, mientras los defensores de la IA abierta tachan el informe de alarmismo científico.
Esta semana las noticias sobre inteligencia artificial no han sido muy abundantes. La Princesa de Gales Kate Middleton fue víctima de una profunda controversia sobre las imágenes falsas sobre su edición demasiado entusiasta de una foto de ella y los niños.
La indignación de los medios de comunicación por una foto editada de un famoso es un poco hipócrita, pero quizá sea bueno que la sociedad esté cada vez más sensibilizada con lo que es real y lo que no. ¿Progreso?
No soy un experto, pero creo seriamente que el #KateMiddleton la foto es falsapic.twitter.com/CfMJM9XZfW
- Zain Rajpoot (@ZAIN_MZQ) 11 de marzo de 2024
AI jobs counter-strike
La industria del videojuego se ha apresurado a adoptar la IA, pero los actores y locutores no están contentos con la situación. SAG-AFTRA dice ahora que es "50-50 o más probable" que huelga por las negociaciones sobre videojuegos.
Jugar a un simulador de vuelo puede ser lo más cerca que los pilotos de combate estén pronto de la realidad, a medida que la perspectiva de que la IA les sustituya se hace realidad. El Pentágono planea tener el primero de 1.000 mini cazas fantasma pilotados por IA construido en los próximos meses.
Enjambres de cazas autónomos armados con misiles y dirigidos por una IA propensa a las alucinaciones. ¿Qué podría salir mal?
Emad Mostaque, Consejero Delegado de Stability AI, sorprendió al afirmar que en los próximos años no se necesitarán programadores humanos. Su audaz afirmación parece cada vez más probable.
Esta semana Cognition AI ha anunciado Devin, un desarrollador autónomo de software de IA que puede completar proyectos de codificación enteros a partir de instrucciones de texto. Devin puede incluso configurar y ajustar de forma autónoma otros modelos de IA.
No sé lo suficiente sobre #devinpero me hace gracia que el primer ingeniero de software de IA busque nuevos ingenieros de software. #SoftwareIngeniería pic.twitter.com/zKsI2FVA51
- Marcel (@MarcelNdrecaj) 12 de marzo de 2024
Quizá haya que aclarar la afirmación de Mostaque. Pronto no habrá necesidad de humanos que sepan escribir código, sino que herramientas como Devin permitirán a cualquiera ser programador.
Si eres un actor, piloto de caza o programador en paro que busca trabajo en el campo de la IA, aquí tienes algunas de las mejores universidades para estudiar IA en 2024.
La seguridad ante todo
Herramientas de IA como AlphaFold de DeepMind han acelerado el diseño de nuevas proteínas. Cómo nos aseguramos de que estas herramientas no se utilicen para crear nuevas proteínas que podrían destinarse a usos malintencionados?
Los investigadores han creado un conjunto de normas de seguridad voluntarias para el diseño de proteínas de IA y la síntesis de ADNcon algunos nombres notables que han firmado para apoyarla.
Uno de los compromisos es utilizar únicamente laboratorios de síntesis de ADN que comprueben si la proteína es peligrosa antes de fabricarla. ¿Significa eso que algunos laboratorios no lo hacen? ¿Qué laboratorios cree que es probable que utilicen los malos?
Un equipo de investigadores ha desarrollado un parámetro para medir la probabilidad de que un LLM ayude a un malhechor a fabricar una bomba o un arma biológica. Su nueva técnica ayuda al modelo de IA a desaprender conocimientos peligrosos conservando lo bueno. Bueno, casi.
Los modelos alineados rechazarán educadamente tu petición de ayuda para fabricar una bomba. Si usted utilizar el arte ASCII para hacer las palabras traviesas y una hábil técnica de avisos se pueden eludir fácilmente estos guardarraíles.
IA en forma de corazón
Los investigadores utilizaron la IA para explorar cómo influye la genética en la morfología del corazón de una persona. Crear mapas tridimensionales del corazón y vincularlos a la genética será una ayuda importante para los cardiólogos.
Investigadores de la Clínica Mayo desarrollan "IA basada en hipótesis" para la oncología. El nuevo enfoque va más allá del simple análisis de big data al generar hipótesis que luego pueden validarse basándose en el conocimiento del dominio.
Esto podría ser muy importante para probar hipótesis médicas y predecir y explicar cómo responderán los pacientes a los tratamientos contra el cáncer.
En otras noticias...
Estas son algunas de las historias sobre inteligencia artificial que nos han gustado esta semana:
- Los autores demandan a NVIDIA sobre el uso de obras protegidas por derechos de autor
- Modelo de base robótica RFM-1 dota a los robots de capacidades de razonamiento similares a las humanas
- Sam Altman se reincorpora al consejo de OpenAI junto con nuevos miembros.
- Nuevo modelo de control de robots de DeepMind y Stanford sigue instrucciones a partir de bocetos.
- Google afirma que su nueva El teléfono Pixel 8 no puede ejecutar sus últimos modelos de IA para smartphones. ¿No era ese el objetivo de estos teléfonos?
- El robot Figure-01 muestra sus habilidades de interacción con OpenAI.
OpenAI + Figura
conversaciones con humanos, en redes neuronales de extremo a extremo:
→ OpenAI proporciona razonamiento visual y comprensión del lenguaje.
→ Las redes neuronales de Figure están proporcionando acciones robóticas rápidas, de bajo nivel y diestras.(hilo de abajo)pic.twitter.com/trOV2xBoax
- Brett Adcock (@adcock_brett) 13 de marzo de 2024
Y eso es todo.
¿Confías más o menos en la inteligencia artificial a medida que se integra en tu vida cotidiana? Un enfoque más escéptico es probablemente una apuesta más segura, pero los agoreros se están volviendo un poco cansinos.
¿Qué le parece que los aviones de combate pilotados por la IA sustituyan a los pilotos humanos? Estoy deseando ver la maniobrabilidad de estas máquinas, pero la idea de un fallo de la IA unido a los misiles es desconcertante.
Estoy un poco decepcionado porque la única noticia falsa de AI que tuvimos esta semana fue el "Jerseygate" real, pero supongo que debemos ver esto como un progreso. Estoy seguro de que el servicio normal se reanudará la semana que viene, cuando se calienten las elecciones.
Háganos saber qué avances en IA le han llamado la atención esta semana y envíenos enlaces a cualquier noticia o investigación interesante sobre IA que hayamos pasado por alto.