OpenAI presenta un programa de becas de ciberseguridad dotado con $1M

3 de junio de 2023

Ciberseguridad de la IA abierta

OpenAI ha anunciado el lanzamiento de su Programa de ayudas a la ciberseguridad dotado con $1 millones de eurosuna iniciativa destinada a infundir la ciberseguridad con la IA y promover el discurso sobre el papel de la IA en la ciberseguridad.

La iniciativa persigue tres objetivos fundamentales:

  • Capacitar a los defensores: OpenAI pretende dotar a los defensores (organizaciones y servicios centrados en la protección de sistemas) de capacidades avanzadas de IA. 
  • Medir el impacto: Pretenden medir la eficacia de la IA en la ciberseguridad. 
  • Promover el discurso: OpenAI pretende utilizar el plan para fomentar el debate en torno a la interacción entre la IA y la ciberseguridad, incluidas las oportunidades y los retos. 

OpenAI ha propuesto varias ideas de proyectos, como la recopilación y etiquetado de datos para entrenar a agentes de ciberseguridad, la detección y mitigación de tácticas de ingeniería social, la aplicación automatizada de parches de vulnerabilidad, la identificación de problemas de seguridad en el código fuente y la asistencia a análisis forenses de redes o dispositivos.

La subvención de $1 millón se concederá en incrementos de $10.000 mediante créditos API o financiación directa. La empresa declaró que dará prioridad a las aplicaciones que se licencien y distribuyan para "el máximo beneficio público y compartición".

Subvenciones e iniciativas de OpenAI 

No es la primera vez que OpenAI ofrece importantes subvenciones a cambio de aportaciones públicas. 

El 25 de mayo, la empresa anunció diez $100.000 subvenciones para diseñar procesos democráticos que determinen cómo deben funcionar los sistemas de IA. Un sistema así democratizaría el control de la IA, permitiendo a personas de diversos orígenes votar sobre cómo debe funcionar para ellos y para la sociedad en su conjunto. 

Algunos ejemplos de preguntas para las que OpenAI busca respuestas son:

  • "¿Hasta dónde cree que debería llegar la personalización de asistentes de IA como ChatGPT para alinearse con los gustos y preferencias del usuario? 
  • ¿Qué límites, si los hay, deben existir en este proceso?
  • ¿Cómo deben responder los asistentes de IA a las preguntas sobre puntos de vista de personajes públicos? Por ejemplo, ¿deben ser neutrales? ¿Deben negarse a responder? ¿Deben proporcionar fuentes de algún tipo?
  • ¿En qué condiciones, en su caso, se debería permitir a los asistentes de IA proporcionar asesoramiento médico/financiero/legal?".

OpenAI es consciente de su papel en la configuración de la tecnología de IA, y su director ejecutivo, Sam Altman, ha advertido abiertamente al público de los riesgos que presenta la IA. 

La voluntad de la empresa de invitar a la colaboración pública es admirable. Sin embargo, ponerse de acuerdo en asuntos como la democratización de la IA exigirá una estrecha cooperación entre OpenAI, Google, Anthropic y otros protagonistas del sector, lo que supone una prueba totalmente distinta.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales