OpenAI ha anunciado el lanzamiento de su Programa de ayudas a la ciberseguridad dotado con $1 millones de eurosuna iniciativa destinada a infundir la ciberseguridad con la IA y promover el discurso sobre el papel de la IA en la ciberseguridad.
La iniciativa persigue tres objetivos fundamentales:
- Capacitar a los defensores: OpenAI pretende dotar a los defensores (organizaciones y servicios centrados en la protección de sistemas) de capacidades avanzadas de IA.
- Medir el impacto: Pretenden medir la eficacia de la IA en la ciberseguridad.
- Promover el discurso: OpenAI pretende utilizar el plan para fomentar el debate en torno a la interacción entre la IA y la ciberseguridad, incluidas las oportunidades y los retos.
OpenAI ha propuesto varias ideas de proyectos, como la recopilación y etiquetado de datos para entrenar a agentes de ciberseguridad, la detección y mitigación de tácticas de ingeniería social, la aplicación automatizada de parches de vulnerabilidad, la identificación de problemas de seguridad en el código fuente y la asistencia a análisis forenses de redes o dispositivos.
La subvención de $1 millón se concederá en incrementos de $10.000 mediante créditos API o financiación directa. La empresa declaró que dará prioridad a las aplicaciones que se licencien y distribuyan para "el máximo beneficio público y compartición".
Subvenciones e iniciativas de OpenAI
No es la primera vez que OpenAI ofrece importantes subvenciones a cambio de aportaciones públicas.
El 25 de mayo, la empresa anunció diez $100.000 subvenciones para diseñar procesos democráticos que determinen cómo deben funcionar los sistemas de IA. Un sistema así democratizaría el control de la IA, permitiendo a personas de diversos orígenes votar sobre cómo debe funcionar para ellos y para la sociedad en su conjunto.
Algunos ejemplos de preguntas para las que OpenAI busca respuestas son:
- "¿Hasta dónde cree que debería llegar la personalización de asistentes de IA como ChatGPT para alinearse con los gustos y preferencias del usuario?
- ¿Qué límites, si los hay, deben existir en este proceso?
- ¿Cómo deben responder los asistentes de IA a las preguntas sobre puntos de vista de personajes públicos? Por ejemplo, ¿deben ser neutrales? ¿Deben negarse a responder? ¿Deben proporcionar fuentes de algún tipo?
- ¿En qué condiciones, en su caso, se debería permitir a los asistentes de IA proporcionar asesoramiento médico/financiero/legal?".
OpenAI es consciente de su papel en la configuración de la tecnología de IA, y su director ejecutivo, Sam Altman, ha advertido abiertamente al público de los riesgos que presenta la IA.
La voluntad de la empresa de invitar a la colaboración pública es admirable. Sin embargo, ponerse de acuerdo en asuntos como la democratización de la IA exigirá una estrecha cooperación entre OpenAI, Google, Anthropic y otros protagonistas del sector, lo que supone una prueba totalmente distinta.