A OpenAI anunciou o lançamento do seu Programa de subvenções à cibersegurança no valor de $1 milhõesuma iniciativa destinada a integrar a cibersegurança na IA e a promover o debate sobre o papel da IA na cibersegurança.
A iniciativa foi concebida para atingir três objectivos principais:
- Capacitar os defensores: A OpenAI pretende equipar os defensores (organizações e serviços centrados na proteção de sistemas) com capacidades avançadas de IA.
- Medir o impacto: Pretendem medir a eficácia da IA na cibersegurança.
- Promover o discurso: A OpenAI pretende utilizar o sistema para incentivar o debate sobre a interação entre a IA e a cibersegurança, incluindo as oportunidades e os desafios.
A OpenAI propôs várias ideias de projectos, incluindo a recolha e rotulagem de dados para treinar agentes de cibersegurança, a deteção e atenuação de tácticas de engenharia social, a correção automatizada de vulnerabilidades, a identificação de problemas de segurança no código-fonte e a assistência à investigação forense de redes ou dispositivos.
O subsídio de $1 milhão será concedido em incrementos de $10.000 através de créditos API ou financiamento direto. A empresa declarou que dará prioridade às aplicações que são licenciadas e distribuídas para "maximizar o benefício público e a partilha".
Subvenções e iniciativas da OpenAI
Esta não é a primeira vez que a OpenAI oferece subsídios substanciais em troca de contributos do público.
Em 25 de maio, a empresa anunciou dez $100.000 subvenções para a conceção de processos democráticos que determinem a forma como os sistemas de IA devem funcionar. Um sistema deste tipo democratizaria o controlo sobre a IA, permitindo que pessoas de diversas origens votassem sobre a forma como esta deveria funcionar para elas - e para a sociedade em geral.
Alguns exemplos de perguntas para as quais a OpenAI está a procurar respostas incluem:
- "Até onde acha que deve ir a personalização dos assistentes de IA, como o ChatGPT, para se alinharem com os gostos e preferências de um utilizador?
- Que limites, se é que existem, devem existir neste processo?
- Como é que os assistentes de IA devem responder a perguntas sobre pontos de vista de figuras públicas? Por exemplo, devem ser neutros? Devem recusar-se a responder? Devem fornecer fontes de algum tipo?
- Em que condições, se for caso disso, devem os assistentes de IA ser autorizados a prestar aconselhamento médico/financeiro/jurídico?"
A OpenAI está consciente do seu papel na formação da tecnologia de IA e o seu diretor executivo, Sam Altman, tem vindo a alertar abertamente o público para os riscos que a IA apresenta.
A vontade da empresa de convidar a colaboração pública é admirável. No entanto, chegar a acordo sobre questões como a democratização da IA exigirá uma cooperação estreita entre a OpenAI, a Google, a Anthropic e outros protagonistas do sector, o que constitui um teste completamente diferente.