OpenAI revela programa de subvenções para cibersegurança no valor de $1M

3 de junho de 2023

Cibersegurança da IA aberta

A OpenAI anunciou o lançamento do seu Programa de subvenções à cibersegurança no valor de $1 milhõesuma iniciativa destinada a integrar a cibersegurança na IA e a promover o debate sobre o papel da IA na cibersegurança.

A iniciativa foi concebida para atingir três objectivos principais:

  • Capacitar os defensores: A OpenAI pretende equipar os defensores (organizações e serviços centrados na proteção de sistemas) com capacidades avançadas de IA. 
  • Medir o impacto: Pretendem medir a eficácia da IA na cibersegurança. 
  • Promover o discurso: A OpenAI pretende utilizar o sistema para incentivar o debate sobre a interação entre a IA e a cibersegurança, incluindo as oportunidades e os desafios. 

A OpenAI propôs várias ideias de projectos, incluindo a recolha e rotulagem de dados para treinar agentes de cibersegurança, a deteção e atenuação de tácticas de engenharia social, a correção automatizada de vulnerabilidades, a identificação de problemas de segurança no código-fonte e a assistência à investigação forense de redes ou dispositivos.

O subsídio de $1 milhão será concedido em incrementos de $10.000 através de créditos API ou financiamento direto. A empresa declarou que dará prioridade às aplicações que são licenciadas e distribuídas para "maximizar o benefício público e a partilha".

Subvenções e iniciativas da OpenAI 

Esta não é a primeira vez que a OpenAI oferece subsídios substanciais em troca de contributos do público. 

Em 25 de maio, a empresa anunciou dez $100.000 subvenções para a conceção de processos democráticos que determinem a forma como os sistemas de IA devem funcionar. Um sistema deste tipo democratizaria o controlo sobre a IA, permitindo que pessoas de diversas origens votassem sobre a forma como esta deveria funcionar para elas - e para a sociedade em geral. 

Alguns exemplos de perguntas para as quais a OpenAI está a procurar respostas incluem:

  • "Até onde acha que deve ir a personalização dos assistentes de IA, como o ChatGPT, para se alinharem com os gostos e preferências de um utilizador? 
  • Que limites, se é que existem, devem existir neste processo?
  • Como é que os assistentes de IA devem responder a perguntas sobre pontos de vista de figuras públicas? Por exemplo, devem ser neutros? Devem recusar-se a responder? Devem fornecer fontes de algum tipo?
  • Em que condições, se for caso disso, devem os assistentes de IA ser autorizados a prestar aconselhamento médico/financeiro/jurídico?"

A OpenAI está consciente do seu papel na formação da tecnologia de IA e o seu diretor executivo, Sam Altman, tem vindo a alertar abertamente o público para os riscos que a IA apresenta. 

A vontade da empresa de convidar a colaboração pública é admirável. No entanto, chegar a acordo sobre questões como a democratização da IA exigirá uma cooperação estreita entre a OpenAI, a Google, a Anthropic e outros protagonistas do sector, o que constitui um teste completamente diferente.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições