Alguns dos nomes mais proeminentes da Big Tech juntaram-se para fundar a Coalition for Secure AI (CoSAI).
Ainda não existe uma norma global para práticas seguras de desenvolvimento de IA, com as actuais medidas de segurança da IA fragmentadas e muitas vezes mantidas internamente pelas empresas que criam modelos de IA.
A CoSAI é uma iniciativa de código aberto acolhida pelo organismo de normalização global OASIS que visa normalizar e partilhar as melhores práticas relacionadas com o desenvolvimento e a implementação seguros da IA.
Os nomes das grandes empresas de tecnologia que apoiam a iniciativa incluem a Google, IBM, Intel, Microsoft, NVIDIA e PayPal. Outros patrocinadores fundadores incluem a Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI e Wiz.
Nomeadamente a Apple e a Meta estão ausentes.
O objetivo da CoSAI é desenvolver e partilhar medidas de segurança abrangentes que abordem os riscos, incluindo
- roubar o modelo
- envenenamento dos dados de formação
- injeção de entradas maliciosas através de injeção imediata
- prevenção de abusos em escala
- ataques de inferência de filiação
- ataques de inversão de modelos ou ataques de inversão de gradientes para inferir informações privadas
- extrair informações confidenciais dos dados de formação
Carta do CoSAI diz que o "projeto não prevê que os seguintes tópicos sejam abrangidos: desinformação, alucinações, conteúdos de ódio ou abusivos, preconceitos, geração de malware, geração de conteúdos de phishing ou outros tópicos no domínio da segurança de conteúdos".
A Google já tem o seu Google Secure AI Framework (SAIF) e a OpenAI tem o seu projeto de alinhamento em dificuldades. No entanto, até ao CoSAI não existia um fórum para combinar as melhores práticas de segurança da IA que os intervenientes do sector desenvolveram de forma independente.
Vimos pequenas empresas em fase de arranque como Mistral experimentam subidas meteóricas com os modelos de IA que produziram, mas muitas destas empresas mais pequenas não têm os recursos necessários para financiar equipas de segurança de IA.
O CoSAI será uma valiosa fonte gratuita de melhores práticas de segurança da IA para pequenos e grandes intervenientes no sector.
Heather Adkins, vice-presidente e responsável pela resiliência em matéria de cibersegurança na Google, afirmou: "Utilizamos a IA há muitos anos e vemos o seu potencial contínuo para os defensores, mas também reconhecemos as suas oportunidades para os adversários.
"A CoSAI ajudará as organizações, grandes e pequenas, a integrar a IA de forma segura e responsável, ajudando-as a aproveitar os seus benefícios e a mitigar os riscos."
Nick Hamilton, Chefe de Governança, Risco e Conformidade da OpenAI disse: "Desenvolver e implantar tecnologias de IA que sejam seguras e confiáveis é fundamental para a missão da OpenAI.
"Acreditamos que o desenvolvimento de normas e práticas sólidas é essencial para garantir a utilização segura e responsável da IA e estamos empenhados em colaborar com todo o sector para o fazer.
"Através da nossa participação na CoSAI, pretendemos contribuir com a nossa experiência e recursos para ajudar a criar um ecossistema de IA seguro que beneficie todos."
Esperemos que as pessoas gostem Ilya Sutskever e outros que partiram OpenAI devido a preocupações de segurança dar o seu contributo voluntário à CoSAI.