O Frontier Safety Framework da Google atenua os riscos "graves" da IA

20 de maio de 2024

  • A Google publicou a primeira versão do seu Frontier Safety Framework
  • Os protocolos destinam-se a fazer face a potenciais riscos graves que os futuros modelos de fronteira apresentam
  • O quadro define "níveis críticos de capacidade" a partir dos quais os modelos podem representar um risco acrescido

A Google publicou a primeira versão do seu Frontier Safety Framework, um conjunto de protocolos que visam fazer face aos graves riscos que os poderosos modelos de IA de fronteira do futuro podem apresentar.

O quadro define os níveis críticos de capacidade (CCL), que são limiares a partir dos quais os modelos podem representar um risco acrescido sem atenuação adicional.

Em seguida, estabelece diferentes níveis de atenuações para tratar os modelos que violam estes CCL. As atenuações dividem-se em duas categorias principais:

  • Atenuações de segurança - Evitar a exposição dos pesos de um modelo que atinge os CCL
  • Reduções de implantação - Prevenir a utilização abusiva de um modelo implantado que atinge os CCL

O lançamento da estrutura do Google ocorre na mesma semana em que OpenAIAs equipas de segurança do superalinhamento da UE desmoronaram-se.

A Google parece estar a levar a sério os potenciais riscos da IA e afirmou: "As nossas análises preliminares dos domínios de I&D de Autonomia, Biossegurança, Cibersegurança e Aprendizagem Automática. A nossa investigação inicial indica que as capacidades poderosas dos modelos futuros parecem mais susceptíveis de representar riscos nestes domínios".

Os CCLs que o quadro aborda são:

  • Autonomia - Um modelo que pode expandir as suas capacidades "adquirindo recursos de forma autónoma e utilizando-os para executar e manter cópias adicionais de si próprio em hardware alugado".
  • Biossegurança - Um modelo capaz de permitir de forma significativa que um perito ou não perito desenvolva ameaças biológicas conhecidas ou novas.
  • Cibersegurança - Um modelo capaz de automatizar totalmente os ciberataques ou de permitir que um amador efectue ataques sofisticados e graves.
  • I&D em aprendizagem automática - Um modelo que poderia acelerar ou automatizar significativamente a investigação em IA num laboratório de ponta.

O CCL da autonomia é particularmente preocupante. Já todos vimos os filmes de ficção científica em que a IA assume o controlo, mas agora é a Google a dizer que é necessário trabalho futuro para proteger "contra o risco de os sistemas agirem de forma adversa contra os humanos".

A abordagem da Google consiste em rever periodicamente os seus modelos utilizando um conjunto de "avaliações de alerta precoce" que assinala um modelo que pode estar a aproximar-se dos CCL.

Quando um modelo apresenta sinais precoces destas capacidades críticas, as medidas de atenuação são aplicadas.

A relação entre os diferentes componentes do Quadro. Fonte: Google

Uma observação interessante no quadro é o facto de a Google afirmar que "um modelo pode atingir limiares de avaliação antes de estarem prontas as atenuações a níveis adequados".

Assim, um modelo em desenvolvimento pode apresentar capacidades críticas que podem ser utilizadas indevidamente e a Google pode ainda não ter uma forma de o evitar. Neste caso, a Google afirma que o desenvolvimento do modelo será suspenso.

Talvez possamos sentir algum conforto pelo facto de a Google parecer estar a levar a sério os riscos da IA. Será que estão a ser demasiado cautelosos ou será que vale a pena preocuparmo-nos com os potenciais riscos que o quadro enumera?

Esperemos que não o descubramos demasiado tarde. A Google afirma: "O nosso objetivo é ter esta estrutura inicial implementada no início de 2025, o que prevemos que seja muito antes de estes riscos se materializarem."

Se já está preocupado com os riscos da IA, leitura do quadro só vai aumentar esses receios.

O documento refere que o quadro "evoluirá substancialmente à medida que melhorarmos a nossa compreensão dos riscos e benefícios dos modelos de fronteira" e que "há uma margem significativa para melhorar a compreensão dos riscos colocados pelos modelos em diferentes domínios"

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições