Mais de 100 especialistas em IA emitiram uma carta aberta exigindo que as empresas responsáveis pelas tecnologias de IA generativa, como a OpenAI, a Meta e outras, abram as suas portas a testes independentes.
A sua mensagem é clara: os termos e condições dos programadores de IA estão a limitar os esforços de investigação independente sobre a segurança das ferramentas de IA.
Os co-signatários são peritos de renome, como Percy Liang, de Stanford, Julia Angwin, vencedora do Prémio Pulitzer, Renée DiResta, do Observatório da Internet de Stanford, Deb Raji, bolseira da Mozilla, Marietje Schaake, ex-deputada do Parlamento Europeu, e Suresh Venkatasubramanian, da Universidade de Brown.
Os investigadores defendem que as lições da era das redes sociais, em que a investigação independente foi frequentemente marginalizada, não devem ser repetidas.
Para combater este risco, pedem que a OpenAI, a Meta, a Anthropic, a Google, a Midjourney e outras entidades criem um espaço jurídico e técnico seguro para que os investigadores possam avaliar os produtos de IA sem receio de serem processados ou proibidos.
A carta diz: "Embora os termos de serviço das empresas impeçam a utilização maliciosa, também não oferecem qualquer isenção para a investigação independente de boa fé, deixando os investigadores em risco de suspensão da conta ou mesmo de represálias legais."
As ferramentas de IA impõem políticas de utilização rigorosas para evitar que sejam manipuladas de forma a contornar as suas protecções. Por exemplo, a OpenAI marcou recentemente os esforços de investigação da New York Times como "hacking"," e a Meta ameaçou retirar as licenças devido a litígios em matéria de propriedade intelectual.
Um estudo recente sondado a meio da viagem para revelar numerosos casos de violação dos direitos de autor, o que teria sido contrário aos T&C da empresa.
O problema é que, uma vez que as ferramentas de IA são em grande parte imprevisíveis, dependem das pessoas que as utilizam de uma forma específica para permanecerem "seguras".
No entanto, essas mesmas políticas dificultam a investigação e a compreensão dos modelos por parte dos investigadores.
A carta, publicado no sítio Web do MIT, faz dois apelos:
1. "Em primeiro lugar, um porto seguro legal indemnizaria a investigação independente e de boa fé sobre segurança e fiabilidade da IA, desde que conduzida de acordo com regras bem estabelecidas de divulgação de vulnerabilidades."
2. "Em segundo lugar, as empresas devem comprometer-se com um acesso mais equitativo, recorrendo a revisores independentes para moderar os pedidos de avaliação dos investigadores, o que protegeria a investigação de segurança que cumpre as regras de suspensões de contas contraproducentes e atenuaria a preocupação das empresas que seleccionam os seus próprios avaliadores."
A carta também apresenta uma proposta política, co-elaborada por alguns signatários, que sugere modificações nos termos de serviço das empresas para acomodar a investigação académica e de segurança.
Isto contribui para alargar o consenso sobre os riscos associados à IA generativa, incluindo a parcialidade, a violação de direitos de autor e a criação de imagens íntimas não consentidas.
Ao defenderem um "porto seguro" para a avaliação independente, estes peritos estão a defender a causa do interesse público, com o objetivo de criar um ecossistema onde as tecnologias de IA possam ser desenvolvidas e implantadas de forma responsável, com o bem-estar da sociedade em primeiro plano.