As câmaras alimentadas por IA suscitam preocupações de privacidade à medida que a sua utilização aumenta

17 de junho de 2024

  • Documentos revelam programas-piloto de reconhecimento facial em oito grandes estações de comboios do Reino Unido
  • A tecnologia de reconhecimento facial poderá ser utilizada para analisar as emoções e as acções das pessoas
  • Os defensores da privacidade alertam para o facto de esta medida infringir os direitos civis dos cidadãos
Vigilância por IA

Uma nova vaga de vigilância com recurso a IA está a espalhar-se pelos EUA e pelo Reino Unido, à medida que empresas privadas e agências governamentais instalam câmaras com recurso a IA para analisar multidões, detetar potenciais crimes e até monitorizar os estados emocionais das pessoas em espaços públicos.

No Reino Unido, a Network Rail, organismo responsável pelas infra-estruturas ferroviárias, testou recentemente câmaras de IA em oito estações de comboios, incluindo grandes centros como as estações londrinas de Waterloo e Euston, bem como Manchester Piccadilly. 

Documentos obtido pelo grupo das liberdades civis Big Brother Ver revelam que as câmaras se destinam a detetar a invasão das vias, a sobrelotação das plataformas, "comportamentos anti-sociais" como andar de skate e fumar, e potenciais roubos de bicicletas.

O mais preocupante é que o sistema de IA, alimentado pelo software Rekognition da Amazon, procurava analisar a idade, o género e as emoções das pessoas, como a felicidade, a tristeza e a raiva, quando estas passavam por "fios de tropeçar" virtuais junto às barreiras dos bilhetes. 

O relatório da Network Rail, parte do qual está redigido, diz que havia "uma câmara em cada estação (geralmente a câmara da linha de entrada), onde era tirada uma fotografia a cada segundo sempre que as pessoas atravessavam o fio e enviada para análise pelo AWS Rekognition".

Em seguida, diz: "Potencialmente, a métrica da emoção do cliente poderia ser utilizada para medir a satisfação" e "Estes dados poderiam ser utilizados para maximizar a publicidade e as receitas de retalho. No entanto, isto era difícil de quantificar, uma vez que as propriedades NR nunca foram envolvidas com sucesso".

O Amazon Rekogniton, uma plataforma de aprendizagem automática de visão por computador (CV) da Amazon, consegue efetivamente detetar emoções. No entanto, este foi apenas um teste piloto e a sua eficácia não é clara.

O relatório refere que, quando se utilizaram câmaras para contar as pessoas que atravessavam as portas dos caminhos-de-ferro, "a precisão entre as linhas das portas foi uniformemente fraca, com uma média de precisão de aproximadamente 50% a 60% em comparação com a contagem manual", mas espera-se que esta situação melhore. 

A utilização da tecnologia de reconhecimento facial pelas autoridades policiais também tem suscitado preocupações. Há pouco tempo, a Polícia Metropolitana de Londres utilizou câmaras de reconhecimento facial em direto para identificar e prender 17 indivíduos nas zonas de Croydon e Tooting, na cidade. 

A tecnologia compara as imagens das câmaras em direto com uma lista de pessoas com mandados de captura pendentes, como parte do "policiamento de precisão".

Em fevereiro, o Met utilizou o sistema para efetuar 42 detenções, embora não se saiba quantas delas deram origem a acusações formais. 

"O lançamento e a normalização da vigilância por IA nestes espaços públicos, sem muita consulta e conversa, é um passo bastante preocupante", comentou Jake Hurfurt, diretor de investigação da Big Brother Watch.

As suas emoções numa base de dados

Os críticos têm argumentado veementemente que o reconhecimento facial ameaça as liberdades civis. 

Membros do Parlamento no Reino Unido instou a polícia a reconsiderar a forma como utilizam a tecnologia, depois de terem sugerido que poderiam aceder a uma base de dados de 45 milhões de fotografias de passaportes para treinar melhor estes modelos de vigilância. 

Os peritos também questionam a exatidão e a base jurídica do reconhecimento facial, com Big Brother Ver discutir que a maioria (85%+) das correspondências de reconhecimento facial da polícia britânica são identificações incorrectas. 

Os funcionários da Met Police tentaram dissipar os receios em relação à privacidade, afirmando que as imagens que não correspondem são rapidamente apagadas e que o sistema de reconhecimento facial foi objeto de uma auditoria independente. 

No entanto, não vale a pena falar quando a má utilização destes sistemas de IA tem um verdadeiro impacto na vida das pessoas. Programas de policiamento preditivo na US também não conseguiram, em geral, atingir os seus objectivos, causando danos colaterais sob a forma de perseguição policial e detenções indevidas. 

As preocupações com o preconceito e a imprecisão dos sistemas de reconhecimento facial, especialmente para as pessoas de cor, têm sido um dos principais pontos de discórdia. 

Estudos demonstraram que a tecnologia pode ser significativamente menos exacta para rostos de pele mais escura, particularmente para mulheres negras.

Os decisores políticos terão de se confrontar com questões difíceis sobre a transparência, a responsabilidade e a regulamentação destes poderosos instrumentos. 

Um debate público sólido e quadros jurídicos claros serão fundamentais para garantir que os benefícios da IA na segurança pública não sejam ultrapassados pelos riscos para os direitos individuais e os valores democráticos. 

Como a tecnologia avança a toda a velocidade, o tempo para esse ajuste de contas pode ser curto.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições