Um traficante de droga em Nova Iorque foi detido depois de um sistema de vigilância alimentado por IA ter assinalado os seus padrões de condução como suspeitos.
David Zayas foi detido em março de 2022, mas só recentemente é que a utilização da vigilância por IA veio a lume, quando o seu advogado apresentou um pedido FOIA. O Departamento de Polícia do Condado de Westchester tem estado a utilizar Software Rekor Scout que recolhe dados das câmaras de reconhecimento automático de matrículas (ALPR) e verifica se há comportamentos de condução suspeitos.
Sem a IA, é pouco provável que Zayas tivesse sido detido. Na altura, ele estava a conduzir o carro de uma forma que não teria atraído a atenção das forças da ordem. Mas a IA apercebeu-se de algo que nenhum polícia poderia.
As 480 câmaras ALPR que a polícia de Westchester utiliza analisam aproximadamente 16 milhões de matrículas por semana. O software da Rekor passou a pente fino dois anos desses dados e assinalou o veículo em que Zayas viajava como suspeito.
Identificou que, durante um período de 10 meses em 2020 e 2021, o veículo tinha efectuado 9 viagens ao longo de uma rota conhecida de tráfico de droga.
Quando os polícias agiram com base na informação da IA e o mandaram parar, encontraram drogas, uma arma e milhares de dólares no veículo. Apanhado.
A vigilância por IA levanta questões de privacidade
Zayas declarou-se culpado e o envolvimento da AI na sua detenção não teria sido notícia se não fosse o seu advogado, Ben Gold, que apresentou uma moção para suprimir as provas.
Na sua moção, Gold afirmou: "Trata-se do desenvolvimento sistemático e da implantação de uma vasta rede de vigilância que invade a expetativa razoável de privacidade da sociedade".
As câmaras ALPR não são uma tecnologia nova. Há anos que existem, verificando as matrículas com base numa lista de matrículas assinaladas e informando os polícias quando detectam uma. O que é novo é o que um software de IA como o Rekor Scout pode fazer com essa informação.
O software regista cada carro pela matrícula, cor e modelo, e sabe onde esteve, desde que a polícia tenha guardado os dados. Identificar um padrão de condução como atividade suspeita de droga parece bom, mas os meios para obter os dados parecem invasivos.
É como parar e revistar toda a gente que anda na rua para apanhar um criminoso. Queremos que o bandido seja apanhado, mas não se isso significar que todos temos de abrir os nossos bolsos.
As instituições do Estado têm estado numa situação de pressa em regulamentar o que consideram ser os perigos da IA, mas parecem estar menos preocupados com a ética da utilização da IA na aplicação da lei.
À medida que mais grupos de direitos civis divulgam como A IA está a observar-nos no metro ou enquanto conduzimos, parece que a IA tem estado a observar-nos há mais tempo do que pensamos. E é pouco provável que abrande.