Num entrevista à Fox NewsHaywood Talcove, diretor executivo da divisão governamental da LexisNexis Risk Solutions, afirma que a fraude relacionada com a IA poderá custar aos contribuintes centenas de milhares de milhões a $1 trilião no próximo ano.
Talcove disse que a LexisNexis Risk Solutions encontrou situações em que as falsificações profundas de IA foram utilizadas para defraudar agências governamentais e estatais. Por exemplo, os autores de fraudes alegadamente utilizam técnicas de falsificação profunda para extrair dinheiro dos utilizadores da Segurança Social, Medicare e Medicaid.
"O facto de sermos um dos países mais ricos do mundo faz de nós um grande alvo", disse Talcove à Fox News. "A quantidade de dinheiro que vamos perder nos próximos 12 meses, se não fizermos nada, vai fazer com que a pandemia de COVID pareça uma brincadeira de crianças."
Praticamente todas as pessoas com presença em linha são susceptíveis de serem vítimas de burlas assistidas por IA. Há casos de burlões que utilizam vozes, imagens e até vídeos falsos para se fazerem passar por outras pessoas. Os analistas consideraram que este é um dos pontos fortes da tecnologia riscos mais imediatos.
O O FBI advertiu recentemente sobre a sextorção informática e a pornografia de vingança, em que os autores de fraudes geram imagens explícitas falsas para pedir um resgate às pessoas.
Estas técnicas enganosas podem ser alargadas a quase tudo, como a associação de pessoas a material extremista ou a actividades criminosas.
"A tecnologia de IA já está tão avançada que, se alguma das suas informações estiver disponível na Web ou nas redes sociais, pode ser utilizada para criar um modelo de IA generativo e contornar a maioria dos sistemas de autenticação desactualizados do governo", alertou Talcove.
Talcove sublinhou a necessidade de agir: "Suspeito que nos próximos 12 meses, se o governo não reagir rapidamente, vamos perder mais de $1 trilião para estes grupos criminosos, alguns dos quais estão localizados fora do país".
Em resposta ao que é necessário fazer para evitar a fraude com IA, Talcove afirmou sinistramente: "Já é demasiado tarde", e salientou que a fraude assistida por IA já é frequente e passa despercebida.
Talcove concluiu com um aviso alarmante: "Já não se trata de uma questão de se, mas sim de quando e com que gravidade, estas ameaças alimentadas por IA irão afetar as suas agências. Temos de reconhecer a dura realidade de que a fraude com IA não é uma ameaça distante, mas sim uma ameaça que está a bater à nossa porta."
Estas afirmações são fundamentadas?
A fraude apoiada por IA gira principalmente em torno de falsificações profundas. As falsificações profundas vão desde as benignas - como Elon Musk em bebé - até às prejudiciais - como esta imagem falsa de um explosão no Pentágonoque fez com que os mercados norte-americanos caíssem brevemente quando circulou nas redes sociais.
Há inúmeras histórias de burlões que visam indivíduos vulneráveis com esquemas falsos profundos, incluindo uma série dos chamados "golpes dos avós." Uma mãe norte-americana envolveu-se numa falso plano de raptoonde os burlões exigiram um resgate de $1m.
A China também está a sofrer de Fraudes apoiadas pela IAincluindo um incidente em que um homem conversou com um avatar de vídeo do seu amigo gerado por IA.
A IA está a tornar-se cada vez melhor a imitar os humanos - o que é uma das qualidades fundamentais da tecnologia. A Teste de Turingdesenvolvido pelo criptanalista e matemático Alan Turing na década de 1950, avalia a capacidade de uma máquina imitar os seres humanos. O realismo é o objetivo da tecnologia de IA.
A incrível capacidade da IA para copiar, falsificar e imitar o comportamento humano é facilmente utilizada como arma pelos autores de fraudes e conduzirá inevitavelmente a novas técnicas de cibercrime.
A IA será também utilizada para os combater, no que se tornará provavelmente uma corrida ao armamento entre os cibercriminosos, as autoridades policiais e as empresas de segurança.