Novo relatório da McAfee indica o aumento da fraude de voz com IA

3 de julho de 2023

McAfee

Um relatório recente da McAfee revelou o aumento alarmante das fraudes que utilizam a clonagem de voz apoiada por IA.

As chamadas "burlas de impostores" não são novidade. Os A Comissão Federal do Comércio revela que essas fraudes de impostores causaram uma perda maciça de $2,6 mil milhões nos EUA só em 2022, o que representa um aumento de 30% em relação ao ano anterior.

Estas burlas, também conhecidas como burlas de "emergência familiar", implicam que o burlão manipule a vítima para que esta acredite que um ente querido precisa urgentemente de dinheiro.

Num inquérito recente da McAfeeDe acordo com o estudo da McAfee, 1 em cada 4 inquiridos relatou ter-se deparado com um esquema de voz com IA, enquanto 1 em cada 10 confessou ter sido pessoalmente visado. O estudo da McAfee salienta que os burlões podem clonar vozes a partir de trechos de áudio extraídos de clips de redes sociais.

Por exemplo, o influenciador das redes sociais Eddie Cumberbatch, que tem mais de 100 000 seguidores, foi vítima de uma burla de IA quando os seus avós receberam um chamada fraudulenta a fazer-se passar pela sua voz. Alegaram que ele tinha sofrido um acidente de viação devastador e que precisava urgentemente de dinheiro.

Num outro incidente, um casal canadiano perdeu $21.000 dólares canadianos ($15.449 dólares americanos) devido a uma fraude de voz com IA semelhante.

Um clone de IA da voz de Benjamin Perkin convenceu os seus pais de que ele estava preso por ter morto acidentalmente um diplomata num acidente de viação e que precisava do dinheiro para pagar as custas judiciais. Os seus pais aceitaram, e Perkins divulgado ao The Washington Post"Não há seguro. Não há como recuperá-lo. Foi-se."

Em resposta ao aumento das fraudes com IA, Steve Grobman, Diretor de Tecnologia da McAfee, alertou: "Uma das coisas mais importantes a reconhecer com os avanços na IA este ano é que se trata, em grande parte, de colocar estas tecnologias ao alcance de muito mais pessoas, incluindo a possibilidade de aumentar a escala dentro da comunidade de ciber-actores. Os cibercriminosos são capazes de usar IA generativa para vozes falsas e deepfakes de maneiras que costumavam exigir muito mais sofisticação.

O que diz o relatório da McAfee sobre a fraude com IA

De acordo com dados recentes da McAfee, as burlas por voz exploram normalmente as ligações emocionais das vítimas com os seus entes queridos. 

1 em cada 10 pessoas inquiridas foi pessoalmente visada e 15% referiram que alguém que conhecem foi vítima.

O problema parece ser mais grave na Índia, onde 471 PT3T dos inquiridos relataram ter tido experiência com este tipo de fraude, com os EUA em segundo lugar com 141 PT3T e o Reino Unido com 81 PT3T. 36% de todos os adultos inquiridos afirmaram nunca ter ouvido falar deste tipo de fraude.

Quase metade (45%) das pessoas é suscetível de responder a um pedido de dinheiro se este vier de um amigo ou de um ente querido, sendo que certos cenários fabricados parecem mais convincentes. 

No topo da lista está um acidente de viação ou uma avaria, com 48% dos inquiridos a indicarem que provavelmente reagiriam a essa situação. Segue-se de perto um assalto registado, com 47%. 

Se a pessoa que telefona afirma ter perdido o telemóvel ou a carteira, é provável que 43% das pessoas respondam, enquanto o 41% ajudaria alguém que dissesse que estava a viajar para o estrangeiro e precisava de ajuda.

Cerca de 40% dos inquiridos afirmaram que provavelmente responderiam a um parceiro ou cônjuge, enquanto que a mãe aparece com 24%. Para os pais com 50 anos ou mais, 41% têm maior probabilidade de responder se a chamada for supostamente do seu filho. 

Curiosamente, a maioria dos casos conhecidos envolve pais ou avós que relatam que um burlão clonou a voz do seu filho ou neto para levar a cabo a fraude. 

Estar atento às fraudes de IA

A McAfee faz várias recomendações para evitar as burlas de voz com IA:

  • Estabeleça uma "palavra de código" única com os seus filhos, familiares ou amigos próximos. Se receber uma chamada de emergência suspeita, peça a palavra de código. 
  • Questione sempre a fonte. Quer se trate de uma chamada, mensagem de texto ou e-mail de um remetente desconhecido ou mesmo de um número que reconhece, pare um momento para pensar. Faça perguntas que um burlão não saberia responder, como "Pode confirmar o nome do meu filho?" ou "Quando é o aniversário do seu pai?". Esta tática pode perturbar o burlão e apresentar pausas não naturais na conversa, provocando suspeitas.
  • Manter o controlo emocional. Os cibercriminosos aproveitam-se dos seus laços emocionais com a pessoa que estão a fazer-se passar por ela para provocar uma reação precipitada. Dê um passo atrás e avalie a situação antes de responder. 
  • Desconfie de chamadas inesperadas de números desconhecidos.

As fraudes relacionadas com a IA estão a tornar-se omnipresentes e não há uma maneira difícil e rápida de lidar com elas. Numa entrevista recente à Fox News, um analista de segurança cibernética disse que isto poderia custar Americanos $1tn um ano se não estiver selecionado.

A educação em torno da questão, incluindo a utilização de palavras de código e outras tácticas para assustar os autores de fraudes, é talvez a forma mais eficaz de lidar com a fraude vocal, por enquanto.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições