Um vídeo no TikTok parecia mostrar o influenciador do YouTube MrBeast a oferecer 10 000 telemóveis iPhone 15 Pro aos seus seguidores por $2 cada.
Não se preocupe em sacar o seu cartão de crédito, porque o vídeo era um deepfake gerado por IA que, de alguma forma, escapou à moderação de conteúdos do TikTok.
MrBeast, cujo nome verdadeiro é Jimmy Donaldson, domina o YouTube com 189 milhões de subscritores no seu canal. Os seus vídeos são bastante ultrajantes e mostram-no a fazer coisas como oferecer uma ilha de $800k ou $1m que os utilizadores têm de gastar num minuto.
Por isso, seria perdoado se acreditasse que ele faria algo louco como oferecer 10.000 iPhones. No entanto, o pagamento adiantado de $2 deveria ter sido um indício de que se tratava de uma burla.
O vídeo tinha algumas falhas, mas parece e soa exatamente como o MrBeast, pelo que provavelmente enganou muita gente antes de o TikTok o retirar do ar.
Muitas pessoas estão a receber este anúncio de fraude deepfake de mim... As plataformas de redes sociais estão preparadas para lidar com o aumento de deepfakes de IA? Este é um problema sério pic.twitter.com/llkhxswQSw
- MrBeast (@MrBeast) 3 de outubro de 2023
O TikTok tem um processo de verificação para o registo de novas contas e políticas de moderação de conteúdos, mas nenhum deles apanhou este anúncio falso. Um comentário ao tweet de MrBeast dizia: "Ser verificado no TikTok é tão fácil como dormir uma sesta".
MrBeast perguntou: "As plataformas das redes sociais estão preparadas para lidar com o aumento dos deepfakes com IA?" e a resposta óbvia é: não, não estão.
Só na última semana vimos Falsificações artificiais de Tom Hanks num anúncio de produtos dentários e Gayle King a apoiar um produto para perder peso.
Ver esta publicação no Instagram
Ser enganado com o $2 ou comprar um produto para perder peso que não funciona é o limite inferior dos danos potenciais que os deepfakes de IA podem causar.
O potencial para perturbar eleições ou espalhar desinformação prejudicial é amplificado quando a pessoa que está a falar connosco parece ser alguém em quem confiamos. As empresas estão a tentar desenvolver uma marca de água digital que identifique os conteúdos gerados por IA, mas nenhum deles parece funcionar de forma fiável.
Mesmo que desenvolvam uma forma de marcar o conteúdo de IA, como é que vão obrigar as pessoas a utilizá-lo? Até encontrarmos uma forma de saber instantaneamente quando algo é gerado por IA, teremos de ser extremamente cautelosos com aquilo em que acreditamos.
Se é demasiado bom para ser verdade, provavelmente é.