Het Amerikaanse Ministerie van Justitie (DOJ) noemde de risico's van AI-desinformatie en deepfakes als redenen waarom het de audio van het verhoor van Joe Biden door de Special Counsel over zijn omgang met geheime documenten niet zal vrijgeven.
Het DOJ concludeerde dat er geen basis was om Biden te vervolgen, maar het transcript van het interview werd welkome brandstof voor critici van Biden's geestelijke vermogens en zijn vermogen om zich nog een termijn kandidaat te stellen.
Een transcriptie lezen is één ding, de audio horen van de president van de VS die moeite heeft om zich de sterfdatum van zijn zoon te herinneren of vergeet wie de president van Mexico is, is iets heel anders.
De DOJ zegt dat het onvermogen om AI-desinformatie te bestrijden de reden is dat het de audio niet zal vrijgeven.
"Het verstrijken van de tijd en de vooruitgang op het gebied van audio, kunstmatige intelligentie en 'deep fake'-technologieën maken de bezorgdheid over kwaadwillige manipulatie van audiobestanden alleen maar groter. Als de audio-opname hier wordt vrijgegeven, is het gemakkelijk te voorzien dat deze op onjuiste wijze kan worden gewijzigd en dat het gewijzigde bestand kan worden doorgegeven als een authentieke opname en op grote schaal kan worden verspreid," aldus het departement. schreef in de rechtszaak.
DOJ Associate Deputy Attorney General Bradley Weinsheimer zei dat als ze de audio zouden vrijgeven, er een "substantieel risico zou zijn dat kwaadwillenden de opname zouden kunnen veranderen om (bijvoorbeeld) woorden in te voegen die President Biden niet heeft gezegd of woorden te verwijderen die hij wel heeft gezegd".
AI-gegenereerde stemklonen hebben maar een paar seconden van iemands stem nodig om overtuigende audio te genereren. Een kloon van de stem van Joe Biden werd gebruikt in een valse belcampagne in januari die kiezers ontmoedigde om te stemmen in de voorverkiezingen.
In het dossier wordt erkend dat het maken van een kloon van Biden's stem al mogelijk was.
Het zei. "Natuurlijk is er al ander ruw materiaal beschikbaar om een deepfake van de stem van President Biden te maken, maar het vrijgeven van de audio-opname brengt unieke risico's met zich mee: als het algemeen bekend is dat de audio-opname is vrijgegeven, wordt het voor kwaadwillende actoren gemakkelijker om een gewijzigd bestand door te geven als de echte opname."
Mike Howell, uitvoerend directeur van het Oversight Project bij de Heritage Foundation, gelooft dat de DOJ AI-fakes gebruikt als een handig excuus.
"Ze willen deze audio helemaal niet vrijgeven... Ze doen de keuken gootsteen aanpak en ze zijn absoluut bang dat ze geen goed juridisch argument hebben om op te steunen," zei Howell.
Senator Mark Warner, de Democratische voorzitter van de Inlichtingencommissie van de Senaat, erkende het risico van AI-manipulatie maar zei dat de audio moet worden vrijgegeven met "watermerkcomponenten" zodat manipulatie kan worden gedetecteerd.
Ironisch genoeg hebben sommige Republikeinen publiekelijk gespeculeerd dat het transcript het interview niet nauwkeurig weergeeft.
AI-desinformatie en deepfakes hebben onmiskenbaar een ontwrichtend effect gehad op het milieu. invloed op de wereldpolitiek.
Maar het gemak waarmee nepbeelden, -audio en -video's kunnen worden gemaakt, is ook een handig excuus voor politici die zich in een lastig parket bevinden.