Stigningen i "løgnerens udbytte", da AI-dybe forfalskninger fortsætter med at skabe problemer

23. januar 2024

Løgnerens udbytte AI

Mens vi nærmer os afgørende valg i år - ikke mindst det amerikanske valg - er vi vidne til den onde tvilling til dyb falsk misinformation - "løgnerens udbytte". 

Deep fakes henviser til utroligt livagtige AI-genererede kopier af lyd, video eller billeder.

Der har været mange eksempler på, at deep fakes har påvirket mennesker og samfund, fra et AI-genereret billede af Pentagon, der var til at tage og føle på. der påvirkede aktiemarkedet sidste år til en robocall-stemme efterligner præsident Biden i denne uge.

Men deep fakes er ikke kun nyttige til at fordreje sandheden - de er også fremragende til at modbevise den. Dette er blevet kaldt "løgnerens udbytte", som i bund og grund beskriver de fordele, nogen får ud af at stemple autentisk indhold som falsk. 

For eksempel hævdede tidligere præsident Donald Trump som svar på en Fox News-reklame, der viste hans offentlige fejltagelser sidste år, at Optagelserne var AI-skabte

Han fordømte reklamen i et indlæg på Truth Social og sagde: "De perverse og taberne i det mislykkede og engang opløste Lincoln Project og andre bruger AI i deres falske tv-reklamer til at få mig til at se lige så dårlig og ynkelig ud som den korrupte Joe Biden, og det er ikke let." 

Lincoln Project tilbageviste derefter Trumps påstand og påpegede, at annoncen indeholdt veldokumenterede hændelser fra hans præsidentperiode.

Libby Lange, en analytiker hos analyseudbyder Graphika, gentager bekymringen for løgnerens udbytte og siger: "AI destabiliserer selve sandhedsbegrebet. Hvis alt kan være falsk, og hvis alle hævder, at alt er falsk eller manipuleret på en eller anden måde, er der ikke rigtig nogen følelse af grundlæggende sandhed."

På verdensplan bruger politikere nu regelmæssigt AI som syndebuk. For eksempel blev en kontroversiel video af en taiwansk politiker, der antydede en udenomsægteskabelig affære, hurtigt afvist som potentielt AI-genereret. 

På samme måde afviste en politiker i den indiske delstat Tamil Nadu en lækket lydoptagelse som "maskingenereret", selv om dens ægthed stadig er usikker.

Vi har også set AI-billeder af krigsforbrydelser i Israel, Palæstina og Ukraine, f.eks. en forbrændt baby, som Ben Shapiro delte med millioner af følgere, før den blev... diskrediteret som falsk

Der har også været ikke-politiske eksempler, som et stemmeklip, der angiveligt er fra en skoleleder i Baltimore County, som kommer med racistiske bemærkninger. De blev påstået at være AI-genererede, men det er svært at bekræfte uden yderligere kontekst. 

Deep fakes var et varmt emne på den seneste Verdens økonomiske forum i Davosmen indsatsen for at dæmme op for dem har hidtil været overfladisk og ineffektiv. Teknologivirksomheder undersøger, hvordan man automatisk kan verificere AI-genereret indhold, men kun eksperter kan med sikkerhed skelne mellem ægte og falske medier. 

Og selv eksperterne tager fejl, da der er tilfælde, hvor specialiserede AI-detektorer kommer frem til omstridte konklusioner om et billedes ægthed. 

Antag så, at billederne 'officielt' klassificeres som ægte eller falske, men at dommen er forkert - så kan du kun forestille dig det helvede, der kan bryde ud. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser