I en tankevekkende tale på FNs globale toppmøte "AI for Good" i Genève uttrykte den anerkjente israelske historikeren og forfatteren Yuval Noah Harari sin bekymring over spredningen av "falske mennesker" i sosiale medier...
Harari advarte om at hvis man ikke tar grep, kan opprettelsen og spredningen av disse AI-robotene, som utgir seg for å være ekte mennesker for å skape engasjement, føre til en kollaps i offentlig tillit og sette demokratiets grunnlag i fare.
Som en motvekt foreslo Harari at vi innfører strenge straffer for dem som oppretter falske profiler, og understreket at situasjonen haster, og at forskning på AI-sikkerhet må prioriteres hvis vi skal ha håp om å holde denne teknologien under kontroll.
Den raske fremveksten av falske mennesker
Med fremskritt innen AI-teknologi, særlig store språkmodeller som ChatGPT, er AI-roboter ikke bare i stand til å forsterke menneskeskapt innhold, men også til å skape sitt eget innhold i stor skala.
I stor skala er nøkkelordet her...
Se for deg en situasjon der sosiale medier oversvømmes av millioner av AI-roboter - som alle er i stand til å produsere innhold som er bedre enn gjennomsnittsmennesket.
Dette scenariet virker som om det er klippet rett ut av Black Mirror-skrivestuen, men det er unektelig et sannsynlig scenario ettersom AI fortsetter å utvikle seg.
Med millioner av AI-roboter som poster sammen med ekte mennesker, vil vi få en situasjon der "ekte" og AI-basert innhold blir nesten umulig å skille fra hverandre - og dermed undergrave kulturen og den globale diskursen som helhet.
Dette tapet av kontroll over torget ville også på sett og vis fjerne selve kjernen i demokratiet, nemlig idéenes og den frie tankens demokrati.
Demokratiets sikkerhet + behovet for strafferettslige konsekvenser:
Tilbake til Harari, som trakk en parallell til falske penger, og argumenterte for at på samme måte som myndighetene har strenge regler for å beskytte det finansielle systemet mot falske penger, bør lignende tiltak iverksettes for å sikre offentlig tillit mot falske mennesker.
Ved å stille ansvarlige personer til ansvar gjennom straffeforfølgelse kan vi forhindre at plattformene våre oversvømmes av falske profiler.
Investerer i AI-sikkerhet og satser på forskning
Harari understreket hvor viktig det er å investere betydelig i KI-sikkerhet. Han foreslo at det skulle være lovpålagt for selskaper å bruke 20% av investeringsutgiftene sine på å undersøke potensielle risikoer og utvikle strategier for å håndtere dem effektivt.
Harari anerkjente innsatsen til OpenAI, skaperen av ChatGPT, og nevnte deres forpliktelse til å allokere 20% av datakraften til AI-sikkerhet og etablere et dedikert forskningsteam som har som mål å forstå og kontrollere AI, og dermed forhindre at den blir useriøs.
Globalt samarbeid
Harari fortsatte med å si at effektiv regulering av kunstig intelligens og datainnsamling må være en verdensomspennende innsats. Han advarte om at uten internasjonalt samarbeid risikerer verden å bli fragmentert i sfærer av datainnsamling som kontrolleres av noen få utvalgte nasjoner og selskaper.
For å forhindre en dystopisk fremtid understreket Harari behovet for regler som prioriterer individuell databeskyttelse, forhindrer datamanipulasjon, øker tilsynet med både selskaper og myndigheter, og unngår at alle data samles i én enkelt enhet.
Konklusjon - Bevare offentlig tillit
Fremveksten av AI-roboter på sosiale medier utgjør en betydelig trussel mot demokratiske samfunn, og Yuval Noah Harari har tatt til orde for strafferettslige konsekvenser for de ansvarlige, samt økt investering i AI-sikkerhet.
Ved å innføre strenge straffer og omfattende reguleringer kan samfunnet beskytte tilliten til offentligheten, bevare demokratiske verdier og sørge for at mennesker beholder kontrollen over den offentlige samtalen. Det er på tide å handle nå for å sikre en tryggere og mer robust fremtid for vår stadig skiftende digitale verden.