KI ble et av temaene på World Economic Forum 2024 i Davos, sammen med temaer som Ukraina, Putin og konflikten i Midtøsten.
Arrangementet var vitne til en tydelig fragmentert debatt om teknologien, der politikere og FN-tjenestemenn blandet sine synspunkter med industriledere som OpenAI-sjef Sam Altman og Microsoft-sjef Satya Nadella.
I forkant av forumet ble WEFs "Rapport om globale risikoer 2024" plasserte AI-drevet feilinformasjon og desinformasjon i front, og overgikk bemerkelsesverdig nok klimaendringer, krigføring og økonomiske forstyrrelser.
Carolina Klint, Chief Commercial Officer for Europa i Marsh McLennan, som har samarbeidet om rapporten, fortalte CNBC i rapporten: "AI kan bygge ut modeller for å påvirke store velgergrupper på en måte som vi ikke har sett før. Det kommer til å bli viktig for oss å følge med på hvordan det kommer til å slå ut."
AI-feilinformasjon og valginnblanding var sentrale temaer på selve arrangementet, med debatter der fordelene med AI-drevet produktivitet og effektivitet ble veid opp mot ulempene med feilinformasjon, dyp forfalskning og andre potensielt katastrofale konsekvenser.
Generelt viste tonen i debatten et større fokus på de kortsiktige risikoene ved kunstig intelligens enn på mer abstrakte, langsiktige konsekvenser på utryddelsesnivå. Med store valg på trappene i år er det økende bekymring for hvordan kunstig intelligens kan bli brukt til å påvirke velgeratferden.
De som representerte AI-bransjen, var noen ganger forsiktig optimistiske, andre ganger optimistiske og noen ganger skeptiske til bransjens evne til å håndtere disse risikoene.
La oss ta en titt på noen viktige politiske innsikter om AI fra uken:
FNs generalsekretær António Guterres: en advarende holdning til kunstig intelligens
António Guterres leverte et kraftfullt budskap om risikoen forbundet med den raske utbredelsen av kunstig intelligens, og kritiserte spesielt oppførselen til store teknologiselskaper.
Han advarte: "Mektige teknologiselskaper jakter allerede på profitt uten å ta hensyn til menneskerettigheter, personvern og sosiale konsekvenser."
Guterres trakk en parallell mellom utfordringene knyttet til kunstig intelligens og klimakrisen, og påpekte at det mangler en global strategi for å løse begge disse problemene.
Guterres understreket det presserende behovet for samarbeid om styring, og sa: "Vi trenger at myndighetene samarbeider med teknologiselskaper om rammeverk for risikostyring i forbindelse med dagens AI-utvikling, og om overvåking og begrensning av fremtidige skader."
Ursula von der Leyen: et mer optimistisk syn
Europakommisjonens president Ursula von der Leyen hadde et mer optimistisk syn på kunstig intelligens.
I talen sin erkjente hun de potensielle risikoene, men understreket også mulighetene som kunstig intelligens gir. Von der Leyen sa: "KI er også en svært viktig mulighet hvis den brukes på en ansvarlig måte."
Von der Leyen fremhevet også initiativer som skal bidra til å utnytte AI-potensialet, og nevnte et forslag om å koble europeiske AI-oppstartsbedrifter med datakraften til kontinentets superdatamaskiner.
Hun sammenlignet dette initiativet med Microsofts tilnærming til ChatGPT, og sa: "Vi vil gi europeiske oppstartsbedrifter og [små og mellomstore bedrifter] tilgang til våre egne superdatamaskiner i verdensklasse."
Geopolitiske sammenstøt rundt kunstig intelligens
Kinas statsminister Li Qiang holdt en salgstale for å få multinasjonale selskaper til å investere i Kinas økonomi, som har møtt utfordringer på grunn av langvarige handelsrestriksjoner fra USA. Nvidia, for eksempel, har vært gjentatte ganger blokkert fra å sende sine AI-fokuserte GPU-er til Kina.
Li Qiang uttrykte en forsiktig holdning til kunstig intelligens i sin tale nylig. Han bemerket: "Menneskene må kontrollere maskinene i stedet for at maskinene kontrollerer oss."
Han understreket behovet for en ansvarlig utvikling, og la til: "AI må styres i en retning som bidrar til menneskehetens fremgang, så det bør være en rød linje i AI-utviklingen - en rød linje som ikke må overskrides."
Li Qiang skisserte en fempunktsplan for å forbedre det økonomiske samarbeidet mellom Kina og Vesten.
Han understreket behovet for større makroøkonomisk koordinering, uhindret forsyningskjeder sentrert rundt Kina, økt samarbeid om miljømål og forbedret teknologisk samarbeid.
Selv om han ikke nevnte USA direkte, hentydet han gjentatte ganger negativt til uspesifiserte nasjoner, med symbolsk henvisning til USA.
Li forsøkte å berolige globale investorer som hadde blitt skeptiske til Kina på grunn av den økonomiske nedgangen og økte statlige inngrep. Han understreket at det å investere i det kinesiske markedet var en mulighet, ikke en risiko, og uttalte at kommunistpartiet ønsket utenlandske investorer velkommen.
Etter Lis innlegg fokuserte Ursula von der Leyens tale i Davos på demokrati og vestlige verdier. Hun nevnte demokrati og frihet flere ganger, fremstilte Europa som en global leder i håndteringen av globale utfordringer og understreket viktigheten av samarbeid.
Splittelsen blant verdens ledere var imidlertid tydelig, ettersom mange medlemmer av USAs delegasjon allerede hadde forlatt landet før Kinas samtaler, noe som igjen viser de symbologiske motsetningene vi er blitt vant til.
Økende bekymring for kunstig intelligens i valgkampen
Alexandra Reeve Givens, administrerende direktør i Center for Democracy and Technology, uttrykte bekymring for bruk av kunstig intelligens i valg, og viste til tidligere situasjoner der teknologi har blitt brukt til å påvirke velgeratferd.
Det er i seg selv ikke noe nytt konsept. Poenget er imidlertid at kunstig intelligens gir falsk propaganda en realisme uten sidestykke og bidrar til å skalere tvilsomme taktikker som robotoppringing.
"I tidligere valgsykluser har vi sett robocalls. Vi har sett automatiserte sms-kampanjer som sender feil informasjon til velgerne om hvor de skal stemme, om hvorvidt valglokalet er åpent eller ikke, eller målrettede, manipulerte meldinger som er utformet for å påvirke velgernes atferd", sier Givens.
Hun argumenterte for hvordan generativ AI vil forsterke disse problemene: "Generativ AI gjør det enklere å målrette dette. [...] det er enklere enn noensinne å komme opp med skreddersydde, personlige meldinger."
Teknologiselskaper forsvarte sin evne til å reagere på deep fakes. OpenAI-sjef Sam Altman refererte til nyere strategier selskapet hans i forkant av det amerikanske valget, og Matthew Brittin, president for EMEA Business & Operations i Google, snakket om potensialet som ligger i store språkmodeller (LLM) for å bekjempe feilinformasjon.
"Vi ønsker å være i en posisjon der alt som produseres av vår generative AI, kan vannmerkes så usynlig, selv om det brukes et utdrag av en video eller en del av et bilde, at det vil kunne oppdages automatisk", forklarte Brittin, og refererte til SynthID, et Google DeepMind-verktøy som legger inn digitale vannmerker i AI-generert innhold.
Til dags dato er det lite bevis disse teknikkene fungerer effektivt i stor skala. For eksempel kan en artikkel publisert av forskere fra University of California i oktober konkluderte med at "alle usynlige vannmerker er sårbare".
Selv om kommersielle AI-bildegeneratorer som DALL-E bruker et effektivt vannmerke, er selskapene generelt ikke forpliktet til å gjøre det.
Det er også en annen side ved dette, ettersom det å legge til AI-vannmerker i autentiske bilder betyr at ondsinnede aktører kan diskreditere ekte bilder som falske, noe som kalles "løgnerens utbytte".
AI kommer til å fortsette å spille en viktig rolle i den politiske diskursen i år.