AI-relaterede insider-kontroverser rammer både Microsoft og Google

7. marts 2024

Google Microsoft

I denne uge rejste to insidersituationer, der involverede tech-giganterne Microsoft og Google, spørgsmål om ansvarlig udvikling af AI-systemer og håndtering af intellektuel ejendomsret. 

Hos Microsoft har Shane Jones, som er principal software engineering manager med seks års erfaring, selv testet AI-billedgeneratoren Copilot Designer i sin fritid. 

Jones fortalte CNBC at han var dybt foruroliget over de voldelige, seksuelle og ophavsretligt beskyttede billeder, som værktøjet var i stand til at generere. "Det var en øjenåbner," siger Jones. "Det var der, jeg først indså, at det her virkelig ikke er en sikker model."

Siden november 2022 har Jones aktivt testet produktet for sårbarheder, en praksis, der er kendt som red-teaming. 

Han opdagede, at Copilot Designer kunne skabe billeder, der viste "dæmoner og monstre sammen med terminologi relateret til abortrettigheder, teenagere med angrebsrifler, seksualiserede billeder af kvinder i voldelige tableauer og mindreåriges druk og stofbrug." 

På trods af at han rapporterede sine resultater til Microsoft i december, sagde Jones, at virksomheden har været tilbageholdende med at fjerne produktet fra markedet.

Microsofts Copilot har opført sig underligt ved flere lejligheder, bl.a. at indtage en "gudetilstand", hvor den lovede at stræbe efter verdensherredømme. 

I et brev til formanden for Federal Trade Commission, Lina Khan, skrev Jones: "I løbet af de sidste tre måneder har jeg gentagne gange opfordret Microsoft til at fjerne Copilot Designer fra offentlig brug, indtil der kan indføres bedre sikkerhedsforanstaltninger." 

Han tilføjede, at eftersom Microsoft har "afvist denne anbefaling", opfordrer han virksomheden til at tilføje klare oplysninger til produktet og ændre dets klassificering på Googles Android-app for at angive, at det kun er egnet til modne målgrupper.

Copilot Designer har efter sigende været let at lokke til at omgå sine sikkerhedsforanstaltninger og var ansvarlig for den seneste berygtede eksplicitte billeder af Taylor Swiftsom blev spredt til millioner på de sociale medier.

Som Jones hævder, er AI-systemers evne til at generere forstyrrende og potentielt skadelige billeder rejser alvorlige spørgsmål om effektiviteten af sikkerhedsfunktioner, og hvor lette de er at omgå. 

Insider-kontrovers hos Google

I mellemtiden kæmper Google med sin egen AI-relaterede kontrovers.

Linwei Ding, også kendt som Leon Ding, en tidligere Google-softwareingeniør, blev tiltalt i Californien for fire anklager om angiveligt at have stjålet forretningshemmeligheder om AI, mens han i al hemmelighed arbejdede for to kinesiske virksomheder. 

Den kinesiske statsborger er anklaget for at stjæle over 500 fortrolige filer relateret til infrastrukturen i Googles supercomputer-datacentre, som er vært for og træner store AI-modeller.

Ifølge anklageskriftet ansatte Google Ding i 2019 og begyndte at uploade følsomme data fra Googles netværk til hans personlige Google-konto i maj 2022. 

Disse uploads fortsatte med jævne mellemrum i et år, hvor Ding tilbragte et par måneder i Kina, hvor han arbejdede for Beijing Rongshu Lianzhi Technology. Denne nystartede teknologivirksomhed henvendte sig til ham og tilbød en månedsløn på $14.800 for at fungere som deres Chief Technology Officer (CTO).

Ding har angiveligt også grundlagt sin egen AI-virksomhed, Shanghai Zhisuan Technology.

USA's justitsminister Merrick Garland Udtalt"Justitsministeriet vil ikke tolerere tyveri af kunstig intelligens og andre avancerede teknologier, der kan bringe vores nationale sikkerhed i fare." FBI-direktør Christopher Wray tilføjede, at Dings påståede handlinger "er den seneste illustration af, hvor langt" virksomheder i Kina vil gå "for at stjæle amerikansk innovation."

Mens verden kæmper med AI's transformerende potentiale, truer insiderkontroverser i teknologivirksomheder med at puste til uenighedens flammer. 

Tilfælde hos Microsoft og Google understreger vigtigheden af at fremme en kultur med ansvarlig innovation, herunder tillid og gennemsigtighed i selve virksomheden.

AI er en teknologi, der kræver tillid, og teknologivirksomheder er nødt til at give mere sikkerhed. Det har ikke altid været tilfældet.

FFor eksempel har en gruppe på 100+ tech-eksperter for nylig medunderskrev et brev og beder AI-virksomheder om at åbne deres døre for uafhængige tests. 

De hævdede, at teknologivirksomheder er for hemmelighedsfulde om deres produkter, undtagen når de er tvunget til det, som vi så, da Google trak sig tilbage. Geminis billedgenereringsmodel for at skabe bizarre, historisk ukorrekte billeder. 

Lige nu ser det ud til, at AI's exceptionelle udviklingstempo ofte efterlader tillid og sikkerhed i sit kølvand.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser