Denne uken har to innsidesituasjoner som involverer teknologigigantene Microsoft og Google, reist spørsmål om ansvarlig utvikling av AI-systemer og håndtering av immaterielle rettigheter.
For det første har Shane Jones, en programvaresjef med seks års erfaring fra Microsoft, testet AI-bildegeneratoren Copilot Designer på egen hånd på fritiden.
Jones fortalte CNBC at han ble dypt bekymret over de voldelige, seksuelle og opphavsrettsbeskyttede bildene verktøyet kunne generere. "Det var en øyeåpner", sier Jones. "Det var da jeg for første gang innså at dette virkelig ikke er en trygg modell."
Siden november 2022 har Jones aktivt testet produktet for sårbarheter, en praksis kjent som red-teaming.
Han oppdaget at Copilot Designer kunne skape bilder som viste "demoner og monstre sammen med terminologi knyttet til abortrettigheter, tenåringer med automatgeværer, seksualiserte bilder av kvinner i voldelige tablåer og mindreårige som drikker og bruker narkotika".
Til tross for at han rapporterte funnene sine til Microsoft i desember, sa Jones at selskapet har vært motvillig til å fjerne produktet fra markedet.
Microsofts Copilot har oppført seg merkelig ved enkelte anledninger, blant annet å innta en "gudsmodus", der den sverget på å søke verdensherredømme.
I et brev adressert til Lina Khan, leder av Federal Trade Commission, skrev Jones: "I løpet av de siste tre månedene har jeg gjentatte ganger oppfordret Microsoft til å fjerne Copilot Designer fra offentlig bruk inntil bedre sikkerhetstiltak er på plass."
Han la til at siden Microsoft har "nektet å følge denne anbefalingen", oppfordrer han selskapet til å legge til tydelige opplysninger om produktet og endre klassifiseringen på Googles Android-app for å indikere at det kun er egnet for et voksent publikum.
Copilot Designer har etter sigende vært lett å overtale til å omgå sine egne sikkerhetsmekanismer, og var ansvarlig for den beryktede eksplisitte bilder av Taylor Swiftsom ble spredt til millioner på sosiale medier.
Som Jones hevder, er AI-systemers evne til å generere urovekkende og potensielt skadelige bilder reiser alvorlige spørsmål om hvor effektive sikkerhetsfunksjonene er, og hvor enkle de er å omgå.
Innsiderkontroverser hos Google
I mellomtiden sliter Google med sin egen AI-relaterte kontrovers.
Linwei Ding, også kjent som Leon Ding, en tidligere programvareingeniør fra Google, ble tiltalt i California på fire tiltalepunkter knyttet til angivelig tyveri av forretningshemmeligheter om kunstig intelligens mens han i hemmelighet jobbet for to kinesiske selskaper.
Den kinesiske statsborgeren er anklaget for tyveri over 500 konfidensielle filer knyttet til infrastrukturen til Googles datasentre for superdatabehandling, som er vertskap for og trener store AI-modeller.
Ifølge tiltalen ansatte Google Ding i 2019 og begynte å laste opp sensitive data fra Googles nettverk til hans personlige Google-konto i mai 2022.
Disse opplastningene fortsatte med jevne mellomrom i ett år, og Ding tilbrakte noen måneder i Kina hvor han jobbet for Beijing Rongshu Lianzhi Technology. Dette nystartede teknologiselskapet henvendte seg til ham og tilbød ham en månedslønn på $14 800 for å fungere som Chief Technology Officer (CTO).
Ding skal også ha grunnlagt sitt eget AI-selskap, Shanghai Zhisuan Technology.
USAs justisminister Merrick Garland oppgitt"Justisdepartementet vil ikke tolerere tyveri av kunstig intelligens og annen avansert teknologi som kan sette vår nasjonale sikkerhet i fare." FBI-direktør Christopher Wray la til at Dings påståtte handlinger "er den siste illustrasjonen av hvor langt" selskaper i Kina vil gå "for å stjele amerikansk innovasjon."
Mens verden tar fatt på AIs transformative potensial, truer innsidekontroverser i teknologiselskaper med å fyre opp under uenigheten.
Tilfeller hos Microsoft og Google viser hvor viktig det er å fremme en kultur for ansvarlig innovasjon, inkludert tillit og åpenhet i selve selskapet.
Kunstig intelligens er en teknologi som krever tillit, og teknologiselskapene må gi mer trygghet. Det har de ikke alltid gjort.
FFor eksempel har en gruppe på over 100 teknologieksperter nylig medunderskrevet et brev og ber AI-selskaper om å åpne dørene for uavhengig testing.
De hevdet at teknologiselskapene er for hemmelighetsfulle om produktene sine, bortsett fra når de blir tvunget til det, slik vi så da Google trakk tilbake Geminis modell for bildegenerering for å skape bisarre, historisk unøyaktige bilder.
Akkurat nå ser det ut til at AIs eksepsjonelle utviklingstempo ofte etterlater tillit og sikkerhet i kjølvannet.