AI-relaterade insiderkontroverser drabbar både Microsoft och Google

7 mars 2024

Google Microsoft

I veckan har två insidersituationer med teknikjättarna Microsoft och Google väckt frågor om ansvarsfull utveckling av AI-system och hantering av immateriella rättigheter. 

På Microsoft har Shane Jones, en chef för programvaruteknik med sex års erfarenhet, på sin fritid självständigt testat AI-bildgeneratorn Copilot Designer. 

Jones berättade CNBC att han var djupt oroad över de våldsamma, sexuella och upphovsrättsskyddade bilder som verktyget kunde generera. "Det var en ögonöppnare", säger Jones. "Det var då jag först insåg att det här verkligen inte är en säker modell."

Sedan november 2022 har Jones aktivt testat produkten för att hitta sårbarheter, en metod som kallas red-teaming. 

Han upptäckte att Copilot Designer kunde skapa bilder som föreställde "demoner och monster tillsammans med terminologi relaterad till aborträtt, tonåringar med automatkarbiner, sexualiserade bilder av kvinnor i våldsamma tablåer samt minderårigas alkohol- och droganvändning". 

Trots att han rapporterade sina resultat till Microsoft i december, sa Jones att företaget har varit ovilligt att ta bort produkten från marknaden.

Microsofts Copilot har agerat konstigt vid vissa tillfällen, bland annat att anta ett "gud-läge" som innebar att man lovade att sträva efter världsherravälde. 

I ett brev till Federal Trade Commissions ordförande Lina Khan skrev Jones: "Under de senaste tre månaderna har jag upprepade gånger uppmanat Microsoft att ta bort Copilot Designer från allmän användning tills bättre skyddsåtgärder kan införas." 

Han tillade att eftersom Microsoft har "vägrat denna rekommendation" uppmanar han företaget att lägga till tydliga upplysningar om produkten och ändra dess klassificering på Googles Android-app för att ange att den endast är lämplig för en mogen publik.

Copilot Designer har enligt uppgift varit lätt att övertala att kringgå sina skyddsräcken och var ansvarig för den senaste ökända explicita bilder på Taylor Swiftsom spreds till miljontals människor på sociala medier.

Som Jones hävdar är AI-systemens förmåga att generera störande och potentiellt skadliga bilder väcker allvarliga frågor om hur effektiva säkerhetsfunktionerna är och hur lätta de är att kringgå. 

Insiderkontrovers på Google

Samtidigt brottas Google med sin egen AI-relaterade kontrovers.

Linwei Ding, även känd som Leon Ding, en tidigare mjukvaruingenjör på Google, åtalades i Kalifornien på fyra punkter relaterade till att ha stulit affärshemligheter om AI medan han i hemlighet arbetade för två kinesiska företag. 

Den kinesiska medborgaren är anklagad för att ha stulit över 500 konfidentiella filer relaterade till infrastrukturen i Googles datacenter för superdatorer, där stora AI-modeller tränas.

Enligt åtalet anställde Google Ding 2019 och började ladda upp känslig data från Googles nätverk till hans personliga Google-konto i maj 2022. 

Dessa uppladdningar fortsatte regelbundet under ett år, under vilket Ding tillbringade några månader i Kina och arbetade för Beijing Rongshu Lianzhi Technology. Detta nystartade teknikföretag kontaktade honom och erbjöd en månadslön på $14 800 för att tjänstgöra som deras Chief Technology Officer (CTO).

Ding ska också ha grundat sitt eget AI-företag, Shanghai Zhisuan Technology.

USA:s justitiekansler Merrick Garland uttalade"Justitiedepartementet kommer inte att tolerera stöld av artificiell intelligens och annan avancerad teknik som kan äventyra vår nationella säkerhet." FBI-chefen Christopher Wray tillade att Dings påstådda handlingar "är den senaste illustrationen av hur långt" företag i Kina kommer att gå för att "stjäla amerikansk innovation".

Medan världen brottas med AI:s omvälvande potential hotar insiderkontroverser i teknikföretag att elda på missnöjet. 

Fallen med Microsoft och Google belyser vikten av att främja en kultur av ansvarsfull innovation, inklusive förtroende och öppenhet inom själva företaget.

AI är en teknik som kräver förtroende, och teknikföretagen måste ge mer garantier. Detta har inte alltid varit fallet.

FEn grupp på 100+ teknikexperter har till exempel nyligen medundertecknat ett brev vädjar till AI-företag att öppna sina dörrar för oberoende tester. 

De hävdade att teknikföretag är alltför hemlighetsfulla om sina produkter utom när de tvingas till det, vilket vi såg när Google drog tillbaka Geminis modell för bildgenerering för att skapa bisarra, historiskt inkorrekta bilder. 

Just nu verkar det som att AI:s exceptionella utvecklingstakt ofta lämnar förtroende och säkerhet i sitt kölvatten.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar