Deze week riepen twee insidersituaties bij techgiganten Microsoft en Google vragen op over de verantwoorde ontwikkeling van AI-systemen en het beheer van intellectueel eigendom.
Ten eerste heeft Shane Jones, een principal software engineering manager met zes jaar ervaring, bij Microsoft in zijn vrije tijd zelfstandig de AI-beeldgenerator Copilot Designer getest.
Jones vertelde CNBC dat hij diep verontrust was door de gewelddadige, seksuele en auteursrechtelijk beschermde beelden die het programma kon genereren. "Het was een openbaring," zei Jones. "Toen realiseerde ik me voor het eerst, wow dit is echt geen veilig model."
Sinds november 2022 test Jones het product actief op kwetsbaarheden, een praktijk die bekend staat als red-teaming.
Hij ontdekte dat Copilot Designer beelden kon maken van "demonen en monsters naast terminologie die te maken heeft met abortusrechten, tieners met geweren, geseksualiseerde beelden van vrouwen in gewelddadige tableaus en drank- en drugsgebruik door minderjarigen".
Ondanks dat hij zijn bevindingen in december aan Microsoft rapporteerde, zei Jones dat het bedrijf aarzelde om het product van de markt te halen.
Microsofts Copilot heeft zich soms vreemd gedragen, waaronder een "god-modus" aannemen"waarin het zwoer wereldheerschappij na te streven.
In een brief aan de voorzitter van de Federal Trade Commission, Lina Khan, schreef Jones: "De afgelopen drie maanden heb ik er herhaaldelijk bij Microsoft op aangedrongen om Copilot Designer uit het openbare gebruik te halen totdat er betere beveiligingen zijn aangebracht."
Hij voegde eraan toe dat aangezien Microsoft "die aanbeveling heeft geweigerd", hij er bij het bedrijf op aandringt om duidelijke vermeldingen aan het product toe te voegen en de classificatie op de Android-app van Google te wijzigen om aan te geven dat het alleen geschikt is voor een volwassen publiek.
Copilot Designer is naar verluidt gemakkelijk over te halen om de vangrails te omzeilen en was verantwoordelijk voor de recente beruchte expliciete beelden van Taylor Swiftdie miljoenen mensen via sociale media hebben bereikt.
Zoals Jones betoogt, is de Het vermogen van AI-systemen om verontrustende en mogelijk schadelijke beelden te genereren roept serieuze vragen op over de doeltreffendheid van veiligheidsfuncties en hoe makkelijk ze te ondermijnen zijn.
Controverse met voorkennis bij Google
Ondertussen worstelt Google met zijn eigen AI-gerelateerde controverse.
Linwei Ding, ook bekend als Leon Ding, een voormalig software-ingenieur van Google, is in Californië aangeklaagd op vier aanklachten die verband houden met het stelen van handelsgeheimen over AI terwijl hij in het geheim werkte voor twee Chinese bedrijven.
De Chinees is beschuldigd van stelen meer dan 500 vertrouwelijke bestanden met betrekking tot de infrastructuur van Google's supercomputing datacenters, waar grote AI-modellen worden gehost en getraind.
Volgens de aanklacht nam Google Ding in 2019 in dienst en begon hij in mei 2022 gevoelige gegevens van het netwerk van Google te uploaden naar zijn persoonlijke Google-account.
Deze uploads gingen periodiek door gedurende een jaar, waarin Ding een paar maanden in China werkte voor Beijing Rongshu Lianzhi Technology. Dit startende techbedrijf benaderde hem en bood hem een maandsalaris van $14.800 om te dienen als hun Chief Technology Officer (CTO).
Ding zou ook zijn eigen AI-bedrijf hebben opgericht, Shanghai Zhisuan Technology.
Amerikaanse procureur-generaal Merrick Garland verklaarde"Het ministerie van Justitie zal diefstal van kunstmatige intelligentie en andere geavanceerde technologieën die onze nationale veiligheid in gevaar kunnen brengen, niet tolereren." FBI-directeur Christopher Wray voegde eraan toe dat de vermeende acties van Ding "de nieuwste illustratie zijn van de moeite" die bedrijven in China doen "om Amerikaanse innovatie te stelen."
Terwijl de wereld worstelt met het transformatiepotentieel van AI, dreigen controverses met voorkennis in techbedrijven het vuur van onenigheid aan te wakkeren.
De voorbeelden bij Microsoft en Google laten zien hoe belangrijk het is om een cultuur van verantwoorde innovatie te stimuleren, inclusief vertrouwen en transparantie binnen het bedrijf zelf.
AI is een technologie die om vertrouwen vraagt en techbedrijven moeten meer zekerheid bieden. Dit is niet altijd het geval geweest.
FZo heeft een groep van meer dan 100 technische experts onlangs een brief medeondertekend pleiten bij AI-bedrijven om hun deuren te openen voor onafhankelijke tests.
Ze voerden aan dat techbedrijven te geheimzinnig doen over hun producten, behalve als ze gedwongen worden, zoals we zagen toen Google de stekker eruit trok. Gemini's model voor beeldgeneratie voor het maken van bizarre, historisch onjuiste beelden.
Op dit moment lijkt het erop dat het uitzonderlijke ontwikkelingstempo van AI het vertrouwen en de veiligheid vaak in de steek laat.