Ondanks de toenemende bezorgdheid over AI, stelt Meta's hoofd van wereldwijde zaken en communicatie, Sir Nick Clegg, dat de technologie op dit moment te "dom" is om zo'n gevaar te vormen.
Dit valt samen met de onthulling van Meta's nieuwe grote taalmodel (LLM), LLama 2.
Sir Nick - een voormalig Brits politicus - zei op BBC Radio 4's programma Today: "Ik denk dat veel van de existentiële waarschuwingen te maken hebben met modellen die op dit moment nog niet bestaan, zogenaamde superintelligente, superkrachtige AI-modellen - de visie waarbij AI een autonomie en agency ontwikkelt, waarbij het voor zichzelf kan denken en zichzelf kan reproduceren. De modellen die we open-sourcen zijn daar ver, ver, ver van verwijderd. In feite zijn ze in veel opzichten behoorlijk dom."
De Llama AI chatbot, een open-source project van Meta, stelt individuen en organisaties in staat om het model naar believen af te stemmen en te optimaliseren, inclusief het trainen op hun eigen interne gegevens.
Dit kan concurrerende bedrijven, zoals OpenAI, die bedrijven laten betalen voor het gebruik van hun AI's, ondermijnen.
Llama 2 is een serieuze concurrent voor eigen AI-modellen
Meta's Llama 2 wordt beschikbaar gemaakt als onderdeel van een samenwerking met Microsoft.
Dit is interessant gezien Microsofts uitgebreide investering in OpenAI, een van Llama's rivalen, ChatGPT. Big tech investeringen en onderzoek zijn volledig verstrengeld geraakt, met concurrenten die expertise en middelen delen.
Het is een bizarre situatie - Microsoft, OpenAI's grootste geldschieter, beweert dat ze niet in de lus zijn met de strategieën van OpenAI, terwijl OpenAI openlijk samenwerkt met enkele rivalen van Microsoft.
Meta's eerste LLM, LLaMA, werd uitgelekt naar het publiek via 4Chan. Toen het publiek het model in handen kreeg, begonnen gemeenschappen het te tunen en te optimaliseren, waaronder het afslanken voor gebruik op een MacBook, smartphone en zelfs een Raspberry PI.
Sommigen beweren dat bedrijven als OpenAI jagen op regelgeving omdat ze weten dat dit de open-sourcegemeenschap stuntengroei, die is uitgegroeid tot een belangrijke verstorende kracht in de AI-industrie.
Ondanks de angst dat open-source AI kan worden misbruikt door kwaadwillende actoren, houdt Meta vol dat zijn AI niet zal worden gebruikt om schadelijke activiteiten te bevorderen.
Toen Sir Nick werd gevraagd naar de mogelijke gevaren van deze modellen, verklaarde hij dat ze "geen kernbom kunnen bouwen".
Mark Zuckerberg voerde verder aan dat open-source modellen de veiligheid kunnen vergroten door "verbeterde veiligheid en beveiliging omdat wanneer software open is, meer mensen het kunnen onderzoeken".
De gebruiksvoorwaarden van Meta verbieden specifiek het gebruik van Llama om geweld te promoten, computervirussen te maken, wapens te bouwen, nucleaire technologie te ontwikkelen, spam te verspreiden, haat te zaaien of kindermisbruikcontent te delen.
Dit zijn echter slechts voorwaarden voor het downloaden van het model. Open-source is open-source en het publiek zal uiteindelijk doen wat ze willen met Llama 2.
Volgens Sir Nick is de beslissing van Meta om zijn technologie open source te maken niet ongebruikelijk. Hij zei: "Het is niet alsof we op een T-splitsing staan waar bedrijven kunnen kiezen om open source te gebruiken of niet. Modellen worden al de hele tijd open source gemaakt."
Hij stelde ook dat de huidige AI-tools niet zo geavanceerd zijn als ze vaak worden afgeschilderd. Hij beschreef generatieve AI's zoals ChatGPT als AI's die "razendsnel kunnen raden", maar "helemaal geen aangeboren autonome intelligentie" hebben.
Wat de AI-gemeenschap voor elkaar krijgt met Llama 2 is een boeiende observatie.