Max Tegmark, MIT-professor, natuurkundige en medeoprichter van het Future of Life Institute, heeft zijn bezorgdheid geuit over het niet aflatende tempo waarin AI zich ontwikkelt.
Hij suggereert dat de intense concurrentie tussen techbedrijven robuuste zelfregulering minder waarschijnlijk maakt.
Binnen een jaar tijd hebben grote spelers zoals OpenAI en Google minstens twee generaties AI-modellen uitgebracht.
GPT-4 betekende een enorme verbetering ten opzichte van GPT-3.5 en overtrof de parameters zo'n vijf tot tien keer.
Eerder dit jaar leidde Tegmark een open brief die opriep tot een pauze van zes maanden in de ontwikkeling van geavanceerde AI-systemen.
De brief kreeg massale steun van industrieleiders, politici en verschillende publieke figuren, met meer dan 30.000 ondertekenaars, waaronder Elon Musk en de medeoprichter van Apple, Steve Wozniak.
De brief beschreef levendig de potentiële gevaren van ongebreidelde AI-ontwikkeling. Het drong er bij overheden op aan om in te grijpen als grote AI-spelers, zoals Google, OpenAI, Meta en Microsoft, geen consensus kunnen bereiken over hoe de voordelen van AI kunnen worden benut terwijl de risico's worden beperkt.
Het Center for AI Safety (CAIS) vergeleek AI-risico's met een kernoorlog
Na die eerste brief gaf de CAIS een verklaring uit die werd gesteund door talloze technologieleiders en academici, waarin de maatschappelijke risico's van AI werden vergeleken met die van pandemieën en kernoorlogen.
De CAIS-verklaring"Het verminderen van het risico op uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico's op maatschappelijke schaal zoals pandemieën en kernoorlogen."
Maar ondanks het sentiment dat zelfregulering nodig is totdat er regelgeving van kracht wordt, ging de techindustrie grotendeels door met hetzelfde tempo van AI-ontwikkeling.
Tegmark reflecteerde op de impact van de brief en de redenen achter het beperkte succes om de ontwikkeling van AI een halt toe te roepen, in een verklaring aan de GuardianIk had het gevoel dat veel bedrijfsleiders met wie ik sprak [een pauze] wilden, maar ze zaten gevangen in deze race naar de bodem tegen elkaar. Dus geen enkel bedrijf kan alleen pauzeren."
Tegmark merkte echter op dat de debatten over een groter politiek bewustzijn van AI-veiligheid in een stroomversnelling raken, waarbij hij wees op hoorzittingen in de Amerikaanse Senaat, Chuck Schumer's eerste AI Inzicht Forumen november's Wereldwijde top over AI-veiligheid in het Verenigd Koninkrijk.
Vooruitkijkend waarschuwde Tegmark tegen het zien van de ontwikkeling van een "god-achtige algemene intelligentie" als een verre dreiging, verwijzend naar sommigen in de AI-gemeenschap die geloven dat de realisatie ervan dichterbij zou kunnen zijn dan velen verwachten - namelijk OpenAI.
Tegmark benadrukte tot slot het belang van veiligheidsstandaarden bij AI-ontwikkeling en uitte zijn bezorgdheid over open-source AI-modellen, zoals Meta's Llama 2.
Hij trok een parallel met andere krachtige technologieën en waarschuwde: "Gevaarlijke technologie zou niet open source moeten zijn, of het nu gaat om biowapens of software."