Op dag twee van de AI Safety Summit probeerde de Britse premier Rishi Sunak duidelijk te maken dat AI-ontwikkelaars de overheid toestemming moeten geven om tools te evalueren voordat ze op de markt komen.
Sunak zei dat de resultaten van de top "de balans zullen doen doorslaan ten gunste van de mensheid" en onthulde dat industrieleiders, waaronder Meta, Google Deep Mind en OpenAI, hebben ingestemd met het vooraf testen van hun AI-innovaties - iets wat ze al hadden verklaard te doen in een recent vrijwillig kader dat door de VS is ontwikkeld.
De toezeggingen die tijdens dag twee van de top werden gedaan, waren onder andere de oprichting van een deskundigenorgaan genaamd de AI Veiligheidsinstituut.
LIVE: Verklaring van minister-president Rishi Sunak van de AI Safety Summit in Bletchley Park https://t.co/YLn6O8FO7f
- Minister-president van het Verenigd Koninkrijk (@10DowningStreet) 2 november 2023
Een ander hoogtepunt van dag twee is de onthulling van een binnenkort verschijnend "State of AI Science" rapport onder leiding van 'AI-godfather' Yoshio Bengio.
"Dit idee is geïnspireerd op de manier waarop het Intergovernmental Panel on Climate Change is opgezet om internationale wetenschappelijke consensus te bereiken," zei Sunak.
De overeengekomen kader pleit voor uitgebreide veiligheidsbeoordelingen van AI-modellen voor en na de ingebruikname, met de nadruk op gezamenlijke testinspanningen waarbij overheden betrokken zijn, met name op gebieden die van invloed zijn op de nationale veiligheid en het maatschappelijk welzijn.
De betrokkenheid van de industrie bij deze zaak werd onderstreept door opmerkingen van Demis Hassabis, CEO van Google DeepMind, die verklaarde: "AI kan helpen bij het oplossen van enkele van de meest kritieke uitdagingen van onze tijd, van het genezen van ziekten tot het aanpakken van de klimaatcrisis. Maar het zal ook nieuwe uitdagingen voor de wereld met zich meebrengen en we moeten ervoor zorgen dat de technologie veilig wordt gebouwd en ingezet. Om dit voor elkaar te krijgen is een gezamenlijke inspanning nodig van overheden, industrie en maatschappelijke organisaties om robuuste veiligheidstests en evaluaties te ontwikkelen. Ik ben verheugd dat het Verenigd Koninkrijk het AI Safety Institute heeft opgericht om de voortgang van dit belangrijke werk te versnellen."
China neemt niet deel aan deze multilaterale initiatieven. Dit pact krijgt echter de steun van de EU en leidende landen zoals de VS, het VK, Japan, Frankrijk en Duitsland en wordt gesteund door techreuzen zoals Google, Amazon, Microsoft en Meta.
Hoewel de premier vragen kreeg over de vrijwillige aard van de overeenkomsten en het ontbreken van bindende wetgeving, hield hij vol dat AI snelle actie vereist en suggereerde hij dat "bindende eisen" voor AI-bedrijven onvermijdelijk zouden kunnen zijn.
Samen met de Bletchley Park aangifteDe top heeft geprobeerd om actie te ondernemen rond AI, maar critici hebben het grotendeels afgedaan als symbolisch in plaats van actiegericht.
Voordat hij live ging met Sunak, postte Musk op X een spottende cartoon van figuren die wereldmachten vertegenwoordigen die de risico's van AI bespreken en tegelijkertijd in hun handen wrijven over het potentieel van dominantie.
Hij is niets als hij niet controversieel is, maar je moet zeggen dat het een geestige kwinkslag is voor een top die inherent gebaseerd is op beloften. Het zou echter reductionistisch zijn om te suggereren dat dit betekent dat er niets wordt bereikt, maar de echte inhoud van de gesprekken blijft hypothetisch.
Zucht pic.twitter.com/jDDTkewbDL
- Elon Musk (@elonmusk) 2 november 2023
Ter afsluiting van de top gaf de Britse regering trots de Bletchley-verklaring uit, ondertekend door 28 regeringen, waaronder het VK, de VS en de EU, waarin een gezamenlijke benadering van AI-veiligheidsnormen werd beloofd, die doet denken aan afspraken over klimaatcrises.
Over het geheel genomen zijn de diplomatieke inspanningen van Rishi Sunak op de AI-top erkend als een prestatie, waardoor het Verenigd Koninkrijk een pionier is geworden in het nastreven van wereldwijde AI-veiligheid en -regulering, waarmee de weg is geëffend voor Frankrijk als gastheer voor de volgende top in 2024.
Nadat ik 9 jaar lang heb aangedrongen op een internationale top over AI-veiligheid, was ik erg ontroerd dat ik er eindelijk deel van mocht uitmaken! @RishiSunak had meer succes dan ik had verwacht, met opvallende eenheid tussen 1) VS & China, 2) degenen die zich richten op huidige schade versus existentieel risico & 3)... https://t.co/KAQ4HCIPQo
- Max Tegmark (@tegmark) 2 november 2023
Dag twee van de top
Dag twee van de top werd afgesloten met een debat tussen Sunak en Musk. Hier zijn enkele van de belangrijkste gebeurtenissen van de laatste (eerste) tot de laatste (laatste) dag.
Bekijk de stream van 50 minuten hier.
AI-discussie met @RishiSunak
pic.twitter.com/f5FHGQzE4r- Elon Musk (@elonmusk) 2 november 2023
- Musk stelde dat een fysieke "uitknop" de AI zou kunnen uitschakelen in het geval van catastrofale problemen. "Wat als ze op een dag een software-update krijgen en opeens toch niet meer zo vriendelijk zijn?" Musk vertelde Sunak.
- Als Sunak vraagt waarom Musk onlangs het content moderatiesysteem van Twitter heeft veranderd, stelt Musk dat alle content moderators vooroordelen hebben. Hij vraagt: "Hoe kunnen we de waarheid op basis van consensus benaderen?" en zegt dat het zijn doel is om een "zuiverdere waarheid" te bereiken. Musk beweert dat zijn nieuwe moderatiesysteem gewoon meer context en transparantie biedt en zegt: "Alles is open source. Je kunt alle gegevens zien en zien of het systeem wordt misbruikt, verbeteringen voorstellen... Waarheid loont."
- Musk voorspelt dat AI-robots in de toekomst echte vrienden van mensen kunnen worden. Hij beweert dat ze een gedetailleerd geheugen zullen hebben en kennis door uitgebreid te lezen, en zegt: "Je zou er elke dag mee kunnen praten, dan heb je echt een geweldige vriend. Dat zal echt iets zijn.
- Musk doet de gewaagde voorspelling dat AI zo ver zal komen dat "er geen baan meer nodig is" voor mensen. Hij stelt: "Je kunt een baan hebben als je dat wilt voor persoonlijke voldoening, AI kan alles." Musk zegt dat dit positief of negatief kan zijn en uitdagingen kan opleveren voor het vinden van betekenis en een doel. Maar hij stelt ook dat het kan zorgen voor een "universeel hoog inkomen" en de beste docenten kan maken. Over het algemeen ziet hij veel voordelen voor onderwijs, productiviteit en automatisering van gevaarlijke banen.
- Toen Sunak opmerkte dat hij kritiek kreeg omdat hij China had uitgenodigd, prees Musk de beslissing als "moedig". Musk stelt dat samenwerking met China op het gebied van AI-veiligheid essentieel is en zegt dat hun deelname een zeer positief teken is.
- Musk vertelt Sunak dat hij gelooft dat overheden moeten optreden als "scheidsrechters" om de openbare veiligheid met AI te waarborgen en tegelijkertijd innovatie toe te staan. Hij herhaalt zijn standpunt dat AI over het algemeen "een kracht ten goede" zal zijn. Dit is in tegenstelling tot wat Musk in het verleden heeft gezegd, wat zijn meanderende opvattingen over AI aantoont.
- Voorafgaand aan hun gesprek is Musk optimistisch over het potentieel van AI, maar hij waarschuwt dat het risico's met zich mee kan brengen, waarbij hij de analogie gebruikt van een "magisch geestenprobleem" waarbij wensen vaak misgaan
- Tijdens zijn persconferentie verdedigde Sunak de stappen die overheden nemen om AI-veiligheidsrisico's aan te pakken door te zeggen dat ze "het juiste en verantwoordelijke" doen om het publiek te beschermen, ook al zijn de risico's nog onzeker.
- Uit een nieuwe enquête blijkt dat slechts 15% van de mensen vertrouwen heeft in het vermogen van de Britse overheid om AI effectief te reguleren. 29% heeft er helemaal geen vertrouwen in.
- Op de vraag of AI een existentiële bedreiging kan vormen, zegt Sunak dat het aannemelijk is dat het risico's met zich meebrengt op de schaal van een kernoorlog of een pandemie. Hij stelt dat leiders daarom de plicht hebben om beschermende maatregelen te nemen.
- Wetenschapssecretaris Donelan zegt dat het AI-risico waar ze zich het meest zorgen over maakt een "Terminator-scenario" is, waarbij machines oncontroleerbaar worden. Ze ziet dit als een lagere waarschijnlijkheid maar de grootste impact.
Meer analyse van de top volgt in de komende dagen. In het algemeen wordt de indruk gewekt van een symbolisch gedenkwaardige gebeurtenis met een enorm potentieel.
Maar potentieel wordt niet gemakkelijk omgezet in wetgeving en uiteindelijk in actie. Alleen de tijd zal het leren.