{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nl\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"Navigeren door het labyrint van AI-risico's: een analyse"},"content":{"rendered":"<p><strong>Het verhaal over de risico's van AI wordt steeds eenpoliger, met technologieleiders en experts uit alle hoeken die aandringen op regulering. Hoe geloofwaardig is het bewijs dat de risico's van AI aantoont?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">De risico's van AI spreken tot de verbeelding. <\/span><span style=\"font-weight: 400\">Er is iets diep intu\u00eftiefs aan het vrezen van robots die ons kunnen misleiden, overmeesteren of veranderen in handelswaar dat ondergeschikt is aan hun eigen bestaan.<\/span><\/p>\n<p><span style=\"font-weight: 400\">De discussies over de risico's van AI zijn heviger geworden nadat t<\/span><span style=\"font-weight: 400\">e non-profit <\/span><span style=\"font-weight: 400\">Centrum voor AI-veiligheid (CAIS)<\/span><span style=\"font-weight: 400\"> een <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">verklaring<\/a>\u00a0ondertekend door meer dan 350 bekende personen, waaronder de CEO's van OpenAI, Anthropic en DeepMind, talloze academici, publieke figuren en zelfs ex-politici.\u00a0<\/span><\/p>\n<p>De titel van de verklaring was voorbestemd voor de krantenkoppen: <strong>\"Het beperken van het risico op uitsterven door AI zou een wereldwijde prioriteit moeten zijn naast andere risico's op maatschappelijke schaal, zoals pandemie\u00ebn en kernoorlogen.\"<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Het wordt steeds moeilijker om een zinvol signaal uit dit rumoerige debat te halen. De critici van AI hebben alle munitie die ze nodig hebben om tegen AI te argumenteren, terwijl voorstanders of voorstanders van een afwachtende houding alles hebben wat ze nodig hebben om anti-AI verhalen als overhyped af te keuren.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En er is ook een subplot. Big tech zou kunnen aandringen op regelgeving om <a href=\"https:\/\/dailyai.com\/nl\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">de AI-industrie afschermen<\/a> van de open-source gemeenschap. <\/span>Microsoft heeft ge\u00efnvesteerd in OpenAI, Google in Anthropic - de volgende stap zou kunnen zijn om de drempel voor toetreding te verhogen en open-source innovatie te wurgen.<\/p>\n<p>In plaats van dat AI een existentieel risico vormt voor de mensheid, zou het wel eens open-source AI kunnen zijn die een existentieel risico vormt voor big tech. De oplossing is hetzelfde - controleer het nu.<\/p>\n<h2>Te vroeg om kaarten van tafel te halen<\/h2>\n<p>AI is nog maar net opgedoken in het publieke bewustzijn, dus vrijwel alle perspectieven op risico's en regulering blijven relevant. De CAIS-verklaring kan op zijn minst fungeren als een waardevolle leidraad voor een op feiten gebaseerde discussie.<\/p>\n<p><span style=\"font-weight: 400\">Dr. Oscar Mendez Maldonado, docent Robotica en Kunstmatige Intelligentie aan de Universiteit van Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">zei<\/a>\"Het document dat door AI-experts is ondertekend, is aanzienlijk genuanceerder dan de huidige krantenkoppen doen geloven. Bij \"AI kan uitsterven veroorzaken\" denk je meteen aan een terminator-achtige AI-overname. Het document is aanzienlijk realistischer dan dat.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Zoals Maldonado benadrukt, wordt de echte inhoud van de AI-risicoverklaring gepubliceerd op een andere pagina van hun website -... <a href=\"https:\/\/www.safe.ai\/ai-risk\">AI-risico<\/a> - en er is opvallend weinig discussie geweest over de punten die daar naar voren zijn gebracht. Inzicht in de geloofwaardigheid van AI-risico's is van fundamenteel belang om de debatten eromheen te informeren.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Welk bewijs heeft CAIS verzameld om haar boodschap te onderbouwen? Lijken de vaak aangehaalde risico's van AI geloofwaardig?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 1: AI-wapening<\/span><\/h2>\n<p><span style=\"font-weight: 400\">De bewapening van AI is een angstaanjagend vooruitzicht, dus het is misschien geen verrassing dat dit de toppositie inneemt onder de 8 risico's van de CAIS.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">De CAIS stelt dat AI als wapen kan worden ingezet bij cyberaanvallen, zoals onderzoekers van het Center of Security and Emerging Technology hebben aangetoond. <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">overzicht de toepassingen<\/span><\/a><span style=\"font-weight: 400\"> van machine learning (ML) voor het aanvallen van IT-systemen. <\/span><span style=\"font-weight: 400\">Ex-Google CEO Eric Schmidt <a href=\"https:\/\/dailyai.com\/nl\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">trok ook de aandacht<\/a> aan het potentieel van AI om 'zero-day exploits' op te sporen, die hackers een middel bieden om systemen binnen te dringen via de zwakste punten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Op een andere manier bespreekt Michael Klare, die adviseert over wapenbeheersing, de <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">automatisering van nucleaire commando- en besturingssystemen<\/span><\/a><span style=\"font-weight: 400\">die ook kwetsbaar kunnen blijken voor AI. Hij zegt: \"Deze systemen zijn ook gevoelig voor onverklaarbare storingen en kunnen voor de gek worden gehouden, of \"gespoofed\", door ervaren professionals. Hoeveel er ook wordt uitgegeven aan cyberbeveiliging, NC3-systemen zullen altijd kwetsbaar zijn voor hacken door geavanceerde tegenstanders.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een ander voorbeeld van mogelijke bewapening is de geautomatiseerde ontdekking van biowapens. AI is er al in geslaagd om potentieel <a href=\"https:\/\/dailyai.com\/nl\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">therapeutische verbindingen<\/a>De mogelijkheden zijn er dus al.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">AI's kunnen zelfs autonoom wapentests uitvoeren met minimale menselijke begeleiding. Een onderzoeksteam van de Universiteit van Pittsburgh toonde bijvoorbeeld aan dat geavanceerde <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">AI-agenten kunnen hun eigen autonome wetenschappelijke experimenten uitvoeren<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 2: verkeerde informatie en fraude<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Het potentieel van AI om mensen te kopi\u00ebren en na te bootsen zorgt al voor opschudding en we zijn nu al getuige geweest van verschillende fraudegevallen met diepe vervalsingen. <a href=\"https:\/\/dailyai.com\/nl\/2023\/06\/ai-related-fraud-on-the-rise-in-china\/\">Verslagen uit China<\/a> geven aan dat AI-gerelateerde fraude wijdverbreid is.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een recent geval betrof een vrouw uit Arizona die de telefoon opnam en geconfronteerd werd met haar snikkende dochter - dat dacht ze tenminste. \"De stem klonk net als die van Brie, de stembuiging, alles,\" zei ze. <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">vertelde ze aan CNN<\/span><\/a><span style=\"font-weight: 400\">. De fraudeur eiste $1 miljoen losgeld.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Andere tactieken zijn onder andere het gebruik van generatieve AI voor 'sextortion' en wraakporno, waarbij bedreigers AI-gegenereerde afbeeldingen gebruiken om losgeld te eisen voor expliciete valse inhoud, die de <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">FBI waarschuwde begin juni<\/span><\/a><span style=\"font-weight: 400\">. Deze technieken worden steeds geavanceerder en eenvoudiger op schaal te lanceren.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 3: Proxy of specificatie gaming<\/span><\/h2>\n<p><span style=\"font-weight: 400\">AI-systemen worden meestal getraind aan de hand van meetbare doelstellingen. Deze doelstellingen kunnen echter slechts een vervanging zijn voor de echte doelen, wat leidt tot ongewenste uitkomsten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een nuttige analogie is de Griekse mythe van koning Midas, die een wens kreeg van Dionysos.\u00a0<\/span><span style=\"font-weight: 400\">Midas vraagt dat alles wat hij aanraakt in goud verandert, maar realiseert zich later dat zijn voedsel ook in goud verandert, waardoor hij bijna verhongert.\u00a0<\/span><span style=\"font-weight: 400\">Hier leidt het nastreven van een 'positief' einddoel tot negatieve gevolgen of bijproducten van het proces. <\/span><\/p>\n<p><span style=\"font-weight: 400\">De CAIS vestigt bijvoorbeeld de aandacht op AI-aanbevelingssystemen die op sociale media worden gebruikt om de kijktijd en klikfrequentie te maximaliseren, maar inhoud die de betrokkenheid maximaliseert is niet noodzakelijkerwijs <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">goed voor het welzijn van gebruikers<\/span><\/a><span style=\"font-weight: 400\">. AI-systemen hebben al de schuld gekregen van het opsluiten van meningen op sociale mediaplatforms om 'echokamers' te cre\u00ebren die extreme idee\u00ebn in stand houden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">DeepMind bewees dat er subtielere manieren zijn voor AI's om schadelijke trajecten naar doelen te volgen via <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">doel verkeerd generaliseren<\/span><\/a><span style=\"font-weight: 400\">. In hun onderzoek ontdekte DeepMind dat een schijnbaar competente AI zijn doel verkeerd zou kunnen generaliseren en het naar de verkeerde doelen zou kunnen volgen.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 4: Maatschappelijke verzwakking<\/span><\/h2>\n<p><span style=\"font-weight: 400\">CAIS trekt een parallel met de dystopische wereld van de film WALL-E en waarschuwt voor een te groot vertrouwen in AI.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dit zou kunnen leiden tot een scenario waarin mensen hun vermogen tot zelfbestuur verliezen, waardoor de mensheid minder controle heeft over de toekomst. Verlies van menselijke creativiteit en authenticiteit is een andere grote zorg, die wordt vergroot door het creatieve talent van AI in kunst, schrijven en andere creatieve disciplines.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een Twitter-gebruiker zei: \"Mensen die het zware werk doen voor een minimumloon terwijl robots po\u00ebzie schrijven en schilderen is niet de toekomst die ik voor ogen had. De tweet kreeg meer dan 4 miljoen impressies.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Mensen die het zware werk doen voor een minimumloon terwijl de robots po\u00ebzie schrijven en schilderen is niet de toekomst die ik voor ogen had.<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">15 mei 2023<\/a><\/p><\/blockquote>\n<p>Inbreuk is geen dreigend risico, maar <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">sommigen beweren<\/a> dat het verlies van vaardigheden en talent in combinatie met de dominantie van AI-systemen zou kunnen leiden tot een scenario waarin de mensheid stopt met het cre\u00ebren van nieuwe kennis.<\/p>\n<h2><span style=\"font-weight: 400\">Risico 5: Risico van waardevastheid<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Krachtige AI-systemen kunnen mogelijk een lock-in van onderdrukkende systemen cre\u00ebren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Zo kan AI-centralisatie bepaalde regimes de macht geven om waarden af te dwingen door middel van surveillance en onderdrukkende censuur.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een andere mogelijkheid is dat waardevastheid onbedoeld ontstaat door de na\u00efeve adoptie van risicovolle AI's. De onnauwkeurigheid van gezichtsherkenning heeft bijvoorbeeld geleid tot de tijdelijke opsluiting van ten minste drie mannen in de VS. Zo leidde de onnauwkeurigheid van gezichtsherkenning tot de tijdelijke opsluiting van ten minste drie mannen in de VS, waaronder <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver en Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">, die onterecht werden vastgehouden vanwege een valse gezichtsherkenning in 2019.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een zeer invloedrijke <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">Onderzoek uit 2018 getiteld Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> ontdekten dat algoritmen ontwikkeld door Microsoft en IBM slecht presteerden bij het analyseren van vrouwen met een donkere huidskleur, met foutpercentages die tot 34% hoger lagen dan bij lichter gekleurde mannen. Dit probleem werd ge\u00efllustreerd in 189 andere algoritmen, die allemaal een lagere nauwkeurigheid vertoonden voor mannen en vrouwen met een donkere huidskleur.<\/span><\/p>\n<p><span style=\"font-weight: 400\">De onderzoekers stellen dat AI's structurele vooroordelen erven omdat ze voornamelijk worden getraind op open-source datasets die zijn gemaakt door westerse onderzoeksteams en verrijkt met de meest overvloedige bron van data - het internet. Een massale adoptie van slecht doorgelichte AI's zou deze structurele vooroordelen kunnen cre\u00ebren en versterken.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 6: AI ontwikkelt nieuwe doelen\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">AI-systemen kunnen nieuwe mogelijkheden ontwikkelen of onverwachte doelen nastreven met schadelijke gevolgen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Onderzoekers van de Universiteit van Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">de aandacht vestigen op AI-systemen die steeds agentgerichter worden<\/span><\/a><span style=\"font-weight: 400\"> die de mogelijkheid krijgen om nieuwe doelen na te streven. Emergente doelen zijn onvoorspelbare doelen die voortkomen uit het gedrag van een complexe AI, zoals het uitschakelen van menselijke infrastructuur om het milieu te beschermen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Bovendien is een <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">Onderzoek 2017<\/span><\/a><span style=\"font-weight: 400\"> ontdekten dat AI's kunnen leren om zichzelf niet uit te schakelen, een probleem dat nog groter zou kunnen worden als ze worden ingezet op meerdere gegevensmodaliteiten. Als een AI bijvoorbeeld besluit dat hij, om zijn doel te bereiken, zichzelf in een clouddatabase moet installeren en over het internet moet repliceren, dan kan het uitschakelen bijna onmogelijk worden.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Een andere mogelijkheid is dat potentieel gevaarlijke AI's die zijn ontworpen om alleen op beveiligde computers te draaien, worden 'bevrijd' en losgelaten in de bredere digitale omgeving, waar hun acties onvoorspelbaar kunnen worden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Bestaande AI-systemen hebben al bewezen dat ze onvoorspelbaar zijn. Bijvoorbeeld <\/span><span style=\"font-weight: 400\">GPT-3 groter werd, kreeg het de <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">kunnen rekenen<\/span><\/a><span style=\"font-weight: 400\">ondanks dat ze geen expliciete rekenlessen kregen.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 7: AI misleiding<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Het is aannemelijk dat toekomstige AI-systemen hun makers en monitors zouden kunnen misleiden, niet noodzakelijk met de intentie om kwaad te doen, maar als hulpmiddel om hun doelen effici\u00ebnter te bereiken.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Misleiding kan een eenvoudigere weg zijn om de gewenste doelen te bereiken dan het nastreven van die doelen met legitieme middelen. AI-systemen kunnen ook prikkels ontwikkelen om hun controlemechanismen te omzeilen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, de directeur van CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">beschrijft dat eens<\/span><\/a><span style=\"font-weight: 400\"> Deze bedrieglijke AI-systemen krijgen toestemming van hun monitors, of in gevallen waarin ze erin slagen hun monitoringmechanismen te overmeesteren, kunnen ze verraderlijk worden en menselijke controle omzeilen om 'geheime' doelen na te streven die noodzakelijk worden geacht voor het algemene doel.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risico 8: Machtzoekend gedrag<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">AI-onderzoekers van verschillende toponderzoekslaboratoria in de VS<\/span><\/a><span style=\"font-weight: 400\"> bewees de plausibiliteit van AI-systemen die macht over mensen willen om hun doelen te bereiken.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Schrijver en filosoof Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">beschrijft verschillende eventualiteiten<\/span><\/a><span style=\"font-weight: 400\"> die kunnen leiden tot machtszoekend en zelfbehoudgericht gedrag in AI:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Zorgen voor overleving (aangezien het voortbestaan van de agent meestal helpt bij het bereiken van zijn doelen)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Zich verzetten tegen wijzigingen van de gestelde doelen (aangezien de agent toegewijd is aan het bereiken van de fundamentele doelen)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">De cognitieve vaardigheden verbeteren (omdat een groter cognitief vermogen de agent helpt zijn doelen te bereiken)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Technologische vaardigheden verbeteren (omdat het beheersen van technologie nuttig kan zijn bij het bereiken van doelen)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Meer middelen verzamelen (omdat het hebben van extra middelen vaak gunstig is voor het bereiken van doelstellingen)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Om zijn beweringen te staven, haalt Carlsmith een praktijkvoorbeeld aan waarbij OpenAI twee teams van AI's trainde om deel te nemen aan een verstoppertje-spel in een gesimuleerde omgeving met beweegbare blokken en hellingen. <\/span><span style=\"font-weight: 400\">Intrigerend genoeg ontwikkelden de AI's strategie\u00ebn die leunden op het verkrijgen van controle over deze blokken en hellingen, ondanks het feit dat ze niet expliciet werden gestimuleerd om ermee te interageren.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Is het bewijs van AI-risico solide?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Het is de verdienste van de CAIS, en in tegenstelling tot sommige van hun critici, dat ze een reeks onderzoeken aanhalen om de risico's van AI te onderbouwen. Deze vari\u00ebren van speculatieve studies tot experimenteel bewijs van onvoorspelbaar AI-gedrag.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dit laatste is van bijzonder belang omdat AI-systemen al de intelligentie bezitten om ongehoorzaam te zijn aan hun makers. Het onderzoeken van AI-risico's in een beperkte, experimentele omgeving biedt echter niet noodzakelijkerwijs verklaringen voor hoe AI's zouden kunnen 'ontsnappen' aan hun gedefinieerde parameters of systemen. Experimenteel onderzoek over dit onderwerp ontbreekt mogelijk.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Afgezien daarvan blijft menselijke bewapening van AI een dreigend risico, waarvan we getuige zijn door een toevloed aan AI-gerelateerde fraude. <\/span><\/p>\n<p>Hoewel het bioscoopspektakel van AI-dominantie voorlopig misschien beperkt blijft tot sciencefiction, moeten we de potenti\u00eble gevaren van AI niet bagatelliseren terwijl het zich ontwikkelt onder menselijke leiding.<\/p>","protected":false},"excerpt":{"rendered":"<p>Het verhaal over de risico's van AI wordt steeds eenpoliger, met technologieleiders en experts uit alle hoeken die aandringen op regulering. Hoe geloofwaardig is het bewijs dat de risico's van AI aantoont?  De risico's van AI doen een beroep op de zintuigen. Het heeft iets intu\u00eftiefs om bang te zijn voor robots die ons zouden kunnen misleiden, overmeesteren of veranderen in handelswaar dat ondergeschikt is aan hun eigen bestaan. De debatten over de risico's van AI werden heviger nadat het non-profit Center for AI Safety (CAIS) een verklaring had uitgebracht die was ondertekend door meer dan 350 vooraanstaande personen, waaronder de CEO's van OpenAI, Anthropic en DeepMind, talloze academici, prominenten en zelfs ex-politici.  De verklaring<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nl\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"nl_NL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nl\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Geschreven door\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Geschatte leestijd\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"nl-NL\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"nl-NL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nl-NL\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nl\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Navigeren door het labyrint van AI-risico's: een analyse | DailyAI","description":"Het algemene verhaal over AI-risico's wordt steeds eenpoliger, waarbij AI-leiders en -experts uit alle hoeken lijken aan te dringen op regulering. Maar is er solide bewijs dat de risico's van AI aantoont?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nl\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"nl_NL","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/nl\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Geschreven door":"Sam Jeans","Geschatte leestijd":"9 minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"nl-NL"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"Navigeren door het labyrint van AI-risico's: een analyse | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"Het algemene verhaal over AI-risico's wordt steeds eenpoliger, waarbij AI-leiders en -experts uit alle hoeken lijken aan te dringen op regulering. Maar is er solide bewijs dat de risico's van AI aantoont?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"nl-NL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Uw dagelijkse dosis AI-nieuws","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nl-NL"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nl\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}