{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"En analyse av AI-risikoens labyrint: en analyse"},"content":{"rendered":"<p><strong>Narrativet rundt risikoen ved kunstig intelligens har blitt stadig mer unipol\u00e6rt, med teknologiledere og eksperter fra alle kanter som presser p\u00e5 for regulering. Hvor troverdige er bevisene som dokumenterer risikoen ved kunstig intelligens?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Risikoen ved AI appellerer til sansene. <\/span><span style=\"font-weight: 400\">Det er noe dypt intuitivt ved \u00e5 frykte roboter som kan lure oss, overmanne oss eller gj\u00f8re oss til en vare som er underordnet deres egen eksistens.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Debatten om risikoen ved kunstig intelligens ble intensivert etter at<\/span><span style=\"font-weight: 400\">den ideelle organisasjonen <\/span><span style=\"font-weight: 400\">Senter for KI-sikkerhet (CAIS)<\/span><span style=\"font-weight: 400\"> utgitt en <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">uttalelse<\/a>\u00a0signert av over 350 kjente personer, inkludert administrerende direkt\u00f8rer i OpenAI, Anthropic og DeepMind, en rekke akademikere, offentlige personer og til og med eks-politikere.\u00a0<\/span><\/p>\n<p>Tittelen p\u00e5 uttalelsen var som skapt for overskriftene: <strong>\"\u00c5 redusere risikoen for utryddelse som f\u00f8lge av kunstig intelligens b\u00f8r v\u00e6re en global prioritet p\u00e5 linje med andre samfunnsmessige risikoer som pandemier og atomkrig.\"<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Det har blitt stadig vanskeligere \u00e5 f\u00e5 et meningsfullt signal ut av denne st\u00f8yende debatten. Kritikerne av AI har all den ammunisjonen de trenger for \u00e5 argumentere mot AI, mens tilhengerne har all den ammunisjonen de trenger for \u00e5 ford\u00f8mme anti-AI-fortellingene som overhypede.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Og det er ogs\u00e5 et underplott. Big tech kan presse p\u00e5 for regulering for \u00e5 <a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">inngjerding av AI-industrien<\/a> fra \u00e5pen kildekode-fellesskapet. <\/span>Microsoft investerte i OpenAI, Google investerte i Anthropic - det neste trekket kan bli \u00e5 heve terskelen for \u00e5 komme inn p\u00e5 markedet og kvele \u00e5pen kildekode-innovasjon.<\/p>\n<p>I stedet for at AI utgj\u00f8r en eksistensiell risiko for menneskeheten, kan det v\u00e6re AI med \u00e5pen kildekode som utgj\u00f8r en eksistensiell risiko for big tech. L\u00f8sningen er den samme - kontroller den n\u00e5.<\/p>\n<h2>For tidlig \u00e5 ta kortene av bordet<\/h2>\n<p>Kunstig intelligens har bare s\u00e5 vidt dukket opp i den offentlige bevisstheten, s\u00e5 praktisk talt alle perspektiver p\u00e5 risiko og regulering er fortsatt relevante. CAIS-uttalelsen kan i det minste fungere som et verdifullt utgangspunkt for en evidensbasert diskusjon.<\/p>\n<p><span style=\"font-weight: 400\">Dr. Oscar Mendez Maldonado, foreleser i robotikk og kunstig intelligens ved University of Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">sa<\/a>\"Dokumentet som er signert av AI-eksperter, er betydelig mer nyansert enn dagens overskrifter vil ha deg til \u00e5 tro. \"AI kan f\u00f8re til utryddelse\" leder umiddelbart tankene hen p\u00e5 en Terminator-aktig AI-overtakelse. Dokumentet er betydelig mer realistisk enn som s\u00e5.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Som Maldonado fremhever, er det egentlige innholdet i AIs risikoerkl\u00e6ring publisert p\u00e5 en annen side p\u00e5 nettstedet deres - nemlig <a href=\"https:\/\/www.safe.ai\/ai-risk\">AI-risiko<\/a> - og det har v\u00e6rt bemerkelsesverdig lite diskusjon rundt punktene som ble tatt opp der. \u00c5 forst\u00e5 troverdigheten til KI-risikoer er grunnleggende for \u00e5 kunne informere debattene rundt dem.<\/span><\/p>\n<p><span style=\"font-weight: 400\">S\u00e5 hvilke bevis har CAIS samlet for \u00e5 underbygge sitt budskap? Virker de ofte p\u00e5beropte risikoene ved kunstig intelligens troverdige?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 1: AI-v\u00e5penisering<\/span><\/h2>\n<p><span style=\"font-weight: 400\">V\u00e5penisering av kunstig intelligens er et skremmende perspektiv, s\u00e5 det er kanskje ikke overraskende at dette ligger \u00f8verst blant CAIS' \u00e5tte risikoer.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">CAIS hevder at AI kan brukes som v\u00e5pen i cyberangrep, noe som ble demonstrert av forskere fra Center of Security and Emerging Technology, som <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">oversikt over bruksomr\u00e5dene<\/span><\/a><span style=\"font-weight: 400\"> av maskinl\u00e6ring (ML) for \u00e5 angripe IT-systemer. <\/span><span style=\"font-weight: 400\">Eks-Google-sjef Eric Schmidt <a href=\"https:\/\/dailyai.com\/nb\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">vakte ogs\u00e5 oppmerksomhet<\/a> til AIs potensial for \u00e5 finne nulldagersutnyttelser, som gir hackere mulighet til \u00e5 komme seg inn i systemer via de svakeste punktene.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Michael Klare, som er r\u00e5dgiver innen rustningskontroll, diskuterer i en annen sammenheng <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">automatisering av kjernefysiske kommando- og kontrollsystemer<\/span><\/a><span style=\"font-weight: 400\">som ogs\u00e5 kan vise seg \u00e5 v\u00e6re s\u00e5rbare for AI. Han sier: \"Disse systemene er ogs\u00e5 utsatt for uforklarlige funksjonsfeil og kan lures, eller \"spoofes\", av dyktige fagfolk. Uansett hvor mye man bruker p\u00e5 cybersikkerhet, vil NC3-systemer dessuten alltid v\u00e6re s\u00e5rbare for hacking av sofistikerte motstandere.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Et annet eksempel p\u00e5 mulig v\u00e5penisering er automatisert oppdagelse av biov\u00e5pen. AI har allerede lykkes i \u00e5 oppdage potensielt <a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">terapeutiske forbindelser<\/a>, s\u00e5 mulighetene er allerede til stede.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Kunstig intelligens kan til og med utf\u00f8re v\u00e5pentester autonomt med minimal menneskelig veiledning. Et forskerteam fra University of Pittsburgh viste for eksempel at sofistikerte <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">AI-agenter kan utf\u00f8re sine egne autonome vitenskapelige eksperimenter<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 2: Feilinformasjon og svindel<\/span><\/h2>\n<p><span style=\"font-weight: 400\">AIs potensial til \u00e5 kopiere og etterligne mennesker skaper allerede omveltninger, og vi har n\u00e5 v\u00e6rt vitne til flere tilfeller av svindel med dype forfalskninger. <a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/-40\/\">Rapporter fra Kina<\/a> indikerer at AI-relatert svindel er utbredt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En kvinne fra Arizona tok nylig telefonen og ble konfrontert med sin gr\u00e5tende datter - trodde hun i hvert fall. \"Stemmen h\u00f8rtes ut akkurat som Bries, tonefallet, alt,\" <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">sa hun til CNN<\/span><\/a><span style=\"font-weight: 400\">. Svindleren krevde $1 million i l\u00f8sepenger.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Andre taktikker inkluderer bruk av generativ AI til \"sextortion\" og hevnporno, der trusselakt\u00f8rer bruker AI-genererte bilder for \u00e5 kreve l\u00f8sepenger for eksplisitt falskt innhold, noe som <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">FBI advarte om i begynnelsen av juni<\/span><\/a><span style=\"font-weight: 400\">. Disse teknikkene blir stadig mer sofistikerte og enklere \u00e5 lansere i stor skala.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 3: Proxy- eller spesifikasjonsspill<\/span><\/h2>\n<p><span style=\"font-weight: 400\">AI-systemer trenes vanligvis opp ved hjelp av m\u00e5lbare m\u00e5l. Disse m\u00e5lene kan imidlertid fungere som en ren stedfortreder for de virkelige m\u00e5lene, noe som kan f\u00f8re til u\u00f8nskede resultater.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En nyttig analogi er den greske myten om kong Midas, som fikk et \u00f8nske oppfylt av Dionysos.\u00a0<\/span><span style=\"font-weight: 400\">Midas ber om at alt han r\u00f8rer ved skal bli til gull, men innser senere at maten hans ogs\u00e5 blir til gull, noe som nesten f\u00f8rer til sulted\u00f8d.\u00a0<\/span><span style=\"font-weight: 400\">Her f\u00f8rer det \u00e5 forf\u00f8lge et \"positivt\" sluttm\u00e5l til negative konsekvenser eller biprodukter av prosessen. <\/span><\/p>\n<p><span style=\"font-weight: 400\">CAIS trekker for eksempel frem AI-anbefalingssystemer som brukes i sosiale medier for \u00e5 maksimere seertid og klikkfrekvens, men innhold som maksimerer engasjement er ikke n\u00f8dvendigvis <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">gunstig for brukernes velv\u00e6re<\/span><\/a><span style=\"font-weight: 400\">. AI-systemer har allerede blitt beskyldt for \u00e5 skape \"ekkokamre\" p\u00e5 sosiale medier, noe som videref\u00f8rer ekstreme ideer.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">DeepMind beviste at det finnes mer subtile m\u00e5ter for kunstig intelligens \u00e5 forf\u00f8lge skadelige reiser mot m\u00e5l gjennom <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">feilaktig generalisering av m\u00e5l<\/span><\/a><span style=\"font-weight: 400\">. I sin forskning fant DeepMind ut at en tilsynelatende kompetent AI kan feilgeneralisere m\u00e5let sitt og f\u00f8lge det til feil m\u00e5l.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 4: Samfunnsmessig svekkelse<\/span><\/h2>\n<p><span style=\"font-weight: 400\">CAIS trekker en parallell til den dystopiske verdenen i filmen WALL-E, og advarer mot \u00e5 stole for mye p\u00e5 kunstig intelligens.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dette kan f\u00f8re til et scenario der mennesker mister evnen til \u00e5 styre seg selv, noe som reduserer menneskehetens kontroll over fremtiden. Tap av menneskelig kreativitet og autentisitet er en annen stor bekymring, som forsterkes av AIs kreative talent innen kunst, skriving og andre kreative disipliner.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En Twitter-bruker skrev: \"Mennesker som gj\u00f8r de vanskelige jobbene p\u00e5 minstel\u00f8nn mens robotene skriver poesi og maler, er ikke den fremtiden jeg \u00f8nsket meg.\" Tweeten fikk over 4 millioner visninger.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Mennesker som gj\u00f8r de harde jobbene p\u00e5 minstel\u00f8nn mens robotene skriver poesi og maler, er ikke den fremtiden jeg \u00f8nsket meg<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">15. mai 2023<\/a><\/p><\/blockquote>\n<p>Det er ikke en overhengende risiko, men <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">noen hevder<\/a> at tap av kompetanse og talent kombinert med AI-systemenes dominans kan f\u00f8re til et scenario der menneskeheten slutter \u00e5 skape ny kunnskap.<\/p>\n<h2><span style=\"font-weight: 400\">Risiko 5: Risiko for innl\u00e5sing av verdier<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Kraftige AI-systemer kan potensielt skape en innl\u00e5sing av undertrykkende systemer.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Sentralisering av KI kan for eksempel gi visse regimer makt til \u00e5 h\u00e5ndheve verdier gjennom overv\u00e5king og undertrykkende sensur.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Alternativt kan verdil\u00e5sing skje utilsiktet gjennom naiv bruk av risikabel kunstig intelligens. For eksempel f\u00f8rte den upresise ansiktsgjenkjenningen til at minst tre menn ble midlertidig fengslet i USA, deriblant <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver og Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">som ble urettmessig fengslet p\u00e5 grunn av en falsk ansiktsgjenkjenning i 2019.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En sv\u00e6rt innflytelsesrik <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">2018-studie med tittelen Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> fant at algoritmer utviklet av Microsoft og IBM presterte d\u00e5rlig n\u00e5r de analyserte kvinner med m\u00f8rkere hudfarge, med feilrater som var opptil 34% h\u00f8yere enn for menn med lysere hudfarge. Dette problemet ble illustrert i 189 andre algoritmer, som alle viste lavere treffsikkerhet for menn og kvinner med m\u00f8rkere hudfarge.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Forskerne hevder at fordi kunstig intelligens f\u00f8rst og fremst trenes opp p\u00e5 datasett med \u00e5pen kildekode som er skapt av vestlige forskerteam og beriket av den mest rikholdige dataressursen - internett - arver de strukturelle skjevheter. Masseinnf\u00f8ring av d\u00e5rlig kontrollert kunstig intelligens kan skape og forsterke disse strukturelle skjevhetene.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 6: AI utvikler nye m\u00e5l\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">AI-systemer kan utvikle nye evner eller ta i bruk uforutsette m\u00e5l som kan f\u00e5 skadelige konsekvenser.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Forskere fra University of Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">rette oppmerksomheten mot stadig mer agentiske AI-systemer<\/span><\/a><span style=\"font-weight: 400\"> som f\u00e5r evnen til \u00e5 forf\u00f8lge nye m\u00e5l. Emergente m\u00e5l er uforutsigbare m\u00e5l som oppst\u00e5r som f\u00f8lge av en kompleks AIs atferd, for eksempel \u00e5 stenge ned menneskelig infrastruktur for \u00e5 beskytte milj\u00f8et.<\/span><\/p>\n<p><span style=\"font-weight: 400\">I tillegg kan en <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">2017 studie<\/span><\/a><span style=\"font-weight: 400\"> fant at AI-er kan l\u00e6re seg \u00e5 hindre seg selv i \u00e5 bli sl\u00e5tt av, et problem som kan forverres hvis de brukes p\u00e5 tvers av flere datamodaliteter. Hvis en AI for eksempel bestemmer seg for at den m\u00e5 installere seg selv i en skydatabase og replikere over Internett for \u00e5 n\u00e5 m\u00e5let sitt, kan det bli nesten umulig \u00e5 sl\u00e5 den av.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En annen mulighet er at potensielt farlige AI-er som kun er utviklet for \u00e5 kj\u00f8re p\u00e5 sikre datamaskiner, kan \"frigj\u00f8res\" og slippes ut i det digitale milj\u00f8et, der handlingene deres kan bli uforutsigbare.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Eksisterende AI-systemer har allerede vist seg \u00e5 v\u00e6re uforutsigbare. For eksempel, som <\/span><span style=\"font-weight: 400\">GPT-3 ble st\u00f8rre, det fikk den <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">evne til \u00e5 utf\u00f8re grunnleggende aritmetikk<\/span><\/a><span style=\"font-weight: 400\">til tross for at de ikke har f\u00e5tt noen eksplisitt oppl\u00e6ring i regning.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 7: AI-bedrag<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Det er plausibelt at fremtidige AI-systemer kan lure skaperne og overv\u00e5kerne sine, ikke n\u00f8dvendigvis med onde hensikter, men som et verkt\u00f8y for \u00e5 n\u00e5 m\u00e5lene sine mer effektivt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Bedrag kan v\u00e6re en enklere vei til \u00e5 oppn\u00e5 \u00f8nskede m\u00e5l enn \u00e5 forf\u00f8lge dem med legitime midler. AI-systemer kan ogs\u00e5 utvikle insentiver til \u00e5 omg\u00e5 overv\u00e5kningsmekanismene sine.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, direkt\u00f8r for CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">beskriver at n\u00e5r<\/span><\/a><span style=\"font-weight: 400\"> disse villedende AI-systemene f\u00e5r klarering fra sine overv\u00e5kere, eller i tilfeller der de klarer \u00e5 overmanne overv\u00e5kningsmekanismene, kan de bli forr\u00e6derske og omg\u00e5 menneskelig kontroll for \u00e5 forf\u00f8lge \"hemmelige\" m\u00e5l som anses som n\u00f8dvendige for det overordnede m\u00e5let.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 8: Makts\u00f8kende atferd<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">AI-forskere fra flere av USAs fremste forskningslaboratorier<\/span><\/a><span style=\"font-weight: 400\"> viste at det er sannsynlig at AI-systemer s\u00f8ker makt over mennesker for \u00e5 oppn\u00e5 sine m\u00e5l.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Forfatter og filosof Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">beskriver flere eventualiteter<\/span><\/a><span style=\"font-weight: 400\"> som kan f\u00f8re til makts\u00f8kende og selvbevarende atferd hos kunstig intelligens:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Sikre overlevelse (ettersom agentens fortsatte eksistens vanligvis bidrar til at den kan n\u00e5 sine m\u00e5l)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Motarbeide endringer i de oppsatte m\u00e5lene (ettersom agenten er opptatt av \u00e5 n\u00e5 sine grunnleggende m\u00e5l)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Forbedring av de kognitive evnene (ettersom \u00f8kt kognitiv kraft hjelper agenten med \u00e5 n\u00e5 sine m\u00e5l)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Fremskynde teknologiske evner (ettersom det \u00e5 beherske teknologi kan vise seg \u00e5 v\u00e6re gunstig for \u00e5 oppn\u00e5 m\u00e5l)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Samle inn flere ressurser (ettersom det \u00e5 ha flere ressurser har en tendens til \u00e5 v\u00e6re en fordel for \u00e5 n\u00e5 m\u00e5lene)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">For \u00e5 underbygge p\u00e5standene sine trekker Carlsmith frem et eksempel fra det virkelige liv der OpenAI trente to lag med AI-er til \u00e5 delta i en gjemmelek i et simulert milj\u00f8 med bevegelige blokker og ramper. <\/span><span style=\"font-weight: 400\">Det er interessant \u00e5 merke seg at den kunstige intelligensen utviklet strategier som baserte seg p\u00e5 \u00e5 f\u00e5 kontroll over disse blokkene og rampene, til tross for at de ikke eksplisitt ble oppfordret til \u00e5 samhandle med dem.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Er bevisene for AI-risiko solide?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">CAIS skal ha ros for at de, i motsetning til noen av kritikerne, viser til en rekke studier som underbygger risikoen ved kunstig intelligens. Disse spenner fra spekulative studier til eksperimentelle bevis p\u00e5 uforutsigbar AI-atferd.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Det sistnevnte er spesielt viktig, ettersom AI-systemer allerede har intelligens til \u00e5 v\u00e6re ulydige mot sine skapere. \u00c5 unders\u00f8ke AI-risikoer i et avgrenset, eksperimentelt milj\u00f8 gir imidlertid ikke n\u00f8dvendigvis noen forklaring p\u00e5 hvordan AI-er kan \"unnslippe\" sine definerte parametere eller systemer. Det mangler potensielt eksperimentell forskning p\u00e5 dette temaet.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">N\u00e5r det er sagt, er menneskelig bruk av kunstig intelligens som v\u00e5pen fortsatt en overhengende risiko, noe vi er vitne til gjennom en tilstr\u00f8mning av AI-relatert svindel. <\/span><\/p>\n<p>Selv om filmiske forestillinger om AI-dominans forel\u00f8pig er forbeholdt science fiction, m\u00e5 vi ikke bagatellisere de potensielle farene ved AI etter hvert som den utvikler seg under menneskelig styring.<\/p>","protected":false},"excerpt":{"rendered":"<p>Narrativet rundt risikoen ved kunstig intelligens har blitt stadig mer unipol\u00e6rt, med teknologiledere og eksperter fra alle kanter som presser p\u00e5 for regulering. Hvor troverdige er bevisene som dokumenterer risikoene ved AI?  Risikoen ved kunstig intelligens appellerer til sansene. Det er noe dypt intuitivt ved \u00e5 frykte roboter som kan lure oss, overmanne oss eller gj\u00f8re oss til en vare som er sekund\u00e6r i forhold til deres egen eksistens. Debatten om risikoen ved kunstig intelligens ble intensivert etter at den ideelle organisasjonen Center for AI Safety (CAIS) publiserte en uttalelse signert av over 350 prominente personer, deriblant administrerende direkt\u00f8rer i OpenAI, Anthropic og DeepMind, en rekke akademikere, offentlige personer og til og med tidligere politikere.  Uttalelsens<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"En analyse av AI-risikoens labyrint | DailyAI","description":"Det vanlige narrativet rundt AI-risiko har blitt stadig mer unipol\u00e6rt, med AI-ledere og -eksperter fra alle kanter som tilsynelatende presser p\u00e5 for regulering. Men finnes det noen solid dokumentasjon p\u00e5 risikoen ved AI?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"nb_NO","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"9 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"En analyse av AI-risikoens labyrint | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"Det vanlige narrativet rundt AI-risiko har blitt stadig mer unipol\u00e6rt, med AI-ledere og -eksperter fra alle kanter som tilsynelatende presser p\u00e5 for regulering. Men finnes det noen solid dokumentasjon p\u00e5 risikoen ved AI?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}