{"id":10154,"date":"2024-02-17T20:32:11","date_gmt":"2024-02-17T20:32:11","guid":{"rendered":"https:\/\/dailyai.com\/?p=10154"},"modified":"2024-03-28T00:38:20","modified_gmt":"2024-03-28T00:38:20","slug":"deep-fakes-deep-impacts-critical-thinking-in-the-ai-era","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","title":{"rendered":"Dype forfalskninger, dype konsekvenser: kritisk tenkning i AI-\u00e6raen"},"content":{"rendered":"<p><strong>Kan mennesker l\u00e6re \u00e5 oppdage AI-genererte forfalskninger p\u00e5 en p\u00e5litelig m\u00e5te? Hvordan p\u00e5virker de oss p\u00e5 et kognitivt niv\u00e5?<\/strong><\/p>\n<p><a href=\"https:\/\/dailyai.com\/nb\/2024\/02\/openai-introduces-sora-an-advanced-text-to-video-model\/\">OpenAIs Sora-system<\/a> nylig en forsmak p\u00e5 en ny b\u00f8lge av syntetiske AI-drevne medier. Det vil sannsynligvis ikke ta lang tid f\u00f8r enhver form for realistiske medier <span style=\"font-weight: 400;\">- lyd, video eller bilde - kan genereres med instruksjoner p\u00e5 bare noen sekunder.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Etter hvert som disse AI-systemene blir stadig dyktigere, m\u00e5 vi utvikle nye ferdigheter i kritisk tenkning for \u00e5 skille sannhet fra fiksjon.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hittil har Big Techs innsats for \u00e5 bremse eller stoppe deep fakes ikke f\u00f8rt til stort annet enn f\u00f8lelser, ikke p\u00e5 grunn av manglende overbevisning, men fordi AI-innholdet er s\u00e5 realistisk.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det gj\u00f8r det <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/10\/ai-image-watermarks-dont-work-and-probably-never-will\/\"><span style=\"font-weight: 400;\">vanskelig \u00e5 oppdage p\u00e5 pikselniv\u00e5<\/span><\/a><span style=\"font-weight: 400;\">mens andre signaler, som metadata og vannmerker, har sine svakheter.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om AI-generert innhold kunne oppdages i stor skala, er det dessuten utfordrende \u00e5 skille autentisk, m\u00e5lrettet innhold fra innhold som har til hensikt \u00e5 spre feilinformasjon.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En mulig l\u00f8sning er \u00e5 sende innhold til menneskelige korrekturlesere og bruke \"community notes\" (informasjon knyttet til innhold, ofte sett p\u00e5 X). <\/span><span style=\"font-weight: 400;\">Dette inneb\u00e6rer imidlertid noen ganger subjektiv tolkning og risiko for feilmerking. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">For eksempel, i <a href=\"https:\/\/dailyai.com\/nb\/2023\/11\/deep-fakes-surrounding-the-israel-palestine-conflict-intensify\/\">Israel-Palestina-konflikten<\/a>har vi v\u00e6rt vitne til urovekkende bilder som er blitt stemplet som ekte n\u00e5r de var falske og vice versa.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e5r et ekte bilde blir stemplet som falskt, kan dette skape en<a href=\"https:\/\/dailyai.com\/nb\/2024\/01\/the-rise-of-liars-dividend-as-ai-generated-deep-fakes-continue-to-trouble\/\">L\u00f8gnerens utbytte<\/a>...\", der noen eller noe kan avfeie sannheten som falsk.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">S\u00e5 hva kan vi gj\u00f8re med det, i mangel av tekniske metoder for \u00e5 stoppe dype forfalskninger p\u00e5 teknologisiden?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Og i hvilken grad p\u00e5virker deep fakes beslutningsprosessen og psykologien v\u00e5r? <\/span><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e5r folk for eksempel blir eksponert for falske politiske bilder, har dette en konkret innvirkning p\u00e5 deres stemmegivning?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La oss ta en titt p\u00e5 et par studier som vurderer nettopp dette.\u00a0<\/span><\/p>\n<h2>P\u00e5virker dype forfalskninger v\u00e5re meninger og psykologiske tilstander?<\/h2>\n<p><a href=\"https:\/\/journals.sagepub.com\/doi\/full\/10.1177\/2056305120903408\"><span style=\"font-weight: 400;\">En studie fra 2020<\/span><\/a><span style=\"font-weight: 400;\">I rapporten \"Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News\", unders\u00f8kte hvordan falske videoer p\u00e5virker publikums oppfatning, s\u00e6rlig n\u00e5r det gjelder tillit til nyheter som deles p\u00e5 sosiale medier.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forskningen involverte et storskalaeksperiment med 2505 deltakere fra Storbritannia, som skulle m\u00e5le reaksjonene p\u00e5 ulike typer falske videoer av USAs tidligere president Barack Obama.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Deltakerne ble tilfeldig tildelt \u00e9n av tre videoer:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Et 4-sekunders klipp som viser Obama komme med en overraskende uttalelse uten noen kontekst.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Et 26 sekunder langt klipp som inneholdt noen hint om videoens kunstige natur, men som f\u00f8rst og fremst var villedende.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">En full video med en \"pedagogisk avsl\u00f8ring\" der deep fake'ens kunstige natur eksplisitt avsl\u00f8res, med Jordan Peele som forklarer teknologien bak deep fake'en.<\/span><\/li>\n<\/ol>\n<h3><b>Viktige funn<\/b><\/h3>\n<p>Studien unders\u00f8kte tre hovedomr\u00e5der:<\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Bedrageri<\/b><span style=\"font-weight: 400;\">: Studien fant minimalt med bevis p\u00e5 at deltakerne trodde p\u00e5 de falske p\u00e5standene i de dype forfalskningene. Andelen deltakere som ble villedet av de dype forfalskningene, var relativt lav i alle behandlingsgruppene.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Usikkerhet<\/b><span style=\"font-weight: 400;\">: Et viktig resultat var imidlertid \u00f8kt usikkerhet blant seerne, spesielt de som s\u00e5 de kortere, villedende klippene. Omtrent 35,1% av deltakerne som s\u00e5 4-sekundersklippet og 36,9% av dem som s\u00e5 26-sekundersklippet, rapporterte at de f\u00f8lte seg usikre p\u00e5 videoens autentisitet. I motsetning til dette var det bare 27,5% av dem som s\u00e5 hele undervisningsvideoen, som f\u00f8lte det p\u00e5 denne m\u00e5ten.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Tillit til nyheter<\/b><span style=\"font-weight: 400;\">: Denne usikkerheten p\u00e5virket deltakernes tillit til nyheter p\u00e5 sosiale medier negativt. De som ble eksponert for de villedende, dype forfalskningene, viste lavere tillitsniv\u00e5 enn de som s\u00e5 den pedagogiske avsl\u00f8ringen.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_10156\" aria-describedby=\"caption-attachment-10156\" style=\"width: 662px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-10156\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1024x1024.jpeg\" alt=\"AI deep fakes\" width=\"662\" height=\"662\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1024x1024.jpeg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-300x300.jpeg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-150x150.jpeg 150w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-768x769.jpeg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1534x1536.jpeg 1534w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-180x180.jpeg 180w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-90x90.jpeg 90w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-370x370.jpeg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-800x801.jpeg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-20x20.jpeg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-740x741.jpeg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1600x1602.jpeg 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-24x24.jpeg 24w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-48x48.jpeg 48w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-96x96.jpeg 96w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1.jpeg 1861w\" sizes=\"auto, (max-width: 662px) 100vw, 662px\" \/><figcaption id=\"caption-attachment-10156\" class=\"wp-caption-text\">En stor andel av befolkningen ble lurt eller var usikre p\u00e5 de ulike videotypene. kilde: <a href=\"https:\/\/journals.sagepub.com\/doi\/full\/10.1177\/2056305120903408\">Sage Journals<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Dette viser at eksponering for falske bilder skaper usikkerhet p\u00e5 lengre sikt. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Over tid kan falske bilder svekke tilliten til all informasjon, inkludert sannheten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Lignende resultater ble p\u00e5vist av en <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0287503\"><span style=\"font-weight: 400;\">nyere studie fra 2023<\/span><\/a><span style=\"font-weight: 400;\">, \"Face\/Off: Changing the face of movies with deepfake\", som ogs\u00e5 konkluderte med at falske bilder har langsiktige virkninger.\u00a0<\/span><\/p>\n<h2>Folk \"husker\" falskt innhold etter eksponering<\/h2>\n<p><span style=\"font-weight: 400;\">Face\/Off-studien, som ble gjennomf\u00f8rt med 436 deltakere, unders\u00f8kte hvordan forfalskninger kan p\u00e5virke v\u00e5r erindring av filmer.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Deltakerne deltok i en nettbasert sp\u00f8rreunders\u00f8kelse som hadde til hensikt \u00e5 unders\u00f8ke deres oppfatninger og minner om b\u00e5de virkelige og imagin\u00e6re nyinnspillinger av film. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Unders\u00f8kelsen gikk ut p\u00e5 \u00e5 presentere deltakerne for seks filmtitler, som inkluderte en blanding av fire faktiske og to fiktive nyinnspillinger. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">M<\/span><span style=\"font-weight: 400;\">filmene ble randomisert og presentert i to formater: Halvparten av filmene ble introdusert gjennom korte tekstbeskrivelser, og den andre halvparten ble paret med korte videoklipp. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Fiktive nyinnspillinger av filmer som \"The Shining\", \"The Matrix\", \"Indiana Jones\" og \"Captain Marvel\", komplett med beskrivelser som feilaktig hevdet at h\u00f8yprofilerte skuespillere var involvert i disse ikke-eksisterende nyinnspillingene. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Deltakerne ble for eksempel fortalt om en falsk nyinnspilling av \"The Shining\" med Brad Pitt og Angelina Jolie i hovedrollene, som aldri fant sted.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De ekte nyinnspillingene som ble presentert i unders\u00f8kelsen, som \"Charlie &amp; sjokoladefabrikken\" og \"Total Recall\", ble derimot beskrevet n\u00f8yaktig og ledsaget av ekte filmklipp. Denne blandingen av ekte og falske nyinnspillinger hadde til hensikt \u00e5 unders\u00f8ke hvordan deltakerne skiller mellom faktisk og oppdiktet innhold.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Deltakerne ble spurt om de hadde sett originalfilmen eller nyinnspillingen, eller om de hadde kjennskap til dem fra f\u00f8r.\u00a0<\/span><\/p>\n<h3><b>Viktige funn<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Fenomenet med falske minner<\/b><span style=\"font-weight: 400;\">: Et viktig resultat av studien er avsl\u00f8ringen av at nesten halvparten av deltakerne (49%) utviklet falske minner etter \u00e5 ha sett fiktive nyinnspillinger, for eksempel at de forestilte seg Will Smith som Neo i \"The Matrix\". Dette illustrerer den vedvarende effekten suggestive medier, enten det dreier seg om falske videoer eller tekstlige beskrivelser, kan ha p\u00e5 hukommelsen v\u00e5r.<\/span><\/li>\n<li aria-level=\"1\"><strong>Spesielt<\/strong>\"Captain Marvel\" toppet listen, med 73% av deltakerne som husket AI-remaken, etterfulgt av \"Indiana Jones\" med 43%, \"The Matrix\" med 42% og \"The Shining\" med 40%. Blant dem som feilaktig trodde p\u00e5 disse nyinnspillingene, mente 41% at nyinnspillingen av \"Captain Marvel\" var bedre enn originalen.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Sammenlignende p\u00e5virkning av deep fakes og tekst<\/b><span style=\"font-weight: 400;\">: En annen oppdagelse er at dype forfalskninger, til tross for deres visuelle og auditive realisme, ikke var mer effektive n\u00e5r det gjaldt \u00e5 endre deltakernes minner enn tekstlige beskrivelser av det samme fiktive innholdet. Dette tyder p\u00e5 at formatet p\u00e5 feilinformasjonen - visuelt eller tekstlig - ikke har noen vesentlig innvirkning p\u00e5 hukommelsesforvrengningen i forbindelse med film.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_10155\" aria-describedby=\"caption-attachment-10155\" style=\"width: 737px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-10155\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1024x484.png\" alt=\"AI-tekst\" width=\"737\" height=\"348\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1024x484.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-300x142.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-768x363.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1536x726.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-2048x968.png 2048w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-370x175.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-800x378.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-740x350.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-20x9.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1600x757.png 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-102x48.png 102w\" sizes=\"auto, (max-width: 737px) 100vw, 737px\" \/><figcaption id=\"caption-attachment-10155\" class=\"wp-caption-text\">Hukommelsessvar for hver av de fire fiktive nyinnspillingene. For eksempel sa et stort antall personer at de \"husket\" en falsk nyinnspilling av Captain Marvel. Kilde: <a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0287503\">PLOS One<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Fenomenet falske minner, som denne studien omhandler, er et mye utforsket fenomen. Det viser hvordan mennesker effektivt konstruerer eller rekonstruerer falske minner som vi er sikre p\u00e5 at er ekte, selv om de ikke er det.\u00a0<\/span><\/p>\n<p>Alle er utsatt for \u00e5 konstruere falske minner, og d<span style=\"font-weight: 400;\">eep-fakes ser ut til \u00e5 aktivere denne atferden, noe som betyr at det \u00e5 se p\u00e5 bestemt innhold kan endre v\u00e5r oppfatning, selv n\u00e5r vi bevisst forst\u00e5r at det er uekte.\u00a0<\/span><\/p>\n<p>I begge studiene hadde dype forfalskninger h\u00e5ndgripelige, potensielt langsiktige konsekvenser. Effekten kan komme snikende og akkumulere seg over tid.<\/p>\n<p>Vi m\u00e5 ogs\u00e5 huske p\u00e5 at falskt innhold spres til millioner av mennesker, slik at sm\u00e5 endringer i oppfatningen f\u00e5r konsekvenser for hele den globale befolkningen.<\/p>\n<h2>Hva gj\u00f8r vi med dype forfalskninger?<\/h2>\n<p><span style=\"font-weight: 400;\">\u00c5 g\u00e5 til krig mot dype forfalskninger betyr \u00e5 bekjempe den menneskelige hjernen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mens fremveksten av falske nyheter og feilinformasjon har tvunget folk til \u00e5 utvikle ny mediekompetanse de siste \u00e5rene, vil AI-genererte syntetiske medier kreve en ny grad av tilpasning. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Vi har st\u00e5tt overfor slike vendepunkter f\u00f8r, fra fotografi til CGI-spesialeffekter, men AI vil kreve en utvikling av v\u00e5re kritiske sanser.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I dag m\u00e5 vi g\u00e5 lenger enn bare \u00e5 tro p\u00e5 \u00f8ynene v\u00e5re og stole mer p\u00e5 \u00e5 analysere kilder og kontekstuelle ledetr\u00e5der.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det er viktig \u00e5 stille sp\u00f8rsm\u00e5l ved innholdets insentiver eller forutinntatthet. <\/span><span style=\"font-weight: 400;\">Stemmer det overens med kjente fakta eller motsier det dem? Finnes det bekreftende bevis fra andre p\u00e5litelige kilder?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Et annet viktig aspekt er \u00e5 etablere juridiske standarder for \u00e5 identifisere forfalskede eller manipulerte medier og holde skaperne ansvarlige.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Den <a href=\"https:\/\/dailyai.com\/nb\/2024\/02\/us-lawmakers-propose-defiance-act-to-tackle-troublesome-deep-fakes\/\">US DEFIANCE Act<\/a>, UK Online Safety Act, og tilsvarende lover over hele verden er i ferd med \u00e5 etablere juridiske prosedyrer for h\u00e5ndtering av deep fakes. Hvor effektive de vil v\u00e6re, gjenst\u00e5r \u00e5 se.\u00a0<\/span><\/p>\n<h2>Strategier for \u00e5 avdekke sannheten<\/h2>\n<p><span style=\"font-weight: 400;\">La oss avslutte med fem strategier for \u00e5 identifisere og avh\u00f8re potensielle \"deep fakes\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om ingen enkeltstrategi er feilfri, er det beste vi kan gj\u00f8re i fellesskap for \u00e5 minimere effekten av AI-feilinformasjon, \u00e5 fremme kritisk tenkning.\u00a0<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Kildebekreftelse<\/b><span style=\"font-weight: 400;\">: Det er grunnleggende \u00e5 unders\u00f8ke informasjonens troverdighet og opprinnelse. Autentisk innhold stammer ofte fra anerkjente kilder som kan dokumentere p\u00e5litelighet.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Teknisk analyse<\/b><span style=\"font-weight: 400;\">: Til tross for at de er sofistikerte, kan dype forfalskninger ha subtile feil, for eksempel uregelmessige ansiktsuttrykk eller inkonsekvent belysning. Unders\u00f8k innholdet og vurder om det er digitalt endret.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Kryssreferanser<\/b><span style=\"font-weight: 400;\">: Ved \u00e5 verifisere informasjon mot flere p\u00e5litelige kilder kan man f\u00e5 et bredere perspektiv og bidra til \u00e5 bekrefte innholdets autentisitet.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Digitale ferdigheter<\/b><span style=\"font-weight: 400;\">: \u00c5 forst\u00e5 mulighetene og begrensningene ved AI-teknologi er avgj\u00f8rende for \u00e5 kunne vurdere innholdet. Det vil v\u00e6re avgj\u00f8rende at skoler og medier f\u00e5r oppl\u00e6ring i digitale ferdigheter, inkludert hvordan kunstig intelligens fungerer og hvilke etiske konsekvenser det har.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Forsiktig interaksjon<\/b><span style=\"font-weight: 400;\">: Interaksjon med AI-generert feilinformasjon forsterker effekten av den. V\u00e6r forsiktig n\u00e5r du liker, deler eller reposter innhold du er usikker p\u00e5.\u00a0<\/span><\/li>\n<\/ol>\n<p>I takt med at deep fakes utvikler seg, vil ogs\u00e5 teknikkene som kreves for \u00e5 oppdage og begrense skadevirkningene, utvikle seg. 2024 vil bli et avsl\u00f8rende \u00e5r, ettersom rundt halvparten av verdens befolkning skal stemme i viktige valg.<\/p>\n<p>Mye tyder p\u00e5 at forfalskninger kan p\u00e5virke v\u00e5r oppfatning, s\u00e5 det er langt fra utenkelig \u00e5 tro at AI-feilinformasjon kan ha en vesentlig innvirkning p\u00e5 resultatene.<\/p>\n<p><span style=\"font-weight: 400;\">Etisk AI-praksis, digital kompetanse, regulering og kritisk engasjement vil v\u00e6re avgj\u00f8rende for \u00e5 skape en fremtid der teknologien forsterker sannheten i stedet for \u00e5 tilsl\u00f8re den.\u00a0<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Kan mennesker l\u00e6re \u00e5 oppdage AI-genererte forfalskninger p\u00e5 en p\u00e5litelig m\u00e5te? Hvordan p\u00e5virker de oss p\u00e5 et kognitivt niv\u00e5? OpenAIs Sora-system ga nylig en forsmak p\u00e5 en ny b\u00f8lge av syntetiske AI-drevne medier. Det vil sannsynligvis ikke ta lang tid f\u00f8r alle former for realistiske medier - lyd, video eller bilder - kan genereres med instruksjoner p\u00e5 bare noen sekunder.  Etter hvert som disse AI-systemene blir stadig mer kapable, m\u00e5 vi opp\u00f8ve nye ferdigheter i kritisk tenkning for \u00e5 skille sannhet fra fiksjon. Hittil har Big Techs innsats for \u00e5 bremse eller stoppe deep fakes ikke f\u00f8rt til stort annet enn f\u00f8lelser, ikke p\u00e5 grunn av mangel p\u00e5<\/p>","protected":false},"author":2,"featured_media":10158,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[85],"tags":[94],"class_list":["post-10154","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-policy","tag-deep-fakes"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Deep fakes, deep impacts: critical thinking in the AI era | DailyAI<\/title>\n<meta name=\"description\" content=\"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Deep fakes, deep impacts: critical thinking in the AI era | DailyAI\" \/>\n<meta property=\"og:description\" content=\"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-17T20:32:11+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:38:20+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Deep fakes, deep impacts: critical thinking in the AI era\",\"datePublished\":\"2024-02-17T20:32:11+00:00\",\"dateModified\":\"2024-03-28T00:38:20+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\"},\"wordCount\":1591,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"keywords\":[\"Deep fakes\"],\"articleSection\":{\"1\":\"Policy &amp; Regulation\"},\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\",\"name\":\"Deep fakes, deep impacts: critical thinking in the AI era | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"datePublished\":\"2024-02-17T20:32:11+00:00\",\"dateModified\":\"2024-03-28T00:38:20+00:00\",\"description\":\"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"width\":1000,\"height\":667,\"caption\":\"AI deep fake\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Deep fakes, deep impacts: critical thinking in the AI era\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Dype forfalskninger, dype konsekvenser: kritisk tenkning i AI-\u00e6raen | DailyAI","description":"OpenAIs Sora-system innleder en ny b\u00f8lge av syntetisk video og AI-drevne medier. Kan mennesker l\u00e6re seg \u00e5 oppdage AI-genererte forfalskninger p\u00e5 en p\u00e5litelig m\u00e5te? Hvordan p\u00e5virker de oss p\u00e5 et kognitivt niv\u00e5?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","og_locale":"nb_NO","og_type":"article","og_title":"Deep fakes, deep impacts: critical thinking in the AI era | DailyAI","og_description":"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?","og_url":"https:\/\/dailyai.com\/nb\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","og_site_name":"DailyAI","article_published_time":"2024-02-17T20:32:11+00:00","article_modified_time":"2024-03-28T00:38:20+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"8 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Deep fakes, deep impacts: critical thinking in the AI era","datePublished":"2024-02-17T20:32:11+00:00","dateModified":"2024-03-28T00:38:20+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/"},"wordCount":1591,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","keywords":["Deep fakes"],"articleSection":{"1":"Policy &amp; Regulation"},"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","url":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","name":"Dype forfalskninger, dype konsekvenser: kritisk tenkning i AI-\u00e6raen | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","datePublished":"2024-02-17T20:32:11+00:00","dateModified":"2024-03-28T00:38:20+00:00","description":"OpenAIs Sora-system innleder en ny b\u00f8lge av syntetisk video og AI-drevne medier. Kan mennesker l\u00e6re seg \u00e5 oppdage AI-genererte forfalskninger p\u00e5 en p\u00e5litelig m\u00e5te? Hvordan p\u00e5virker de oss p\u00e5 et kognitivt niv\u00e5?","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","width":1000,"height":667,"caption":"AI deep fake"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Deep fakes, deep impacts: critical thinking in the AI era"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/10154","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=10154"}],"version-history":[{"count":11,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/10154\/revisions"}],"predecessor-version":[{"id":10233,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/10154\/revisions\/10233"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/10158"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=10154"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=10154"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=10154"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}