{"id":7045,"date":"2023-11-02T21:38:56","date_gmt":"2023-11-02T21:38:56","guid":{"rendered":"https:\/\/dailyai.com\/?p=7045"},"modified":"2024-03-28T00:41:32","modified_gmt":"2024-03-28T00:41:32","slug":"the-battle-of-the-ai-godfathers-is-ai-risky-or-not","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","title":{"rendered":"Kampen mellom \"AI-gudfedrene\" - er AI risikabelt eller ikke?!"},"content":{"rendered":"<p><b>AI er risikabelt, ikke sant? Det er det vi alle har blitt fortalt det siste \u00e5ret. Men ikke alle er enige, inkludert noen toppforskere.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">X har v\u00e6rt preget av diskusjoner om hvorvidt KI utgj\u00f8r en reell eksistensiell risiko. Vi snakker ikke om feilinformasjon eller dyp forfalskning - selv om dette allerede er ille - men om risikoer p\u00e5 linje med atomkatastrofer og pandemier.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Denne debatten har blitt ledet av AI-risikoskeptikeren og Metas AI-sjef Yann LeCun, som regnes som en av de s\u00e5kalte \"AI-gudfedrene\" sammen med Yoshua Bengio og Geoffrey Hinton.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I LeCuns skuddlinje st\u00e5r OpenAI-sjef Sam Altman, DeepMind-sjef Demis Hassabis og Anthropic-sjef Dario Amode, som LeCun beskyldte for \"massiv lobbyvirksomhet\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun er spesielt bekymret for at store teknologibyr\u00e5krater \u00f8ker praten rundt risiko og misbruk av AI for \u00e5 f\u00e5 myndighetene til \u00e5 l\u00e5se bransjen til deres fordel. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Big tech har tenner til \u00e5 h\u00e5ndtere regulering, mens mindre selskaper og open source-utviklere ikke har det. LeCun stiller seg ogs\u00e5 tvilende til den ofte omtalte visjonen om en AI-\"singularitet\", der teknologien plutselig blir mer intelligent enn mennesker, og dermed innleder en ny \u00e6ra med superintelligent AI.\u00a0<\/span><\/p>\n<p>Andre, deriblant Altman, har n\u00e5 sagt at de forventer at AI-utviklingen vil v\u00e6re mer detaljert og progressiv i stedet for \u00e5 \"ta av\" over natten.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Den *eneste* grunnen til at folk hyperventilerer over AI-risikoen, er myten om \"hard take-off\": ideen om at menneskeheten er d\u00f8dsd\u00f8mt i det \u00f8yeblikket du sl\u00e5r p\u00e5 et superintelligent system.<br \/>\nDette er absurd dumt og basert p\u00e5 en *fullstendig* misforst\u00e5else av hvordan alt fungerer.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1642524629137760259?ref_src=twsrc%5Etfw\">2. april 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">If\u00f8lge LeCuns argumenter kan big tech utnytte AI-risikoen til sin fordel, slik at de kan forsterke markedsstrukturene og stenge konkurransen ute. If\u00f8lge LeCun er den virkelige risikoen at noen f\u00e5 utvalgte AI-utviklere eier bransjen og dikterer dens utvikling.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Han understreket alvoret i situasjonen og uttalte: \"Hvis denne innsatsen lykkes, vil resultatet bli en katastrofe fordi et lite antall selskaper vil kontrollere AI.\" Denne uttalelsen gjenspeiler den bredere konsensusen i teknologiverdenen om AIs transformative potensial, og sidestiller dens betydning med mikrochipen eller internett.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCuns kommentar var et svar til den anerkjente fysikeren Max Tegmark, som hadde antydet at LeCun ikke tok den eksistensielle risikoen ved kunstig intelligens alvorlig nok.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> I et offentlig innlegg anerkjente Tegmark innsatsen til globale ledere for \u00e5 anerkjenne de potensielle farene ved AI, og uttalte at de \"ikke kan motbevises med snark og bedriftslobbyvirksomhet alene.\"<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Yann, jeg vil gjerne h\u00f8re deg komme med argumenter i stedet for akronymer. Takk til <a href=\"https:\/\/twitter.com\/RishiSunak?ref_src=twsrc%5Etfw\">@RishiSunak<\/a> &amp; <a href=\"https:\/\/twitter.com\/vonderleyen?ref_src=twsrc%5Etfw\">@vonderleyen<\/a> for \u00e5 ha innsett at AI-risikoargumenter fra Turing, Hinton, Bengio, Russell, Altman, Hassabis &amp; Amodei ikke kan motbevises med snark og bedriftslobbyvirksomhet alene. <a href=\"https:\/\/t.co\/Zv1rvOA3Zz\">https:\/\/t.co\/Zv1rvOA3Zz<\/a><\/p>\n<p>- Max Tegmark (@tegmark) <a href=\"https:\/\/twitter.com\/tegmark\/status\/1718663322738868595?ref_src=twsrc%5Etfw\">29. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">I takt med AIs \u00f8kende innflytelse har personer som Altman og Hassabis blitt sentrale i den offentlige teknologidiskursen. LeCun kritiserer dem imidlertid for \u00e5 n\u00f8re opp under frykten for kunstig intelligens, samtidig som de tjener penger p\u00e5 den. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">I mars deltok over tusen teknologiledere, deriblant Elon Musk, Altman og Hassabis, <a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\">tok til orde for en pause<\/a> i utviklingen av kunstig intelligens, med henvisning til betydelige samfunnsmessige og humanit\u00e6re risikoer.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun mener imidlertid at disse dramatiske advarslene er et r\u00f8ykteppe som avleder oppmerksomheten fra umiddelbare problemer som <a href=\"https:\/\/dailyai.com\/nb\/2023\/10\/-55\/\">utnyttelse av arbeidere<\/a> og datatyveri.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun etterlyser et nytt fokus i diskusjonen p\u00e5 AI-utviklingens n\u00e5tid og umiddelbare fremtid. Han uttrykte bekymring for at AI-fellesskapet med \u00e5pen kildekode kan bli utslettet hvis AI-utviklingen blir begrenset til private, profittorienterte enheter.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">For LeCun er det mye som st\u00e5r p\u00e5 spill: \"Alternativet, som uunng\u00e5elig vil skje hvis AI med \u00e5pen kildekode blir regulert bort, er at et lite antall selskaper fra vestkysten av USA og Kina vil kontrollere AI-plattformen og dermed kontrollere hele folks digitale kosthold\", advarte han, og oppfordret til \u00e5 ta hensyn til konsekvensene for demokrati og kulturelt mangfold.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Altman, Hassabis og Amodei er de som driver massiv lobbyvirksomhet for tiden.<br \/>\nDet er de som fors\u00f8ker \u00e5 ta kontroll over AI-bransjen.<br \/>\nDu, Geoff og Yoshua gir ammunisjon til dem som driver lobbyvirksomhet for et forbud mot \u00e5pen forskning og utvikling av kunstig intelligens.<\/p>\n<p>Hvis...<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1718670073391378694?ref_src=twsrc%5Etfw\">29. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span style=\"font-weight: 400;\">LeCuns st\u00f8ttespillere<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">LeCuns argumenter f\u00e5r god st\u00f8tte i sosiale medier, og det er stor enighet om dem blant kommentatorer og bransjeeksperter. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Andrew Ng, en sentral skikkelse i utviklingen av kunstig intelligens og medgrunnlegger av Google Brain, har for eksempel ogs\u00e5 uttrykt bekymring for at store teknologiselskaper kan manipulere diskursen om kunstig intelligens for \u00e5 oppn\u00e5 markedsdominans.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">I det minste er det *ett* stort teknologiselskap som legger ut AI-modeller \u00e5pent og ikke lyver om AIs eksistensielle risiko \ud83d\ude0a.<a href=\"https:\/\/t.co\/vyk4qkOzOq\">https:\/\/t.co\/vyk4qkOzOq<\/a><\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719162768002093184?ref_src=twsrc%5Etfw\">31. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">I et intervju med The Australian Financial Review fremhevet Ng en trend blant teknologigiganter som forsterker frykten for AI, spesielt ideen om at det kan f\u00f8re til utryddelse av mennesker. I likhet med LeCun og andre antyder han at dette narrativet brukes strategisk for \u00e5 f\u00e5 til strengere AI-regulering, og dermed hindre initiativer med \u00e5pen kildekode og mindre konkurrenter.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Det finnes definitivt store teknologiselskaper som helst vil slippe \u00e5 konkurrere med \u00e5pen kildekode, s\u00e5 de skaper frykt for at AI skal f\u00f8re til utryddelse av mennesker\", forklarer Ng. \"Det har v\u00e6rt et v\u00e5pen for lobbyister for \u00e5 argumentere for lovgivning som ville v\u00e6re sv\u00e6rt skadelig for open source-fellesskapet.\"<\/span><\/p>\n<p><a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\"><span style=\"font-weight: 400;\">Tidligere i \u00e5r<\/span><\/a><span style=\"font-weight: 400;\">... et lekket Google-notat tilsynelatende innr\u00f8mmet at big tech var i ferd med \u00e5 tape terreng til \u00e5pen kildekode.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I notatet st\u00e5r det: \"Open source-modeller er raskere, mer tilpasningsdyktige, mer private og mer effektive. De gj\u00f8r ting med $100- og 13B-parametere som vi sliter med p\u00e5 $10M og 540B. Og de gj\u00f8r det p\u00e5 uker, ikke m\u00e5neder.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI med \u00e5pen kildekode er rask, ikke-monolittisk, privat og fremfor alt billig. Big tech er allerede <a href=\"https:\/\/dailyai.com\/nb\/2023\/10\/can-the-tech-industry-overcome-the-challenge-of-ai-monetization\/\">sliter med \u00e5 tjene penger p\u00e5 AI<\/a>S\u00e5 p\u00e5 papiret gir det hele mening: \u00e5 regulere AI-industrien for \u00e5 hjelpe gigantene til \u00e5 seire.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Distraksjoner fra umiddelbare trusler<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Det er en annen dimensjon ved denne debatten som g\u00e5r utover penger. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mange har gjentatt at de n\u00e5v\u00e6rende risikoene ved AI, som ekstremt sofistikerte forfalskninger og feilinformasjon, allerede er tilstrekkelige til \u00e5 rettferdiggj\u00f8re en langvarig debatt og raske tiltak.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aidan Gomez, en fremtredende forsker innen kunstig intelligens og administrerende direkt\u00f8r i Cohere, understreket ogs\u00e5 risikoen ved \u00e5 fokusere for mye p\u00e5 dommedagsscenarioer.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I forkant av denne ukens <a href=\"https:\/\/dailyai.com\/nb\/2023\/11\/round-up-of-day-two-of-the-uks-ai-safety-summit\/\">Toppm\u00f8te om AI-sikkerhet<\/a>Gomez p\u00e5pekte at umiddelbare trusler som feilinformasjon og svekket sosial tillit kommer i skyggen av diskusjoner om langsiktige, eksistensielle risikoer.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Jeg tror at n\u00e5r det gjelder eksistensiell risiko og offentlig politikk, er det ikke en produktiv samtale \u00e5 ha\", uttalte Gomez, og understreket behovet for \u00e5 prioritere umiddelbare risikoer. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"N\u00e5r det gjelder offentlig politikk og hvor vi b\u00f8r ha fokus i offentlig sektor - eller \u00e5 fors\u00f8ke \u00e5 redusere risikoen for sivilbefolkningen - mener jeg at det er en distraksjon, bort fra risikoer som er mye mer h\u00e5ndgripelige og umiddelbare.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gomez fremhever den gjennomgripende innflytelsen AI har p\u00e5 produkter som brukes av milliarder av mennesker, og understreker at det haster med \u00e5 h\u00e5ndtere risikoer som aktivt p\u00e5virker publikum. \"Denne teknologien finnes allerede i en milliard brukerprodukter, som hos Google og andre. Det gir oss en rekke nye risikoer \u00e5 diskutere, men ingen av dem er eksistensielle eller dommedagsscenarioer\", forklarer han.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Han peker p\u00e5 feilinformasjon som et hovedproblem, gitt AI-modellenes evne til \u00e5 skape medier som \"praktisk talt ikke kan skilles fra menneskeskapte tekster, bilder eller medier\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Feilinformasjon er faktisk samfunnsfiende nummer \u00e9n n\u00e5r det gjelder AI-risiko, ettersom vi allerede har sett eksempler p\u00e5 at forfalskninger har blitt brukt i vellykkede svindelfors\u00f8k. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dype forfalskninger utplassert f\u00f8r ettertid <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/10\/ai-generated-fake-audio-clips-continue-to-stir-controversy\/\"><span style=\"font-weight: 400;\">ved det slovakiske valget<\/span><\/a><span style=\"font-weight: 400;\"> viste hvordan de konkret kan p\u00e5virke demokratiet.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Yoshua Bengio, Geoffrey Hinton og Elon Musk deltar i debatten<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">\"AI-gudfaren\" Yoshua Bengio, sammen med en forsamling p\u00e5 over 200 teknologiledere og forskere, sluttet seg til et \u00e5pent brev som understreker det kritiske behovet for umiddelbare og omfattende tiltak. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio st\u00e5r n\u00e5 i spissen for en internasjonal rapport som ble lagt frem p\u00e5 Storbritannias AI Safety Summit. Han er overbevist om at AI utgj\u00f8r en risiko, i likhet med Geoffrey Hinton, noe som betyr at 2\/3 av \"AI-gudfedrene\" er bekymret p\u00e5 et eller annet niv\u00e5.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Du og Yoshua hjelper utilsiktet dem som \u00f8nsker \u00e5 sette AI-forskning og -utvikling under l\u00e5s og sl\u00e5 og beskytte virksomheten sin ved \u00e5 forby \u00e5pen forskning, \u00e5pen kildekode og modeller med \u00e5pen tilgang.<\/p>\n<p>Dette vil uunng\u00e5elig f\u00f8re til d\u00e5rlige resultater p\u00e5 mellomlang sikt.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719432513003901278?ref_src=twsrc%5Etfw\">31. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">P\u00e5 nettsiden hans, <a href=\"https:\/\/yoshuabengio.org\/2023\/04\/05\/slowing-down-development-of-ai-systems-passing-the-turing-test\/\">Bengio skrev<\/a>\"Jeg skrev nylig under p\u00e5 et \u00e5pent brev der jeg ba om \u00e5 bremse utviklingen av gigantiske AI-systemer som er kraftigere enn GPT-4 - de som i dag best\u00e5r Turing-testen og dermed kan lure et menneske til \u00e5 tro at det snakker med en jevnaldrende i stedet for en maskin.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Geoffrey Hinton fra AI-gudfedertriumviratet hadde forlatt Google for \u00e5 \"snakke ut\" om sin frykt for AI. Han gikk s\u00e5 langt som \u00e5 si at han angret p\u00e5 arbeidet sitt p\u00e5 grunn av hvordan AI kunne misbrukes, og uttalte i et intervju: \"Jeg tr\u00f8ster meg med den vanlige unnskyldningen: Hvis jeg ikke hadde gjort det, ville noen andre ha gjort det.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hinton st\u00f8tter, i likhet med Bengio, synet om at kunstig intelligens utgj\u00f8r en alvorlig risiko p\u00e5 utryddelsesniv\u00e5. Han tviler ogs\u00e5 p\u00e5 at \u00e5pne modeller kan bidra til \u00f8kt sikkerhet.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Han fremhevet nylig at hans valg om \u00e5 forlate Google var i strid med LeCun et al.s kritiske holdning, og uttalte p\u00e5 X: \"Andrew Ng hevder at ideen om at AI kan gj\u00f8re oss utryddet er en big-tech-konspirasjon. Et datapunkt som ikke passer inn i denne konspirasjonsteorien, er at jeg forlot Google slik at jeg kunne snakke fritt om den eksistensielle trusselen.\"<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Andrew Ng hevder at ideen om at AI kan utrydde oss, er en big-tech-konspirasjon. Et datapunkt som ikke passer inn i denne konspirasjonsteorien, er at jeg forlot Google slik at jeg kunne snakke fritt om den eksistensielle trusselen.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719406116503707668?ref_src=twsrc%5Etfw\">31. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Hinton, Bengio og andre toppforskere innen kunstig intelligens, deriblant den innflytelsesrike kinesiske dataforskeren Andrew Yao, har nylig <\/span><a href=\"https:\/\/arxiv.org\/abs\/2310.17688\"><span style=\"font-weight: 400;\">st\u00f8ttet en avis<\/span><\/a><span style=\"font-weight: 400;\"> som beskriver risikoen ved kunstig intelligens. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Som Hinton sier: \"Selskaper planlegger \u00e5 trene opp modeller med 100 ganger mer databehandling enn dagens toppmoderne teknologi innen 18 m\u00e5neder. Ingen vet hvor kraftige de vil v\u00e6re. Og det finnes i praksis ingen regulering av hva de vil kunne gj\u00f8re med disse modellene.\"<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">La oss \u00e5pne kildekoden for atomv\u00e5pen ogs\u00e5 for \u00e5 gj\u00f8re dem tryggere. De gode (oss) vil alltid ha st\u00f8rre v\u00e5pen enn de onde (dem), s\u00e5 alt burde g\u00e5 bra.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719443704098804136?ref_src=twsrc%5Etfw\">31. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Det er greit \u00e5 regulere produktdistribusjon.<br \/>\nN\u00e5r det gjelder livskritiske applikasjoner som kj\u00f8reassistanse, er det n\u00f8dvendig.<\/p>\n<p>Det vi er imot, er \u00e5 regulere forskning og utvikling av kunstig intelligens.<br \/>\nSpesielt med vilk\u00e5rlige begrensninger p\u00e5 beregningsniv\u00e5ene.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719821488482660575?ref_src=twsrc%5Etfw\">1. november 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Denne debatten fortsetter og vil fortsette \u00e5 gj\u00f8re det.<\/p>\n<p>En X-bruker sa f\u00f8lgende:<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Grunnleggerne av AI har sovesal etter to bongturer niv\u00e5 debatter <a href=\"https:\/\/t.co\/8MUze6hxBS\">pic.twitter.com\/8MUze6hxBS<\/a><\/p>\n<p>- Hassan Hayat \ud83d\udd25 (@TheSeaMouse) <a href=\"https:\/\/twitter.com\/TheSeaMouse\/status\/1719464104186814611?ref_src=twsrc%5Etfw\">31. oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">LeCun har en annen antagonist i Elon Musk, som sjelden er frav\u00e6rende i en X-debatt p\u00e5 h\u00f8yt niv\u00e5, spesielt ikke n\u00e5r det gjelder en debatt som ligger midt i hans styrehus (for ikke \u00e5 snakke om plattformen hans). <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Musk har en veldokumentert historie med \u00e5 uttrykke sin bekymring for AI, men holdningen hans har blitt sv\u00e6rt uforutsigbar.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I den senere tid har Musk konsekvent stemplet AI som en potensiell eksistensiell trussel mot menneskeheten, og uttalt at det \u00e5 utvikle kompleks AI var som \u00e5 \"tilkalle demonen\". P\u00e5 AI Safety Summit sa han imidlertid at han trodde AI ville gi positive nettofordeler.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De siste m\u00e5nedene har Musk kritisert OpenAI, fremhevet et avvik fra organisasjonens opprinnelige form\u00e5l og uttrykt bekymring for organisasjonens \"closed source\"-retning, som i stor grad er p\u00e5virket av Microsoft.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">B\u00e5de Musk og LeCun er stort sett enige i sin kritikk av AI med lukket kildekode, noe som viser at det \u00e5 forsvare risikoen ved AI ikke alltid er det samme som \u00e5 ford\u00f8mme \u00e5pen kildekode. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e5r det gjelder \u00e5pen kildekode, la oss se hva Musk velger \u00e5 gj\u00f8re med eventuelle produkter hans <a href=\"https:\/\/dailyai.com\/nb\/2023\/07\/elon-musk-unveils-mysterious-new-ai-venture-xai\/\">AI-oppstartsselskapet xAI lanserer<\/a>.<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Google DeepMind-sjef sl\u00e5r tilbake mot LeCuns \"skremselspropaganda\"-p\u00e5stand<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Sjefen for Google DeepMind, Demis Hassabis, svarte p\u00e5 p\u00e5standene fra LeCun og beskyldte selskapet for \u00e5 drive omfattende lobbyvirksomhet for \u00e5 dominere AI-industrien.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I et intervju med <a href=\"https:\/\/www.cnbc.com\/world\/?region=world\">CNBC<\/a>Hassabis understreket at DeepMinds engasjement i AI-diskusjonene ikke er et fors\u00f8k p\u00e5 \u00e5 oppn\u00e5 \"regulatorisk overtakelse\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Som svar p\u00e5 disse p\u00e5standene uttalte Hassabis: \"Jeg er ganske uenig i de fleste av disse kommentarene fra Yann.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Han skisserte tre hovedkategorier av risikoer forbundet med kunstig intelligens, og understreket viktigheten av \u00e5 ta tak i umiddelbare problemer som feilinformasjon, \"deep fakes\" og partiskhet, samtidig som man tar hensyn til ondsinnede akt\u00f8rers potensielle misbruk av kunstig intelligens og langsiktige risikoer forbundet med kunstig generell intelligens (AGI).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Han tok til orde for \u00e5 innlede samtaler om regulering av superintelligent AI f\u00f8r heller enn senere for \u00e5 unng\u00e5 alvorlige konsekvenser.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hassabis fremhevet AI-teknologiens globale natur, og understreket behovet for internasjonalt samarbeid, blant annet med Kina, for \u00e5 etablere ansvarlige standarder for utvikling og regulering.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">B\u00e5de han og James Manyika, Googles senior visepresident for forskning, teknologi og samfunn, uttrykte et \u00f8nske om \u00e5 se en global konsensus om AI. Hassabis deltok p\u00e5 Storbritannias AI Safety Summit, der han sluttet seg til holdningen fra verdens ledere om \u00e5 legge vekt p\u00e5 sikkerhet og tilsyn med AI.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Til tross for de p\u00e5g\u00e5ende teknologiske spenningene mellom USA og Kina og de amerikanske teknologigigantenes motvilje mot \u00e5 engasjere seg i kommersielt arbeid i Kina, understreket Hassabis n\u00f8dvendigheten av kommunikasjon, og sa: \"Jeg tror vi m\u00e5 snakke med alle p\u00e5 dette stadiet.\"<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Finnes det en middelvei?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Debattene om de potensielle risikoene ved kunstig intelligens og de n\u00f8dvendige regulatoriske tiltakene er i ferd med \u00e5 n\u00e5 et kritisk punkt. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">De siste ukene har vi sett en \u00f8kning i \"offisielle samtaler\" om AI, men regulering er fortsatt p\u00e5 trappene. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">USAs regelverk og EUs AI Act vil legge det f\u00f8rste harde grunnlaget for styring av kunstig intelligens.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun har et overbevisende argument for \u00e5 tjene penger p\u00e5 AI i m\u00f8te med \u00e5pen kildekode-konkurranse. Fra Googles lekkede notat til de sammenhengende eksistensielle risikoene som store teknologisjefer har lagt frem i mainstream media, har han og hans st\u00f8ttespillere rikelig med ammunisjon.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Men mangelen p\u00e5 konsensus stikker dypere enn hodene til de profittmaksimerende AI-utviklerne hos Microsoft, DeepMind, Anthropic og s\u00e5 videre. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio og Hinton er i hovedsak partil\u00f8se, og avd\u00f8de professor Stephen Hawking har for eksempel uttalt at det \"kan bety slutten for menneskeheten\" og kan vise seg \u00e5 bli \"den verste hendelsen i v\u00e5r sivilisasjons historie\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forskere har demonstrert AI-systemers evne til \u00e5 <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\"><span style=\"font-weight: 400;\">selvstendig utvikle nye m\u00e5l<\/span><\/a><span style=\"font-weight: 400;\">som kan f\u00e5 katastrofale f\u00f8lger hvis de ikke h\u00e5ndteres p\u00e5 riktig m\u00e5te.\u00a0<\/span><span style=\"font-weight: 400;\">Andre eksperimenter har vist at AI-systemer aktivt kan s\u00f8ke etter ressurser, akkumulere kraft og iverksette tiltak for \u00e5 unng\u00e5 \u00e5 bli sl\u00e5tt av.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det finnes solid dokumentasjon p\u00e5 AI-relaterte skader, men st\u00e5r det i forhold til alarmklokkene som ringer hos de store teknologibossene? <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Og kanskje enda viktigere: Kan man virkelig stole p\u00e5 at de h\u00e5ndterer bransjen p\u00e5 en etisk forsvarlig m\u00e5te for alle, uavhengig av om det foreligger risiko eller ikke?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kanskje vi b\u00f8r se p\u00e5 de store teknologiselskapenes handlinger som det ultimate sjansespillet. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI er sannsynligvis risikabelt, men noen f\u00e5 utvalgte selskaper \u00f8nsker \u00e5 eie denne risikoen, presse den til det ytterste og forme den slik de selv \u00f8nsker, enten det er riktig eller galt.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Big tech kan laste spillet slik at huset alltid vinner s\u00e5 lenge det blir st\u00e5ende.\u00a0<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>AI er risikabelt, ikke sant? Det er det vi alle har blitt fortalt det siste \u00e5ret. Men ikke alle er enige, inkludert noen toppforskere.  X har v\u00e6rt preget av krangler om hvorvidt AI utgj\u00f8r en reell eksistensiell risiko. Vi snakker ikke om feilinformasjon eller dyp forfalskning - selv om dette allerede er ille - men om risikoer p\u00e5 niv\u00e5 med atomkatastrofer og pandemier. Denne debatten har blitt ledet av AI-risikoskeptikeren og Metas AI-sjef Yann LeCun, som regnes som en av de s\u00e5kalte \"AI-gudfedrene\" sammen med Yoshua Bengio og Geoffrey Hinton.  I LeCuns skuddlinje st\u00e5r OpenAI-sjef Sam Altman, DeepMind-sjef Demis Hassabis og<\/p>","protected":false},"author":2,"featured_media":7046,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[103,339,131,463],"class_list":["post-7045","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-ai-debate","tag-ai-safety","tag-meta","tag-yann-lecun"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI<\/title>\n<meta name=\"description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI\" \/>\n<meta property=\"og:description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-02T21:38:56+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:41:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"wordCount\":2540,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"keywords\":[\"AI debate\",\"AI safety\",\"Meta\",\"Yann LeCUn\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"name\":\"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"description\":\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"width\":1000,\"height\":667,\"caption\":\"AI risks\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Kampen mellom \"AI-gudfedrene\" - er AI risikabelt eller ikke? | DailyAI","description":"AI er risikabelt, ikke sant? Det er det vi alle har blitt fortalt det siste \u00e5ret. Men ikke alle er enige, inkludert noen toppforskere.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_locale":"nb_NO","og_type":"article","og_title":"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI","og_description":"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0","og_url":"https:\/\/dailyai.com\/nb\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_site_name":"DailyAI","article_published_time":"2023-11-02T21:38:56+00:00","article_modified_time":"2024-03-28T00:41:32+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"11 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"wordCount":2540,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","keywords":["AI debate","AI safety","Meta","Yann LeCUn"],"articleSection":["Ethics &amp; Society"],"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","url":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","name":"Kampen mellom \"AI-gudfedrene\" - er AI risikabelt eller ikke? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","description":"AI er risikabelt, ikke sant? Det er det vi alle har blitt fortalt det siste \u00e5ret. Men ikke alle er enige, inkludert noen toppforskere.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","width":1000,"height":667,"caption":"AI risks"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/7045","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=7045"}],"version-history":[{"count":13,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/7045\/revisions"}],"predecessor-version":[{"id":7076,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/7045\/revisions\/7076"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/7046"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=7045"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=7045"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=7045"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}