{"id":3343,"date":"2023-07-28T20:34:47","date_gmt":"2023-07-28T20:34:47","guid":{"rendered":"https:\/\/dailyai.com\/?p=3343"},"modified":"2024-03-28T00:46:33","modified_gmt":"2024-03-28T00:46:33","slug":"-39","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2023\/07\/-39\/","title":{"rendered":"Avsl\u00f8rer de dyptliggende skjevhetene i AI-systemer"},"content":{"rendered":"<p><b>KI-tidsalderen byr p\u00e5 et komplekst samspill mellom teknologi og samfunnets holdninger.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">De stadig mer sofistikerte AI-systemene gj\u00f8r at grensene mellom mennesker og maskiner viskes ut - er AI-teknologien atskilt fra oss selv? I hvilken grad arver kunstig intelligens menneskelige feil og mangler i tillegg til ferdigheter og kunnskap?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det er kanskje fristende \u00e5 se for seg kunstig intelligens som en empirisk teknologi, understreket av objektiviteten i matematikk, kode og beregninger.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Vi har imidlertid innsett at beslutningene som tas av AI-systemer, er sv\u00e6rt subjektive basert p\u00e5 dataene de blir eksponert for - og det er mennesker som bestemmer hvordan disse dataene skal velges ut og settes sammen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Her ligger det en utfordring, ettersom AI-treningsdata ofte inneholder fordommer og diskriminering som menneskeheten kjemper mot.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Selv tilsynelatende subtile former for ubevisste skjevheter kan forsterkes av modelltreningsprosessen, og til slutt avsl\u00f8re seg i form av blant annet feilaktige ansiktsmatcher i politisammenheng, kredittnekt, feildiagnostisering av sykdommer og svekkede sikkerhetsmekanismer for selvkj\u00f8rende kj\u00f8ret\u00f8y.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Menneskehetens fors\u00f8k p\u00e5 \u00e5 forhindre diskriminering i hele samfunnet er fortsatt et p\u00e5g\u00e5ende arbeid, men kunstig intelligens er en viktig drivkraft i beslutningsprosessen akkurat n\u00e5.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kan vi jobbe raskt nok til \u00e5 synkronisere AI med moderne verdier og forhindre forutinntatte livsendrende beslutninger og atferd?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">\u00c5 avdekke skjevheter i AI<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">I l\u00f8pet av det siste ti\u00e5ret har AI-systemer vist seg \u00e5 speile samfunnets fordommer. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disse systemene er ikke forutinntatte i seg selv - i stedet absorberer de skjevhetene til skaperne og dataene de er trent p\u00e5.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-systemer, i likhet med mennesker, l\u00e6rer gjennom eksponering. Menneskehjernen er et tilsynelatende endel\u00f8st register av informasjon - et bibliotek med nesten ubegrensede hyller der vi lagrer erfaringer, kunnskap og minner.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nevrovitenskapelig <\/span><a href=\"https:\/\/www.scientificamerican.com\/article\/can-your-brain-really-be-full\/\"><span style=\"font-weight: 400;\">studier<\/span><\/a><span style=\"font-weight: 400;\"> viser at hjernen egentlig ikke har noen \"maksimal kapasitet\", og at den fortsetter \u00e5 sortere og lagre informasjon langt opp i h\u00f8y alder.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om den langt fra er perfekt, hjelper hjernens progressive, iterative l\u00e6ringsprosess oss med \u00e5 tilpasse oss nye kulturelle og samfunnsmessige verdier, fra \u00e5 gi kvinner stemmerett og akseptere ulike identiteter til \u00e5 gj\u00f8re slutt p\u00e5 slaveri og andre former for bevisste fordommer. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">W<\/span><span style=\"font-weight: 400;\">i lever n\u00e5 i en tid der AI-verkt\u00f8y brukes til \u00e5 ta kritiske beslutninger i stedet for menneskelig d\u00f8mmekraft.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mange maskinl\u00e6ringsmodeller (ML) l\u00e6rer av treningsdata som danner grunnlaget for beslutningstakingen, og kan ikke ta inn ny informasjon like effektivt som den menneskelige hjernen. Derfor klarer de ofte ikke \u00e5 ta de oppdaterte, \u00f8yeblikksaktuelle beslutningene vi har blitt avhengige av dem for.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-modeller brukes for eksempel til \u00e5 identifisere ansiktstreff i forbindelse med rettsh\u00e5ndhevelse, <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/07\/ai-in-recruitment-are-the-risks-worth-the-rewards-of-speed-and-efficiency\/\"><span style=\"font-weight: 400;\">analysere CV-er for jobbs\u00f8knader<\/span><\/a><span style=\"font-weight: 400;\">og ta helsekritiske beslutninger i kliniske situasjoner.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Etter hvert som samfunnet fortsetter \u00e5 integrere AI i hverdagen v\u00e5r, m\u00e5 vi s\u00f8rge for at den er lik og n\u00f8yaktig for alle. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dette er ikke tilfelle for \u00f8yeblikket.\u00a0\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Casestudier i AI-skjevhet<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Det finnes mange eksempler p\u00e5 KI-relaterte fordommer og diskriminering i den virkelige verden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I noen tilfeller kan AI-skjevheter f\u00e5 livsendrende konsekvenser, mens de i andre tilfeller holder seg i bakgrunnen og p\u00e5virker beslutninger p\u00e5 en subtil m\u00e5te.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">1. MITs skjevhet i datasettet<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Et MIT-treningsdatasett fra 2008 kalt <\/span><a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\"><span style=\"font-weight: 400;\">Sm\u00e5 bilder<\/span><\/a><span style=\"font-weight: 400;\"> inneholdt omtrent 80 000 000 bilder fordelt p\u00e5 rundt 75 000 kategorier.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det ble opprinnelig utviklet for \u00e5 l\u00e6re AI-systemer \u00e5 gjenkjenne personer og objekter i bilder, og ble et popul\u00e6rt referansedatasett for ulike bruksomr\u00e5der innen datasyn (CV).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2020 <a href=\"https:\/\/www.theregister.com\/2020\/07\/01\/mit_dataset_removed\/\">analyse av The Register<\/a> fant at mange <\/span><span style=\"font-weight: 400;\">Tiny Images inneholdt obsk\u00f8ne, rasistiske og sexistiske merkelapper.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Antonio Torralba fra MIT sa at laboratoriet ikke var klar over disse st\u00f8tende merkelappene, og sa til The Register: \"Det er klart at vi burde ha screenet dem manuelt.\" MIT ga senere ut en uttalelse om at de hadde fjernet datasettet fra tjenesten.<\/span><\/p>\n<figure id=\"attachment_3344\" aria-describedby=\"caption-attachment-3344\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3344 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png\" alt=\"Liten PNG-uttalelse\" width=\"1024\" height=\"281\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-300x82.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-768x211.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1536x421.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-2048x561.png 2048w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-370x101.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-800x219.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-740x203.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-20x5.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1600x439.png 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-175x48.png 175w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3344\" class=\"wp-caption-text\">MITs uttalelse om Tiny Images. Kilde: MIT: <a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\">Sm\u00e5 bilder<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Dette er ikke den eneste gangen et tidligere referansedatasett har vist seg \u00e5 v\u00e6re fullt av problemer. Labeled Faces in the Wild (LFW), et datasett med kjendisansikter som brukes mye i ansiktsgjenkjenningsoppgaver, best\u00e5r av 77,5% menn og 83,5% personer med hvit hudfarge.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mange av disse veterandatasettene har funnet veien inn i moderne AI-modeller, men stammer fra en tid med AI-utvikling der fokuset var \u00e5 bygge systemer som <\/span><i><span style=\"font-weight: 400;\">bare jobbe <\/span><\/i><span style=\"font-weight: 400;\">snarere enn de som er egnet for bruk i virkelige scenarier.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e5r et AI-system er oppl\u00e6rt p\u00e5 et slikt datasett, har det ikke n\u00f8dvendigvis samme privilegium som menneskehjernen n\u00e5r det gjelder \u00e5 rekalibrere seg til dagens verdier. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om modeller kan oppdateres iterativt, er det en langsom og ufullkommen prosess som ikke kan matche tempoet i den menneskelige utviklingen.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">2: Bildegjenkjenning: skjevheter mot personer med m\u00f8rkere hudfarge<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">I 2019 ble <\/span><a href=\"https:\/\/www.reuters.com\/article\/usa-crime-face\/u-s-government-study-finds-racial-bias-in-facial-recognition-tools-idINL1N28T29H\"><span style=\"font-weight: 400;\">Amerikanske myndigheter fant<\/span><\/a><span style=\"font-weight: 400;\"> at de beste ansiktsgjenkjenningssystemene feilidentifiserer svarte mennesker 5 til 10 ganger mer enn hvite mennesker.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dette er ikke bare en statistisk anomali - det har alvorlige konsekvenser i den virkelige verden, alt fra at Google Foto identifiserer svarte mennesker som gorillaer til at selvkj\u00f8rende biler ikke gjenkjenner m\u00f8rkhudede personer og kj\u00f8rer inn i dem.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I tillegg var det en rekke urettmessige arrestasjoner og fengslinger som involverte falske ansiktstrekk, kanskje mest utbredt <\/span><a href=\"https:\/\/www.engadget.com\/facial-recognition-wrongful-arrest-lawsuit-new-jersey-201517290.html\"><span style=\"font-weight: 400;\">Nijeer Parks'<\/span><\/a><span style=\"font-weight: 400;\"> som feilaktig ble anklaget for butikktyveri og trafikklovbrudd, til tross for at han befant seg 50 kilometer unna hendelsen. Parks tilbrakte deretter 10 dager i fengsel og m\u00e5tte ut med tusenvis av kroner i advokatutgifter.\u00a0<\/span><\/p>\n<figure id=\"attachment_3345\" aria-describedby=\"caption-attachment-3345\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3345 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg\" alt=\"Nijeer Parks\" width=\"1024\" height=\"576\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-300x169.jpg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-768x432.jpg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1536x864.jpg 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-370x208.jpg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-800x450.jpg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-20x11.jpg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-740x416.jpg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1600x900.jpg 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-85x48.jpg 85w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks.jpg 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3345\" class=\"wp-caption-text\">Nijeer Parks' feilaktige ansiktsgjenkjenning. Kilde: <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\">CNN<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Den innflytelsesrike studien fra 2018, <\/span><a href=\"http:\/\/gendershades.org\/\"><span style=\"font-weight: 400;\">Kj\u00f8nnsnyanser<\/span><\/a><span style=\"font-weight: 400;\">unders\u00f8kte videre algoritmiske skjevheter. Studien analyserte algoritmer utviklet av IBM og Microsoft og fant d\u00e5rlig n\u00f8yaktighet n\u00e5r de ble eksponert for kvinner med m\u00f8rkere hudfarge, med feilrater som var opptil 34% st\u00f8rre enn for menn med lysere hudfarge.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dette m\u00f8nsteret viste seg \u00e5 v\u00e6re gjennomg\u00e5ende for 189 ulike algoritmer. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Videoen nedenfor fra studiens hovedforsker Joy Buolamwini gir en utmerket guide til hvordan ansiktsgjenkjenningsytelsen varierer p\u00e5 tvers av hudfarge.\u00a0<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Kj\u00f8nnsnyanser\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/TWWsW1w-BVo?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h3><\/h3>\n<h3><span style=\"font-weight: 400;\">3: OpenAIs CLIP-prosjekt<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">OpenAIs <\/span><a href=\"https:\/\/openai.com\/research\/clip\"><span style=\"font-weight: 400;\">CLIP-prosjektet<\/span><\/a><span style=\"font-weight: 400;\">som ble lansert i 2021, og som er designet for \u00e5 matche bilder med beskrivende tekst, illustrerte ogs\u00e5 p\u00e5g\u00e5ende problemer med skjevheter.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I et revisjonsnotat understreket skaperne av CLIP sine bekymringer: \"CLIP knyttet noen merkelapper som beskrev h\u00f8ystatusyrker uforholdsmessig ofte til menn, for eksempel 'leder' og 'lege'. Dette ligner p\u00e5 skjevhetene som ble funnet i Google Cloud Vision (GCV), og peker p\u00e5 historiske kj\u00f8nnsforskjeller.\"<\/span><\/p>\n<figure id=\"attachment_3346\" aria-describedby=\"caption-attachment-3346\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3346 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png\" alt=\"OpenAI CLIP\" width=\"1024\" height=\"539\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-300x158.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-768x404.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-370x195.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-800x421.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-20x11.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-740x389.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-91x48.png 91w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP.png 1120w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3346\" class=\"wp-caption-text\">CLIP hadde en tendens til \u00e5 assosiere menn og kvinner med problematiske stereotypier som \"dame\" og \"blondine\". kilde: <a href=\"https:\/\/arxiv.org\/pdf\/2108.02818.pdf\">Evaluering av CLIP<\/a>.<\/figcaption><\/figure>\n<h3><span style=\"font-weight: 400;\">4: Rettsh\u00e5ndhevelse: PredPol-kontroversen<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Et annet eksempel p\u00e5 algoritmisk skjevhet med h\u00f8y innsats er <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/PredPol\"><span style=\"font-weight: 400;\">PredPol<\/span><\/a><span style=\"font-weight: 400;\">, en algoritme for forutseende politiarbeid som brukes av ulike politiavdelinger i USA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">PredPol ble trent p\u00e5 historiske kriminalitetsdata for \u00e5 forutsi fremtidige hotspots for kriminalitet.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Men ettersom disse dataene i seg selv gjenspeiler partisk politipraksis, har algoritmen blitt kritisert for \u00e5 opprettholde raseprofilering og for \u00e5 v\u00e6re uforholdsmessig m\u00e5lrettet mot minoritetsnabolag.<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">5: Skjevhet i dermatologisk AI<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">I helsevesenet blir den potensielle risikoen ved AI-skjevhet enda tydeligere.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ta for eksempel AI-systemer som er utviklet for \u00e5 oppdage hudkreft. Mange av disse systemene er trent opp p\u00e5 datasett som i overveldende grad best\u00e5r av personer med lys hud.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2021 <\/span><a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(21)00252-1\/fulltext\"><span style=\"font-weight: 400;\">studie fra Universitetet i Oxford<\/span><\/a><span style=\"font-weight: 400;\"> unders\u00f8kte 21 \u00e5pent tilgjengelige datasett for bilder av hudkreft. De oppdaget at av de 14 datasettene som oppga geografisk opprinnelse, besto 11 utelukkende av bilder fra Europa, Nord-Amerika og Oseania.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bare 2436 av 106 950 bilder i de 21 databasene hadde informasjon om hudtype registrert. Forskerne bemerket at \"bare 10 bilder var fra personer som var registrert med brun hud, og ett var fra en person som var registrert med m\u00f8rkebrun eller svart hud\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e5r det gjelder data om etnisitet, var det bare 1585 bilder som inneholdt denne informasjonen. Forskerne fant ut at \"ingen bilder var fra personer med afrikansk, afro-karibisk eller s\u00f8rasiatisk bakgrunn\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De konkluderte med at \"kombinert med datasettenes geografiske opprinnelse var det en massiv underrepresentasjon av bilder av hudlesjoner fra m\u00f8rkhudede befolkninger\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvis slike AI-er tas i bruk i kliniske milj\u00f8er, vil skjeve datasett utgj\u00f8re en reell risiko for feildiagnostisering.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Dissekering av skjevheter i AI-treningsdatasett: et produkt av skaperne?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Oppl\u00e6ringsdata - som oftest tekst, tale, bilder og video - gir en overv\u00e5ket maskinl\u00e6ringsmodell (ML) et grunnlag for \u00e5 l\u00e6re konsepter.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-systemer er ikke noe annet enn blanke lerreter i utgangspunktet. De l\u00e6rer og danner assosiasjoner basert p\u00e5 dataene v\u00e5re, og tegner i bunn og grunn et bilde av verden slik den er beskrevet i oppl\u00e6ringsdatasettene deres.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ved \u00e5 l\u00e6re av treningsdata er h\u00e5pet at modellen skal kunne bruke de innl\u00e6rte konseptene p\u00e5 nye, usette data.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e5r de er tatt i bruk, kan noen avanserte modeller l\u00e6re av nye data, men treningsdataene styrer fortsatt den grunnleggende ytelsen deres.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det f\u00f8rste sp\u00f8rsm\u00e5let som m\u00e5 besvares, er hvor dataene kommer fra. Data som er samlet inn fra ikke-representative, ofte homogene og historisk sett urettferdige kilder, er problematiske.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det gjelder sannsynligvis en betydelig mengde nettdata, inkludert tekst- og bildedata som er hentet fra \"\u00e5pne\" eller \"offentlige\" kilder.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Internett ble utviklet for bare noen ti\u00e5r siden, men er ikke noe universalmiddel for menneskelig kunnskap og er langt fra rettferdig. Halvparten av verden bruker ikke internett, og bidrar heller ikke til det, noe som betyr at det i bunn og grunn ikke er representativt for det globale samfunnet og den globale kulturen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om AI-utviklere hele tiden jobber for \u00e5 sikre at teknologiens fordeler ikke begrenses til den engelskspr\u00e5klige verden, produseres st\u00f8rstedelen av oppl\u00e6ringsdataene (tekst og tale) p\u00e5 engelsk - noe som betyr at det er engelskspr\u00e5klige bidragsytere som styrer modellresultatene.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forskere fra Anthropic har nylig <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/\"><span style=\"font-weight: 400;\">utgitt en artikkel<\/span><\/a><span style=\"font-weight: 400;\"> om nettopp dette temaet, og konkluderer: \"Hvis en spr\u00e5kmodell i uforholdsmessig stor grad representerer visse meninger, risikerer den \u00e5 f\u00e5 potensielt u\u00f8nskede effekter, som \u00e5 fremme hegemoniske verdensbilder og homogenisere folks perspektiver og oppfatninger.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om AI-systemer er basert p\u00e5 \"objektive\" prinsipper for matematikk og programmering, eksisterer de likevel innenfor og er formet av en dypt subjektiv, menneskelig og sosial kontekst.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Mulige l\u00f8sninger p\u00e5 algoritmisk skjevhet<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Hvis data er det grunnleggende problemet, kan l\u00f8sningen p\u00e5 \u00e5 bygge rettferdige modeller virke enkel: Du gj\u00f8r bare datasettene mer balanserte, ikke sant?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ikke helt. A <\/span><a href=\"https:\/\/arxiv.org\/abs\/1811.08489\"><span style=\"font-weight: 400;\">2019 studie<\/span><\/a><span style=\"font-weight: 400;\"> viste at det ikke er tilstrekkelig \u00e5 balansere datasettene, ettersom algoritmer fortsatt i uforholdsmessig stor grad tar hensyn til beskyttede egenskaper som kj\u00f8nn og rase.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forfatterne skriver: \"Overraskende nok viser vi at selv n\u00e5r datasettene er balansert slik at hver etikett forekommer likt med hvert kj\u00f8nn, forsterker innl\u00e6rte modeller sammenhengen mellom etiketter og kj\u00f8nn like mye som om dataene ikke hadde v\u00e6rt balansert!\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De foresl\u00e5r en avbalanseringsteknikk der slike etiketter fjernes helt fra datasettet. Andre teknikker inkluderer tilfeldige forstyrrelser og forvrengninger, som reduserer algoritmens oppmerksomhet mot spesifikke beskyttede egenskaper.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om modifisering av maskinl\u00e6ringsmetoder og optimalisering er avgj\u00f8rende for \u00e5 produsere objektive resultater, er avanserte modeller utsatt for endringer eller \"drift\", noe som betyr at ytelsen deres ikke n\u00f8dvendigvis forblir konsistent p\u00e5 lang sikt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En modell kan v\u00e6re helt objektiv ved utplassering, men senere bli skjev n\u00e5r den blir eksponert for stadig nye data.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Den algoritmiske \u00e5penhetsbevegelsen<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">I sin provoserende bok <\/span><i><span style=\"font-weight: 400;\">Kunstig uintelligens: Hvordan datamaskiner misforst\u00e5r verden<\/span><\/i><span style=\"font-weight: 400;\">Meredith Broussard argumenterer for \u00f8kt \"algoritmisk \u00e5penhet\" for \u00e5 utsette AI-systemer for flere niv\u00e5er av l\u00f8pende kontroll.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det betyr at man m\u00e5 gi tydelig informasjon om hvordan systemet fungerer, hvordan det ble trent opp, og hvilke data det ble trent opp p\u00e5.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mens \u00e5penhetsinitiativer lett absorberes i AI-landskapet med \u00e5pen kildekode, er propriet\u00e6re modeller som GPT, Bard og Anthropics Claude \"svarte bokser\", og det er bare utviklerne som vet n\u00f8yaktig hvordan de fungerer - og selv det er omdiskutert.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Problemet med \"svart boks\" i AI betyr at eksterne observat\u00f8rer bare ser hva som g\u00e5r inn i modellen (input) og hva som kommer ut (output). Den indre mekanikken er helt ukjent, bortsett fra for skaperne - akkurat som den magiske sirkelen beskytter tryllekunstnernes hemmeligheter. AI trekker bare kaninen opp av hatten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Svart boks-problematikken utkrystalliserte seg nylig rundt rapporter om <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/07\/is-chatgpt-getting-worse-heres-everything-we-know-so-far\/\"><span style=\"font-weight: 400;\">GPT-4s potensielle nedgang i ytelse<\/span><\/a><span style=\"font-weight: 400;\">. GPT-4-brukere hevder at modellens evner har avtatt raskt, og selv om OpenAI erkjenner at dette er sant, har de ikke v\u00e6rt helt klare p\u00e5 hvorfor det skjer. Det reiser sp\u00f8rsm\u00e5let om de i det hele tatt vet det?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">AI-forsker Dr. Sasha Luccioni sier at OpenAIs mangel p\u00e5 \u00e5penhet er et problem som ogs\u00e5 gjelder for andre propriet\u00e6re eller lukkede AI-modellutviklere. \"Alle resultater fra lukkede modeller kan ikke reproduseres eller etterpr\u00f8ves, og fra et vitenskapelig perspektiv sammenligner vi derfor vaskebj\u00f8rner og ekorn.\" <\/span><\/p>\n<p><span style=\"font-weight: 400;\">&#8220;<\/span><span style=\"font-weight: 400;\">Det er ikke forskernes ansvar \u00e5 kontinuerlig overv\u00e5ke utplasserte LLM-er. Det er modellskaperne som m\u00e5 gi tilgang til de underliggende modellene, i det minste for revisjonsform\u00e5l\", sier hun.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Luccioni understreket at utviklere av AI-modeller b\u00f8r levere r\u00e5 resultater fra standard benchmarks som SuperGLUE og WikiText og bias benchmarks som BOLD og HONEST.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kampen mot AI-drevne fordommer og forutinntatthet vil sannsynligvis v\u00e6re konstant, og det vil kreve kontinuerlig oppmerksomhet og forskning for \u00e5 holde modellresultatene i sjakk etter hvert som AI og samfunnet utvikler seg sammen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Selv om regulering vil p\u00e5legge ulike former for overv\u00e5king og rapportering, finnes det f\u00e5 enkle l\u00f8sninger p\u00e5 problemet med algoritmiske skjevheter, og dette er ikke det siste vi kommer til \u00e5 h\u00f8re om det.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>KI-tidsalderen byr p\u00e5 et komplekst samspill mellom teknologi og samfunnsholdninger.  De stadig mer sofistikerte AI-systemene gj\u00f8r at grensene mellom mennesker og maskiner viskes ut - er AI-teknologien adskilt fra oss selv? I hvilken grad arver kunstig intelligens menneskelige feil og mangler i tillegg til ferdigheter og kunnskap? Det er kanskje fristende \u00e5 se for seg kunstig intelligens som en empirisk teknologi, understreket av objektiviteten i matematikk, kode og beregninger.  Vi har imidlertid innsett at beslutningene som tas av AI-systemer, er sv\u00e6rt subjektive basert p\u00e5 dataene de blir eksponert for - og det er mennesker som bestemmer hvordan disse dataene skal velges ut og settes sammen.\u00a0<\/p>","protected":false},"author":2,"featured_media":3347,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[148,213,118,117,93,257],"class_list":["post-3343","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-anthropic","tag-bias","tag-llms","tag-mit","tag-openai","tag-prejudice"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Unmasking the deep-seated biases in AI systems | DailyAI<\/title>\n<meta name=\"description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2023\/07\/-39\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Unmasking the deep-seated biases in AI systems | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2023\/07\/-39\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-28T20:34:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:46:33+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"527\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Unmasking the deep-seated biases in AI systems\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"wordCount\":2105,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"keywords\":[\"Anthropic\",\"Bias\",\"LLMS\",\"MIT\",\"OpenAI\",\"prejudice\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"name\":\"Unmasking the deep-seated biases in AI systems | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"description\":\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"width\":1000,\"height\":527,\"caption\":\"AI bias\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Unmasking the deep-seated biases in AI systems\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Avsl\u00f8rer de dyptliggende skjevhetene i AI-systemer | DailyAI","description":"De stadig mer sofistikerte AI-systemene gj\u00f8r at grensene mellom mennesker og maskiner viskes ut - er AI-teknologien adskilt fra oss selv?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2023\/07\/-39\/","og_locale":"nb_NO","og_type":"article","og_title":"Unmasking the deep-seated biases in AI systems | DailyAI","og_description":"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?","og_url":"https:\/\/dailyai.com\/nb\/2023\/07\/-39\/","og_site_name":"DailyAI","article_published_time":"2023-07-28T20:34:47+00:00","article_modified_time":"2024-03-28T00:46:33+00:00","og_image":[{"width":1000,"height":527,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"10 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Unmasking the deep-seated biases in AI systems","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"wordCount":2105,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","keywords":["Anthropic","Bias","LLMS","MIT","OpenAI","prejudice"],"articleSection":["Ethics &amp; Society"],"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","url":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","name":"Avsl\u00f8rer de dyptliggende skjevhetene i AI-systemer | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","description":"De stadig mer sofistikerte AI-systemene gj\u00f8r at grensene mellom mennesker og maskiner viskes ut - er AI-teknologien adskilt fra oss selv?","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","width":1000,"height":527,"caption":"AI bias"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Unmasking the deep-seated biases in AI systems"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/3343","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=3343"}],"version-history":[{"count":19,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/3343\/revisions"}],"predecessor-version":[{"id":3369,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/3343\/revisions\/3369"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/3347"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=3343"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=3343"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=3343"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}