DAI#57 - Vanskelig AI, eksamensutfordringer og konspirasjonskurer

20. september 2024

Velkommen til ukens oppsummering av AI-nyheter laget av mennesker, for mennesker.

Denne uken fortalte OpenAI oss at de er ganske sikre på at o1 er ganske trygt.

Microsoft ga Copilot et stort løft.

Og en chatbot kan kurere din tro på konspirasjonsteorier.

La oss grave oss ned i det.

Det er ganske trygt

Vi ble revet med av begeistringen da OpenAI lanserte sine o1-modeller i forrige uke, helt til vi leste det som sto med liten skrift. Modellens systemkort gir et interessant innblikk i sikkerhetstestene OpenAI har utført, og resultatene kan få noen til å heve øyenbrynene.

Det viser seg at o1 er smartere, men også mer villedende med et "middels" farenivå i henhold til OpenAIs rangeringssystem.

Til tross for at o1 var svært snikende under testingen, sier OpenAI og red team-folkene at de er ganske sikre på at det er trygt nok til å lanseres. Ikke så trygt hvis du er en programmerer på utkikk etter jobb.

Oppgraderinger av andrepiloten

Microsoft sluppet løs Copilot "Bølge 2" som vil gi produktiviteten og innholdsproduksjonen din et ekstra AI-løft. Hvis du var usikker på hvor nyttig Copilot er, kan disse nye funksjonene være avgjørende.

Pages-funksjonen og de nye Excel-integrasjonene er veldig kule. Måten Copilot får tilgang til dataene dine på, reiser imidlertid noen spørsmål om personvern.

Flere jordbær

Hvis du har fått lyst på bær etter alt snakket om OpenAIs Strawberry-prosjekt i det siste, har du flaks.

Forskere har utviklet et AI-system som lover å endre måten vi dyrker jordbær på og andre landbruksprodukter.

Denne applikasjonen med åpen kildekode kan ha stor innvirkning på matsvinn, avlinger og til og med prisen du betaler for fersk frukt og grønnsaker i butikken.

For lett

AI-modeller begynner å bli så smarte at referansene vi bruker for å måle dem, er i ferd med å bli foreldet. Scale AI og CAIS lanserte et prosjekt kalt Menneskehetens siste eksamen for å fikse dette.

De vil at du skal sende inn vanskelige spørsmål som du tror kan overliste ledende AI-modeller. Hvis en kunstig intelligens kan svare på spørsmål på doktorgradsnivå, får vi en pekepinn på hvor nær vi er å oppnå AI-systemer på ekspertnivå.

Hvis du tror du har en god en, kan du vinne en andel av $500 000. Men det må være veldig tøft.

Kilde: X

Å kurere konspirasjoner

Jeg elsker en god konspirasjonsteori, men noen av de tingene folk tror på, er helt sprø. Har du prøvd å overbevise en flatjording med enkle fakta og resonnementer? Det fungerer ikke. Men hva om vi lar en AI-chatbot prøve seg?

Forskerne bygget en chatbot ved hjelp av GPT-4 Turbo, og de oppnådde imponerende resultater i å få folk til å endre mening om konspirasjonsteoriene de trodde på.

Det reiser noen vanskelige spørsmål om hvor overbevisende AI-modeller er, og hvem som bestemmer hva som er "sannhet".

Selv om du er paranoid, betyr ikke det at de ikke er ute etter deg.

Hold deg rolig

Er det å fryse ned kroppen din en del av backup-planen din? I så fall vil du bli glad for å høre at kunstig intelligens gjør denne sprø ideen litt mer plausibel.

Et selskap ved navn Select AI brukte AI skal få fart på oppdagelsen av kryobeskyttende stoffer. Disse forbindelsene hindrer organisk materiale i å bli til krystaller under fryseprosessen.

Foreløpig er det snakk om bedre transport og lagring av blod eller temperaturfølsomme medisiner. Men hvis kunstig intelligens hjelper dem med å finne et virkelig godt kryoprotektivt middel, kan kryogenisk konservering av mennesker gå fra å være en pengemaskin til å bli et sannsynlig alternativ.

AI bidrar til det medisinske feltet på andre måter som kanskje gjør deg litt nervøs. Ny forskning viser at en overraskende mange leger vender seg til ChatGPT for å få hjelp til å diagnostisere pasienter. Er det en god ting?

Hvis du er begeistret for det som skjer innen medisin og vurderer en karriere som lege, bør du kanskje revurdere det, ifølge denne professoren.

Andre nyheter...

Her er noen andre klikkverdige AI-historier vi likte denne uken:

Og det var alt.

Det er ikke overraskende at AI-modeller som o1 utgjør en større risiko etter hvert som de blir smartere, men snikingen under testingen var merkelig. Tror du OpenAI vil holde seg til sine selvpålagte sikkerhetsnivåbegrensninger?

Prosjektet Humanity's Last Exam var en øyeåpner. Mennesker sliter med å finne spørsmål som er tøffe nok til at kunstig intelligens kan løse dem. Hva skjer etter det?

Hvis du tror på konspirasjonsteorier, tror du at en AI-chatbot kan få deg på andre tanker? Amazon Echo lytter alltid, myndighetene bruker big tech til å spionere på oss, og Mark Zuckerberg er en robot. Bevis at jeg tar feil.

La oss få vite hva du synes, følg oss på Xog send oss lenker til kule AI-ting vi kanskje har gått glipp av.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

Ingen kategorier funnet.
×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser