DAI#57 - Vanskelig AI, eksamensudfordring og konspirationskure

20. september 2024

Velkommen til denne uges oversigt over AI-nyheder lavet af mennesker, for mennesker.

I denne uge fortalte OpenAI os, at de er ret sikre på, at o1 er ret sikker.

Microsoft gav Copilot et stort løft.

Og en chatbot kan kurere din tro på konspirationsteorier.

Lad os se nærmere på det.

Det er ret sikkert

Vi blev grebet af begejstringen over OpenAI's lancering af sine o1-modeller i sidste uge, indtil vi læste det med småt. Modellens systemkort giver et interessant indblik i de sikkerhedstests, OpenAI foretog, og resultaterne kan få nogle til at løfte øjenbrynene.

Det viser sig, at o1 er smartere, men også mere vildledende med et "medium" fareniveau ifølge OpenAI's vurderingssystem.

På trods af at o1 var meget lusket under testningen, siger OpenAI og dets red teamers, at de er ret sikre på, at den er sikker nok til at blive frigivet. Ikke så sikkert, hvis du er programmør og leder efter et job.

Opgraderinger af andenpilot

Microsoft sluppet løs Copilot "Bølge 2" som vil give din produktivitet og indholdsproduktion et ekstra AI-boost. Hvis du var i tvivl om Copilots anvendelighed, kan disse nye funktioner være den afgørende faktor.

Pages-funktionen og de nye Excel-integrationer er virkelig seje. Den måde, Copilot får adgang til dine data på, rejser dog nogle spørgsmål om privatlivets fred.

Flere jordbær

Hvis al den nylige snak om OpenAI's Strawberry-projekt har givet dig lyst til bær, så er du heldig.

Forskere har udviklet et AI-system, der lover at Forvandl den måde, vi dyrker jordbær på og andre landbrugsprodukter.

Denne open source-applikation kan få stor indflydelse på madspild, høstudbytte og endda den pris, du betaler for frisk frugt og grønt i butikken.

For let

AI-modeller bliver nu så smarte, at vores benchmarks til at måle dem næsten er forældede. Scale AI og CAIS lancerede et projekt kaldet Menneskehedens sidste eksamen for at løse dette.

De vil have dig til at indsende svære spørgsmål, som du tror, kan få førende AI-modeller til at gå i stå. Hvis en AI kan besvare spørgsmål på ph.d.-niveau, får vi en fornemmelse af, hvor tæt vi er på at opnå AI-systemer på ekspertniveau.

Hvis du synes, du har et godt bud, kan du vinde en del af $500.000. Det skal dog være rigtig hårdt.

Kilde: X

Hærdning af konspirationer

Jeg elsker en god konspirationsteori, men nogle af de ting, folk tror på, er bare skøre. Har du prøvet at overbevise en fladjording med simple fakta og ræsonnementer? Det virker ikke. Men hvad nu, hvis vi lod en AI-chatbot prøve?

Forskere byggede en chatbot ved hjælp af GPT-4 Turbo, og de havde imponerende resultater i At få folk til at ændre mening om konspirationsteorierne de troede på.

Det rejser nogle akavede spørgsmål om, hvor overbevisende AI-modeller er, og hvem der bestemmer, hvad 'sandhed' er.

Bare fordi du er paranoid, betyder det ikke, at de ikke er efter dig.

Hold hovedet koldt

Er det en del af din backup-plan at få din krop nedfrosset kryogenisk? I så fald vil du blive glad for at høre, at kunstig intelligens gør denne skøre idé lidt mere plausibel.

Et firma ved navn Select AI brugte AI skal fremskynde opdagelsen af kryobeskyttende stoffer. Disse forbindelser forhindrer organisk materiale i at blive til krystaller under fryseprocessen.

Indtil videre er anvendelsen til bedre transport og opbevaring af blod eller temperaturfølsom medicin. Men hvis AI hjælper dem med at finde et virkelig godt kryobeskyttende middel, kan kryogenisk konservering af mennesker gå fra at være en pengemaskine til at være en plausibel mulighed.

AI bidrager til det medicinske område på andre måder, som måske gør dig lidt nervøs. Ny forskning viser, at en overraskende mange læger henvender sig til ChatGPT for at få hjælp til at diagnosticere patienter. Er det en god ting?

Hvis du er begejstret for, hvad der sker inden for medicin, og overvejer en karriere som læge, bør du måske genoverveje det ifølge denne professor.

Andre nyheder...

Her er nogle andre klikværdige AI-historier, som vi nød i denne uge:

Og så er det slut.

Det er ikke overraskende, at AI-modeller som o1 udgør en større risiko, efterhånden som de bliver klogere, men snigeriet under testen var underligt. Tror du, at OpenAI vil holde sig til sine selvpålagte begrænsninger af sikkerhedsniveauet?

Projektet Humanity's Last Exam var en øjenåbner. Mennesker kæmper for at finde spørgsmål, der er svære nok til, at AI kan løse dem. Hvad sker der derefter?

Hvis du tror på konspirationsteorier, tror du så, at en AI-chatbot kan få dig til at ændre mening? Amazon Echo lytter altid, regeringen bruger big tech til at udspionere os, og Mark Zuckerberg er en robot. Bevis, at jeg tager fejl.

Lad os vide, hvad du synes, Følg os på Xog send os links til seje AI-ting, som vi måske har overset.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

Ingen kategorier fundet.
×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser