Velkommen til vår ukentlige oppsummering av nyheter om menneskeskapte AI-er.
Denne uken begynte AI å skrive vitser og avsløre løgner.
En kinesisk sanntidsmodell slo GPT-4o.
Og OpenAI åpnet seg når det burde ha lukket seg.
La oss grave oss ned i det.
OpenAI hacket
OpenAI har blitt kritisert for å være veldig lukket, til tross for navnet sitt. Denne uken fikk vi vite at selskapets servere var vidåpne av helt feil grunner.
OpenAI ble utsatt for et datainnbrudd da en hacker brøt seg inn i forsvaret. Etter hvert som det globale kappløpet om kunstig intelligens skyter fart, vil vi sannsynligvis se flere forsøk som dette.
Microsoft er OpenAIs største investor, men denne uken kom det overraskende trakk seg fra sin observatørrolle på OpenAI's styre og Apple takket også nei til en plass ved bordet.
Microsoft sier at dette er en naturlig utvikling av forholdet til OpenAI, men kan det være noe annet som foregår her?
Vi venter fortsatt på at GPT-4os stemmeassistent skal gå fra demo til offentlig tilgjengelig produkt. Mens OpenAI vrir hendene og snakker om sikkerhetsproblemer, har det franske AI-laboratoriet Kyutai lanserte sin AI stemmeassistent Moshi.
Det er buggy og demoen hadde en haug med feil, men i det minste er Moshi der ute for folk å bruke.
Ditt trekk, Sam. Kling er allerede i ferd med å drepe den, så du kan like gjerne slippe Sora også mens du er i gang.
Definitivt skapt ved hjelp av en AI, men jeg vet ikke hvilken. Sannsynligvis Kling. pic.twitter.com/1SNW9WslJi
- AshutoshShrivastava (@ai_for_success) 11. juli 2024
Du må spøke
Kan kunstig intelligens være morsom? En ny studie sammenligner vitser skrevet av mennesker med vitser skrevet av GPT-3.5.
De sammenlignet også satiriske overskrifter skrevet av profesjonelle komedieskribenter hos The Onion med overskrifter skrevet av kunstig intelligens. Gjett hvem som ble vurdert som morsomst i en blindtest.
Hvis det fantes et apparat som kunne fortelle deg når noen løy, ville du brukt det? Forskere har laget en AI-løgndetektor som er mye bedre til å oppdage løgner enn mennesker er.
Det høres ut som en god idé, helt til man ser hvor samfunnsomveltende denne teknologien kan være.
Nye modeller
Kan en liten AI-modell slå GPT-4? Salesforce har utfordret trendene innen kunstig intelligens med små, men mektige xLAM-1B- og 7B-modeller.
Agentisk AI må omdanne brukernes naturlige språkforespørsler til spesifikke API- eller funksjonsanrop. Disse små modellene er hundrevis av ganger mindre enn GPT-4 og Gemini 1.5 Pro, men utkonkurrerer dem på Berkeley Function-Calling Leaderboard.
Det kinesiske teknologiselskapet SenseTime lanserte sin multimodal SenseNova 5.5-modell og sa at den utkonkurrerer GPT-4o. Den interaktive sanntidsversjonen av modellen viste den samme stemmefunksjonaliteten som vi så i GPT-4o-demoen, om enn på mandarin.
SenseTime og andre kinesiske AI-selskaper deler nå ut gratis API-tokens for å lokke til seg nye kunder, ettersom OpenAI stenger API-tilgangen i Kina.
Anthropic imponerte oss med Claude Sonnet 3.5 i forrige måned, og plattformen har nettopp fått enda en oppgradering. Anthropic-konsollen og Claude har fått noen spennende nye prompt- og artefaktfunksjoner.
AI dårlig oppførsel
Den samarbeidende webdesign-appen Figma gjorde en rask helomvending da administrerende direktør la ned AI Make Design-funksjonen.
App-designeren skaper polert design, men noen brukere sa at de ser mistenkelig kjent ut. Hvor har jeg sett det appdesignet før ....?
Hvis voksne ikke kan finne ut hvordan man skaper og bruker kunstig intelligens på en etisk forsvarlig måte, bør vi da bli overrasket når barn gjør feil?
En spansk domstol avsa dommer mot 15 barn for å ha skapt AI-generert eksplisitt materiale. Det er lett å skylde på barna, men situasjonen belyser hvordan AIs innvirkning på barn i stor grad har blitt ignorert.
Og denne typen forskning er ikke akkurat tillitvekkende.
https://t.co/vki4nKLPKb pic.twitter.com/zSA8dysuK2
- ControlAI (@ai_ctrl) 8. juli 2024
Dr. AI
Er det mulig å si om en person sannsynligvis vil utvikle Alzheimers i løpet av de neste seks årene? Et nytt AI-system kan med hell forutsi tidlig utbrudd av Alzheimers sykdom ved hjelp av taleanalyse.
Nøyaktigheten av prediksjonen slår tradisjonelle og ikke-invasive tester og kan føre til at pasienter får tidligere behandling.
I et medisinsk gjennombrudd brukte forskere AI for å identifisere legemiddelresistente infeksjoner som tyfus før man prøver å behandle dem med antibiotika.
AI-systemets hastighet og nøyaktighet gjør at legene kan stille diagnoser raskere, slik at de raskere kan skrive ut de mest effektive antibiotikaene. Dette kan være et stort løft for å redusere spredningen av resistente bakterier.
Andre nyheter...
Her er noen andre klikkverdige AI-historier vi likte denne uken:
- Microsoft lanserer sitt avanserte nullskudd tekst-til-tale-syntesemodell kalt VALL-E-2 men sier at det er for farlig å slippe ut.
- Forskere testet om AI-modeller er selvbevisste og om de vet når de er utplassert eller blir testet.
- Shanghai publiserer første retningslinjer for humanoide roboter for å ivareta menneskelig verdighet og sikkerhet.
- Agentisk AI: Hva er dagens status og hva er det neste som skal til for å gjøre AI-agenter virkelig nyttige?
- Wimbledons AI-genererte historier og analyseverktøy "Catch Me Up" fortsetter å ta feil av tennisfakta.
- Forlatte kjernekraftanlegg som Three Mile Island kan bli satt i drift igjen for å dekke AI-behov.
Og det var alt.
OpenAI har vært veldig stille, selv om andre AI-modeller er i hælene på GPT-4o. Vi krysser fingrene for at vi får noen andre OpenAI-nyheter neste uke enn søksmål og hacking.
Tror du AI noen gang vil forstå humor? Å skrive en vits er én ting, men jeg er ikke sikker på at en algoritme noen gang vil kunne skape den neste Seinfeld eller Fawlty Towers.
La oss håpe at AI-ingeniørene fokuserer modellene sine på enklere oppgaver som å kurere kreft og frigjøre energi inntil videre.
La oss få vite hva du synes, del dine AI-forsøk på humor med oss på Xog fortsett å sende oss AI-nyhetslink.