Välkommen till vår veckovisa sammanställning av nyheter om AI som byggts upp av människor.
Den här veckan började AI med att skriva skämt och upptäcka skitsnack.
En kinesisk realtidsmodell slog GPT-4o.
Och OpenAI öppnade upp när det borde ha stängt.
Låt oss gräva i det.
OpenAI hackat
OpenAI har kritiserats för att vara mycket stängt, trots sitt namn. Den här veckan fick vi veta att företagets servrar var vidöppna av helt fel skäl.
OpenAI drabbades av ett dataintrång som en hackare bröt sig in i dess försvar. I takt med att den globala kapplöpningen om AI intensifieras kommer vi sannolikt att få se fler försök av det här slaget.
Microsoft är OpenAI:s största investerare, men den här veckan överraskade drog sig tillbaka från sin observatörsroll på OpenAIstyrelse och Apple har också tackat nej till en plats vid bordet.
Microsoft säger att det här är en naturlig utveckling av relationen med OpenAI, men kan det vara något annat som pågår här?
Vi väntar fortfarande på att GPT-4o:s röstassistent ska gå från demo till offentligt tillgänglig produkt. Medan OpenAI vrider sina händer och pratar om säkerhetsfrågor, franska AI-laboratoriet Kyutai släppte sin AI-röstassistent Moshi.
Det är buggigt och demon hade en massa glitches, men åtminstone Moshi finns där ute för människor att använda.
Ditt drag, Sam. Kling dödar den redan, så du kan lika gärna släppa Sora också när du ändå håller på.
Definitivt skapad med hjälp av någon AI, men jag vet inte vilken. Förmodligen Kling. pic.twitter.com/1SNW9WslJi
- AshutoshShrivastava (@ai_for_success) 11 juli 2024
Du måste skämta
Kan AI vara rolig? I en ny studie jämfördes skämt som skrivits av människor med skämt som skrivits av GPT-3.5.
De jämförde också satiriska rubriker som skrivits av professionella komediskribenter på The Onion med rubriker som skrivits av AI. Gissa vilka skämt som bedömdes som roligast i ett blindtest.
Om det fanns en apparat som berättade när någon ljög, skulle du använda den? Forskare har gjort en AI-lögndetektor som är mycket bättre på att upptäcka lögner än vad människor är.
Det låter som en bra idé tills man inser hur socialt omvälvande den här tekniken kan vara.
Nya modeller
Kan en pytteliten AI-modell slå GPT-4? Salesforce har utmanat trender inom AI med små men mäktiga modeller xLAM-1B och 7B.
Agentisk AI måste omvandla användarnas förfrågningar på naturligt språk till specifika API- eller funktionsanrop. Dessa små modeller är hundratals gånger mindre än GPT-4 och Gemini 1.5 Pro men överträffar dem på Berkeley Function-Calling Leaderboard.
Det kinesiska teknikföretaget SenseTime släppte sin multimodal SenseNova 5.5-modell och sa att den överträffar GPT-4o. Den interaktiva realtidsversionen av modellen visade samma röstfunktionalitet som vi såg i GPT-4o-demonstrationen, om än på mandarin.
SenseTime och andra kinesiska AI-företag delar nu ut gratis API-tokens för att locka nya kunder när OpenAI stänger API-åtkomsten i Kina.
Anthropic imponerade på oss med Claude Sonnet 3.5 förra månaden och dess plattform har just fått ytterligare en uppgradering. Anthropic-konsolen och Claude fick några spännande nya funktioner för prompt och artefakter.
AI dåligt beteende
Den kollaborativa webbdesignappen Figma gjorde en snabb vändning när VD stängde av sin AI Make Design-funktion.
Appdesignern skapar snygga designer men vissa användare sa att de ser misstänkt bekanta ut. Var har jag sett den appdesignen tidigare....?
Om vuxna inte kan räkna ut hur man skapar och använder AI på ett etiskt sätt, ska vi då bli förvånade när barn gör fel?
En spansk domstol dömde 15 barn till fängelsestraff för att ha skapat AI-genererat explicit material. Det är lätt att skylla på barnen, men situationen belyser hur AI:s påverkan på barn till stor del har ignorerats.
Och den här typen av forskning är inte direkt förtroendeingivande.
https://t.co/vki4nKLPKb pic.twitter.com/zSA8dysuK2
- ControlAI (@ai_ctrl) 8 juli 2024
Dr. AI
Är det möjligt att avgöra om en person riskerar att utveckla Alzheimers sjukdom inom de närmaste 6 åren? Ett nytt AI-system kan framgångsrikt Förutse tidig debut av Alzheimers sjukdom med hjälp av talanalys.
Precisionen i förutsägelsen slår traditionella och icke-invasiva tester och kan leda till att patienter får tidigare behandling.
I ett medicinskt genombrott använde forskare AI för att identifiera läkemedelsresistenta infektioner som tyfus innan man försöker behandla dem med antibiotika.
AI-systemets snabbhet och noggrannhet gör det möjligt för läkare att ställa snabbare diagnoser så att de snabbare kan skriva ut de mest effektiva antibiotikapreparaten. Detta skulle kunna vara ett stort lyft för att minska spridningen av läkemedelsresistenta bakterier.
Andra nyheter...
Här är några andra klickvärda AI-berättelser som vi gillade den här veckan:
- Microsoft visar upp sitt avancerade noll-skott text-till-tal-syntesmodell kallad VALL-E-2 men säger att det är för farligt att släppa ut.
- Forskare testat om AI-modeller är självmedvetna och om de vet när de är utplacerade eller testas.
- Shanghai ger ut tidningen riktlinjer för den första humanoida roboten att värna om mänsklig värdighet och säkerhet.
- Agentisk AI: Vad är den aktuella statusen och Vad krävs härnäst för att AI-agenter ska bli verkligt användbara?
- Wimbledons AI-genererade berättelser och analysverktyg "Catch Me Up" fortsätter att få sina tennisfakta fel.
- Övergivna kärnkraftsanläggningar som Three Mile Island kan komma att åter tas i drift för att driva AI-behov.
Och det var allt.
OpenAI har varit väldigt tyst även om andra AI-modeller är heta på sina GPT-4o-hälar. Fingrarna korsade att vi kommer att ha några OpenAI-nyheter nästa vecka andra än stämningar och hack.
Tror du att AI någonsin kommer att kunna hantera humor? Att skriva ett skämt är en sak, men jag är inte säker på att en algoritm någonsin kan skapa nästa Seinfeld eller Fawlty Towers.
Låt oss hoppas att AI-ingenjörerna fokuserar sina modeller på enklare uppgifter som att bota cancer och gratis energi för tillfället.
Låt oss veta vad du tycker, dela med dig av dina AI-försök till humor med oss på Xoch fortsätt att skicka oss dessa AI-nyhetslänkar.