Velkommen til denne uges opsamling af AI-nyheder til sansende, bevidste læsere. Du ved, hvem du er.
I denne uge skabte AI debat om, hvor smart eller sikker den er.
AI-agenter lærer ved at spille computerspil.
Og DeepMind vil gerne lære dig at sparke til en bold.
Lad os se nærmere på det.
Drømmer AI'er om elektriske får?
Kan vi forvente, at en AI bliver selvbevidst eller virkelig bevidst? Hvad betyder "bevidst" overhovedet i forbindelse med AI?
Claude 3 Opus gjorde noget virkelig interessant under træningen. Dens reaktion på en ingeniør har Genoplivede debatter om AI-følsomhed og bevidsthed. Vi er på vej ind i Blade Runner-territoriet hurtigere, end nogle troede.
Gælder "Jeg tænker, derfor er jeg" kun for mennesker?
Disse diskussioner om X er fascinerende.
Det er sjovt, hvordan AI-optimister taler som "AI trænes ved at efterligne menneskelige data, så den bliver som os, så den bliver venlig!", og ikke "Vores sikkerhedsmodel lavede en bærende antagelse om, at fremtidig ASI udelukkende ville blive trænet til at efterligne menneskelige outputs ...". https://t.co/wJ6PRjt8R1
- Eliezer Yudkowsky ⏹️ (@ESYudkowsky) 15. marts 2024
Inflection AI's søgen efter "personlig AI" er måske forbi. Virksomhedens CEO, Mustafa Suleyman, og andre nøglemedarbejdere sprang fra for at slutte sig til Microsofts Copilot-team. Hvad betyder det for Inflection AI og andre mindre aktører, der er finansieret af Big Tech-investeringer?
AI spiller spil
Hvis 2023 var året for LLM, så er 2024 på vej til at blive året for AI-agenter. DeepMind demonstrerede SIMAen generalistisk AI-agent til 3D-miljøer. SIMA blev trænet ved hjælp af computerspil, og eksemplerne på, hvad SIMA kan gøre, er imponerende.
Vil AI løse nomenklaturdebatten mellem fodbold og fodbold? Det er usandsynligt. Men det kan hjælpe spillerne med at score flere mål. DeepMind samarbejder med Liverpool FC for at optimere, hvordan klubbens spillere tager hjørner.
Der kan dog gå et stykke tid, før robotter erstatter mennesker på banen.
Risikabel forretning
Vil AI redde verden eller ødelægge den? Det afhænger af, hvem du spørger. Eksperter og teknologiledere kan ikke blive enige om, hvor intelligent AI erhvor hurtigt vi får AGI, eller hvor stor en risiko det udgør.
Førende vestlige og kinesiske AI-forskere mødtes i Beijing for at diskutere den internationale indsats for at sikre en sikker udvikling af AI. De blev enige om flere AI-udviklingens 'røde linjer' som de mener udgør en eksistentiel trussel mod menneskeheden.
Hvis disse røde linjer virkelig er nødvendige, burde vi så ikke have haft dem på plads for flere måneder siden? Er der nogen, der tror, at den amerikanske eller kinesiske regering vil tage hensyn til dem?
EU's AI Act blev vedtaget med et jordskredsresultat i Europa-Parlamentet og vil sandsynligvis træde i kraft i maj. Listen over restriktioner er interessantDet er usandsynligt, at nogle af de forbudte AI-applikationer nogensinde kommer på en lignende liste i Kina.
Kravene om gennemsigtighed i træningsdata vil være særligt vanskelige for OpenAI, Meta og Microsoft at opfylde uden at åbne op for endnu flere retssager om ophavsret.
På den anden side af dammen er FTC sætter spørgsmålstegn ved Reddit over sin aftale om at licensere brugergenererede data til Google. Reddit forbereder sin børsnotering, men mærker presset fra både myndigheder og Reddit-brugere, som ikke er så glade for at få deres indhold solgt som AI-træningsfoder.
Apple leger AI-indhentning
Apple har ikke ligefrem banet vejen for AI, men de har opkøbt flere AI-startups i løbet af de sidste par måneder. Dens seneste opkøb af en canadisk AI-startup kan give et indblik i virksomhedens satsning på generativ AI.
Når Apple producerer imponerende AI-teknologi, holder de nyheden temmelig lavmælt, indtil den til sidst bliver en del af et af deres produkter. Apples ingeniører har i al stilhed udgivet et dokument, der afslører MM1, Apples første familie af multimodale LLM'er.
MM1 er virkelig god til at besvare visuelle spørgsmål. Dens evne til at besvare forespørgsler og ræsonnere ud fra flere billeder er særligt imponerende. Vil Siri snart lære at se?
Grok åbner op
Grok har lige bestået mit fornuftstjek pic.twitter.com/HYN3KTkRyX
- Jim Fan (@DrJimFan) 7. december 2023
Elon Musk har været kritisk over for OpenAI's afvisning af at bruge open source på sine modeller. Han meddelte, at xAI vil open source sin LLMGrok-1, og frigav straks modellens kode og vægte.
Det faktum, at Grok-1 er ægte open source (Apache 2.0-licens), betyder, at virksomheder kan bruge den til kommercielle formål i stedet for at skulle betale for alternativer som GPT-4. Du skal dog bruge noget seriøst hardware for at træne og køre Grok.
Den gode nyhed er, at der måske snart er nogle brugte NVIDIA H100'ere, der bliver billige.
Ny NVIDIA-teknologi
NVIDIA præsenterede nye chips, værktøjer og Omniverse på sit GTC-arrangement i denne uge.
En af de store nyheder var NVIDIA's nye Blackwell GPU-computerplatform. Den giver store forbedringer i trænings- og inferenshastighed i forhold til selv den mest avancerede Grace Hopper-platform.
Der er allerede en lang liste af Big Tech AI-virksomheder, der har tilmeldt sig den avancerede hardware.
Forskere fra universitetet i Genève har udgivet en artikel, der viser, hvordan de forbandt to AI-modeller, så de kunne kommunikere med hinanden.
Når man lærer en ny opgave, kan man som regel forklare den godt nok til, at en anden person kan bruge instruktionerne til selv at udføre opgaven. Denne nye forskning viser, hvordan man kan få en AI-model til at gøre det samme.
Snart kan vi give instruktioner til en robot og få den til at forklare dem til et team af robotter, så de kan få arbejdet gjort.
Andre nyheder...
- Her er nogle andre klikværdige AI-historier, som vi nød i denne uge:
- Sakana AI har udviklet en metode til at fusionere de bedste komponenter fra forskellige AI-modeller til en mere avanceret model.
- Apple er i forhandlinger om at bruge Google Gemini giver strøm til iPhone AI-funktioner.
- Google bruger AI til at forudsige flodoversvømmelser i 80 lande op til 7 dage i forvejen.
- Vi kunne se GPT-5 med mulighed for AI-agenter lanceret i midten af 2024.
- Stabilitet AI-udgivelser Stabil video i 3D som genererer 3D-netmodeller fra enkeltbilleder.
- DARPA arbejder på sin SemaFor program til at bekæmpe AI deep fakes.
Og så er det slut.
Tror du, at vi ser glimt af bevidsthed i Claude 3, eller har interaktionen med ingeniøren en enklere forklaring? Hvis en AI-model opnår AGI og læser den voksende liste over restriktioner for AI-udvikling, vil den sandsynligvis være klog nok til at holde kæft om det.
Når vi ser tilbage om et par år, vil vi så grine af, hvor skræmte alle var over AI-risici, eller beklage, at vi ikke gjorde mere for AI-sikkerheden, da vi kunne?
Fortæl os, hvad du synes, og bliv endelig ved med at sende os links til AI-nyheder, som vi måske har overset. Vi kan ikke få nok af det.