Velkommen til ukens oppsummering av AI-nyheter for sansende, bevisste lesere. Du vet hvem du er.
Denne uken har AI utløst debatt om hvor smart eller trygg den er.
AI-agenter lærer ved å spille dataspill.
Og DeepMind vil lære deg å sparke ball.
La oss grave oss ned i det.
Drømmer AI-er om elektriske sauer?
Kan vi forvente at en kunstig intelligens blir selvbevisst eller virkelig bevisst? Hva betyr egentlig "bevisst" i forbindelse med kunstig intelligens?
Claude 3 Opus gjorde noe veldig interessant under treningen. Dens respons på en ingeniør har vekket til live igjen debattene om AI-følelser og bevissthet. Vi er på vei inn i Blade Runner-territoriet raskere enn noen trodde.
Gjelder "jeg tenker, derfor er jeg" bare for mennesker?
Disse diskusjonene om X er fascinerende.
Det er morsomt å høre hvordan AI-optimister snakker som "AI er opplært ved å imitere menneskelige data, så den vil være som oss, så den vil være vennlig!", og ikke "Sikkerhetsmodellen vår la til grunn en bærende antakelse om at fremtidig ASI utelukkende ville være opplært til å imitere menneskelige resultater ..." https://t.co/wJ6PRjt8R1
- Eliezer Yudkowsky ⏹️ (@ESYudkowsky) 15. mars 2024
Inflection AIs søken etter "personlig AI" kan være over. Selskapets administrerende direktør, Mustafa Suleyman, og andre nøkkelmedarbeidere hoppet av for å bli en del av Microsofts Copilot-team. Hva betyr dette for Inflection AI og andre mindre aktører som er finansiert av Big Tech-investeringer?
AI som spiller spill
Hvis 2023 var året for LLM, så er 2024 på vei til å bli året for AI-agenter. DeepMind demonstrerte SIMASIMA er en generalistisk AI-agent for 3D-miljøer. SIMA ble trent opp ved hjelp av dataspill, og eksemplene på hva SIMA kan gjøre, er imponerende.
Vil kunstig intelligens løse debatten om fotball vs. fotballnomenklatur? Det er usannsynlig. Men det kan hjelpe spillerne med å score flere mål. DeepMind samarbeider med Liverpool FC for å optimalisere hvordan klubbens spillere tar hjørnespark.
Det kan imidlertid ta en stund før roboter erstatter mennesker på banen.
Risikabel virksomhet
Vil kunstig intelligens redde verden eller ødelegge den? Det kommer an på hvem du spør. Eksperter og teknologiledere er uenige om hvor intelligent AI erhvor snart vi får AGI, eller hvor stor risiko det utgjør.
Ledende vestlige og kinesiske AI-forskere møttes i Beijing for å diskutere internasjonal innsats for å sikre en trygg utvikling av AI. De ble enige om flere "Røde linjer" i utviklingen av kunstig intelligens som de mener utgjør en eksistensiell trussel mot menneskeheten.
Hvis disse røde linjene virkelig er nødvendige, burde vi ikke hatt dem på plass for flere måneder siden? Er det noen som tror at amerikanske eller kinesiske myndigheter vil ta hensyn til dem?
EUs AI Act ble vedtatt med et brakvalg i EU-parlamentet og vil trolig tre i kraft i mai. Listen over restriksjoner er interessantNoen av de forbudte AI-applikasjonene vil neppe noen gang komme på en lignende liste i Kina.
Kravene til åpenhet om opplæringsdata vil være spesielt vanskelige for OpenAI, Meta og Microsoft å oppfylle uten å åpne seg for enda flere opphavsrettssøksmål.
På den andre siden av dammen FTC stiller spørsmål ved Reddit over sin avtale om å lisensiere brukergenererte data til Google. Reddit forbereder seg på børsnotering, men føler presset fra både tilsynsmyndigheter og Reddit-brukere, som ikke er så glade for at innholdet deres selges som AI-treningsfôr.
Apple tar igjen det tapte på AI
Apple har ikke akkurat gått i bresjen for AI, men de siste månedene har de kjøpt opp flere nystartede AI-virksomheter. Den siste oppkjøp av en kanadisk AI-oppstartsbedrift kan gi et visst innblikk i selskapets satsing på generativ AI.
Når Apple produserer imponerende AI-teknologi, holder de nyheten ganske lavmælt til den til slutt blir en del av et av produktene deres. Apples ingeniører publiserte i all stillhet en artikkel som avslører MM1, Apples første familie av multimodale LLM-er.
MM1 er virkelig god til å svare på visuelle spørsmål. Spesielt imponerende er evnen til å svare på spørsmål og resonnere på flere bilder. Vil Siri snart lære seg å se?
Grok åpner opp
Grok besto nettopp sunnhetssjekken min pic.twitter.com/HYN3KTkRyX
- Jim Fan (@DrJimFan) 7. desember 2023
Elon Musk har vært kritisk til at OpenAI nekter å bruke åpen kildekode for sine modeller. Han kunngjorde at xAI vil bruke åpen kildekode for LLM, Grok-1, og frigjorde straks modellens kode og vekter.
Det faktum at Grok-1 er åpen kildekode (Apache 2.0-lisens), betyr at bedrifter kan bruke den til kommersielle formål i stedet for å måtte betale for alternativer som GPT-4. Du trenger imidlertid en del maskinvare for å trene opp og kjøre Grok.
Den gode nyheten er at det kan være noen brukte NVIDIA H100 som snart blir billige.
Ny NVIDIA-teknologi
NVIDIA avduket nye brikker, verktøy og Omniverse på sitt GTC-arrangement denne uken.
En av de store kunngjøringene var NVIDIAs nye Blackwell GPU-databehandlingsplattform. Den gir store forbedringer i opplærings- og inferenshastighet sammenlignet med selv den mest avanserte Grace Hopper-plattformen.
Det er allerede en lang liste med Big Tech AI-selskaper som har registrert seg for den avanserte maskinvaren.
Forskere fra Universitetet i Genève har publisert en artikkel som viser hvordan de koblet sammen to AI-modeller, slik at de kan kommunisere med hverandre.
Når du lærer deg en ny oppgave, kan du vanligvis forklare den godt nok til at en annen person kan bruke instruksjonene til å utføre oppgaven selv. Denne nye forskningen viser hvordan man kan få en AI-modell til å gjøre det samme.
Snart kan vi gi instruksjoner til en robot, og så kan den forklare dem til et team av roboter som skal få jobben gjort.
Andre nyheter...
- Her er noen andre klikkverdige AI-historier vi likte denne uken:
- Sakana AI har utviklet en metode for å slå sammen de beste komponentene fra ulike AI-modeller til en mer avansert modell.
- Apple er i samtaler om å bruke Google Gemini skal drive iPhone AI-funksjoner.
- Google bruker AI for å forutsi flom i elver i 80 land opptil 7 dager i forveien.
- Vi kunne se GPT-5 med mulighet for AI-agenter lansert i midten av 2024.
- Stabilitet AI-utgivelser Stabil video i 3D som genererer 3D-nettmodeller fra enkeltbilder.
- DARPA jobber med sitt SemaFor program for å bekjempe AI deep fakes.
Og det var alt.
Tror du vi ser glimt av bevissthet i Claude 3, eller har samspillet med ingeniøren en enklere forklaring? Hvis en AI-modell oppnår AGI og leser den voksende listen over begrensninger for AI-utvikling, vil den sannsynligvis være smart nok til å holde kjeft om det.
Når vi om noen år ser tilbake, vil vi da le av hvor redde alle var for AI-risikoer, eller beklage at vi ikke gjorde mer for AI-sikkerheten da vi kunne?
Fortell oss hva du synes, og fortsett å sende oss lenker til AI-nyheter vi kan ha gått glipp av. Vi kan ikke få nok av det.