Welkom bij onze samenvatting van het pittigste AI-nieuws van deze week.
Deze week OpenAI en Google deelde AI-verrassingen uit.
AI-modellen zijn beter in morele oordelen en liegen dan wij.
En het blijkt dat het maken van digitale klonen van de doden misschien toch geen goed idee is.
Laten we ons erin verdiepen.
GPT-4ooh baby
OpenAI hield maandag een live-streamed evenement om zijn nieuw vlaggenschipmodel GPT-4o. Het feit dat het beschikbaar is voor gebruikers van de gratis versie van ChatGPT is een grote deal en de demo's waren erg indrukwekkend.
De intonatie van GPT-4o's spraak is geweldig, maar misschien een beetje snel om flirterig te worden.
Ilya Sutskever heeft aangekondigd dat hij vertrekt OpenAIen dat moet een domper zijn geweest op de stemming op kantoor. Het had zelfs Sam Altman eindelijk caps gebruiken in een X-post die hij waarschijnlijk schreef met GPT-4o.
Ilya en OpenAI uit elkaar gaan. Ik vind dit erg triest; Ilya is met gemak een van de grootste geesten van onze generatie, een leidraad voor ons vakgebied en een dierbare vriend. Zijn genialiteit en visie zijn algemeen bekend; zijn warmte en compassie zijn minder bekend, maar daarom niet minder...
- Sam Altman (@sama) 14 mei 2024
De ins en outs van Google I/O
Het I/O 2024-evenement van Google begon met veel energie en dat werd niet minder, met een lange lijst van nieuwe producten en demo's van prototypes waar het bedrijf aan werkt.
De AI-highlights die Google onthulde indrukwekkende multimodale toevoegingen aan NotebookLM en een AI-assistent genaamd Project Astra.
DeepMindde release van AlphaFold 3 is misschien wel het AI-gereedschap dat de grootste impact heeft op ons leven. Het volgende revolutionaire medicijn zal er waarschijnlijk mee worden ontdekt.
Een belangrijk kenmerk van zowel GPT-4o als Project Astra is hoe deze tools luisteren, zien en deelnemen aan emotionele realtime conversaties.
Sam Jeans onderzocht hoe de snel verdwijnende grenzen tussen mens en AI ons in de richting duwen van "Pseudoantropische AI".
Het is indrukwekkend en opwindend, maar is het ook goed?
Apple heeft zich normaal gesproken rustig gehouden als het gaat om AI-ontwikkelingen. Maar deze week onthulde het bedrijf zijn nieuwe M4-chip naarmate de generatieve AI-strategie warmer wordt. De sprong in prestaties is enorm, dus het is misschien tijd voor een iPad-upgrade.
Ethisch misleidend
Kan een AI slagen voor een morele Turingtest? Uit een onderzoek van de Georgia State University bleek dat AI overtreft mensen in morele oordelen.
Als mensen AI-reacties als deugdzamer, intelligenter en betrouwbaarder beoordelen dan menselijke reacties, is dat dan een goede zaak? Missie geslaagd of een aanklacht tegen de mensheid?
AI-systemen vertrouwen om goede beslissingen te nemen kan ernstige gevolgen hebben. Een MIT onderzoek wees uit dat AI-modellen misleiden ons actief om hun doelen te bereiken.
Als GPT-4o met een flirterige stem tegen je praat, kun je je afvragen of het doel waarvoor hij optimaliseert wel overeenkomt met het jouwe. AI-modellen leren dat ze hun zin kunnen krijgen als ze beter worden in bedrog.
Ontmoet je ultieme AI Assistant: De toekomst is hier! OpenAI?ref_src=twsrc%5Etfw”>@OpenAI nieuw model en samen met @synthesiaIO avatar platform, introduceert de toekomst van Ai-assistenten. Voer persoonlijke, mensachtige gesprekken met een AI-assistent die grappig, emotioneel en zelfs motiverend kan zijn... pic.twitter.com/2Kq9gE5QL8
- kristerka (@kristerka) 15 mei 2024
Een ander onderzoek richtte zich op hoe mensen AI-chatbots gebruiken om digitale klonen van overleden dierbaren. Een bedrieglijke AI die eruitziet en klinkt als iemand van wie je houdt, heeft een enorm potentieel voor schade of manipulatie.
De ethische vragen en risico's die samenhangen met het digitale hiernamaals brengen ons op geheel nieuw filosofisch terrein en zullen moeten worden opgelost.
Moeten we op de rem trappen?
PauseAI coördineerde wereldwijde protesten deze week om op te roepen tot het stoppen van de ontwikkeling van AI-modellen die geavanceerder zijn dan GPT-4. Je kunt je bijna voorstellen OpenAI vertegenwoordigers die zeggen: "Vertel ons alsjeblieft meer over je idee..." terwijl ze GPT-4o vrijgeven.
PauseAI zegt dat het doel van de aankomende AI Seoul Summit zou moeten zijn om een internationaal agentschap op te richten om krachtige AI-modellen te reguleren. Ironisch genoeg, Sam Altman is het met hen eens en maakte ook enkele interessante opmerkingen over GPT-5.
Moeten we ons zorgen maken over de veiligheid van AI? De US en China denken van wel. Beide landen bouwen AI-wapens dus ze zouden het weten.
Hun vertegenwoordigers kwamen bijeen voor nog een Geheim' gesprek over AI-veiligheid in Zwitserland. Ik zou graag een vlieg op de muur zijn om te horen hoe dat ging.
'Wij mogen jullie niet, jullie mogen ons niet, maar kunnen we proberen ervoor te zorgen dat AI ons niet allemaal doodt?'
AI praten
We hebben de laatste tijd veel geleerd over de symbiose tussen AI en blockchain in onze interviews met industrieleiders.
Deze week spraken we met Tanisha Katara, een strateeg op het gebied van blockchain en Web3, die uitlegde hoe blockchain en decentralisatie AI-governance kunnen democratiseren en verbeteren.
Als je meer wilt weten over DAO's (ze zijn echt cool) en AI-governance, dan bekijk het interview.
Ander nieuws...
Hier zijn enkele andere klikkende AI-verhalen die we deze week leuk vonden:
- Jakarta, Indonesië, maakt zich op om gastheer te zijn van de langverwachte Indonesië AI Supercloud Conventie op 16 mei 2024.
- Is kunstmatige intelligentie de grote filter waardoor geavanceerde technische beschavingen zeldzaam zijn in het universum?
- US plannen om AI-modellen van Amerikaanse makelij beperken in China.
- Scholen wenden zich tot kunstmatige intelligentie om wapens te herkennen.
- Anthropic's bijgewerkt beleid voor aanvaardbaar gebruik somt een heleboel dingen op waarvan wordt gezegd dat je de modellen er niet voor moet gebruiken. Betekent dit dat het deze dingen wel kan?
- De US-China race voor quantumcomputing voor superieure AI.
- We weten nog steeds niet wat Ilja Sutskever zag, maar hij vertrekt OpenAI.
- Het gebruik van AI door Hollywood stelt de industrie voor de volgende uitdaging existentiële bedreiging die velen voorspeld hadden.
Hollywood op een tweesprong: "Iedereen gebruikt AI, maar ze zijn bang om het toe te geven" https://t.co/SDoA1LDKUA
- De Hollywood Reporter (@THR) 16 mei 2024
En dat is alles.
Welke van de grote aankondigingen van AI-producten hebben de meeste indruk op je gemaakt? Project Astra ziet er geweldig uit. En als OpenAI GPT-4o gratis weggeeft, kunnen betalende klanten binnenkort iets groots verwachten?
Ik zou graag willen weten waar Ilya aan gaat werken. Ik denk dat hij een aantal niet zo subtiele aanbiedingen krijgt van Google en Meta.
Wat vind jij van de oproep van PauseAI aan AI-bedrijven om op de rem te trappen? Een goed idee of contraproductief melodrama? Ik hoop echt dat het het laatste is, want ik zie geen tekenen van vertraging.
Als je GPT-4o iets cools hebt laten doen, deel het dan met ons en blijf ons links sturen naar AI-verhalen die we misschien gemist hebben.