DAI#45 - Novo modelo de topo, processos judiciais e IA confusa

28 de junho de 2024

Bem-vindo ao resumo desta semana de notícias sobre IA feitas à medida.

Esta semana, a Anthropic derrubou a OpenAI da pole position.

Os geradores de áudio de IA enfrentam a música em tribunal.

E os melhores LLMs debatem-se com um puzzle que os seus filhos conseguem resolver.

Vamos lá ver.

Cláudio vs GPT-4o

Depois de meses de modelos de IA que afirmam ser "quase tão bons como o GPT-4", temos finalmente um modelo que empurra o OpenAI do seu lugar de topo nas tabelas de classificação.

Anthropic libertado Claude Soneto 3.5O Google Gemini 1.5 Pro, uma versão actualizada do seu modelo Claude de tamanho médio. Os testes de referência MMLU mostram-no a bater o GPT-4o e o Gemini 1.5 Pro da Google em quase todos os testes.

Com um Claude Opus 3.5 ainda mais potente previsto para breve, qual será a resposta da OpenAI?

Depois de a Meta ter cancelado o lançamento do Meta AI na UE, a Apple está a fazer o mesmo devido às leis rigorosas em vigor na região.

Apple atrasou o lançamento do seu Apple Inteligência Os fãs de tecnologia da UE assistem à estreia do resto do mundo.

Parece-me familiar...

As empresas de IA estão a ser processadas e, para variar, não é a OpenAI ou a Meta.

As plataformas de texto para áudio Suno e Udio geram música impressionante, mas como é que se tornaram tão boas?

A Associação da Indústria de Gravação da América está a processar as empresasO Tribunal de Justiça de Lisboa, em Bruxelas, decidiu que a empresa "roubou gravações de som protegidas por direitos de autor" para treinar a sua IA. Quando o juiz ouvir estes exemplos de clips, o dia no tribunal poderá ser curto.

Uma empresa de IA que utiliza material protegido por direitos de autor para treinar os seus modelos sem pagar aos criadores? Estamos tão surpreendidos como tu.

Recriar música protegida por direitos de autor não é a pior coisa para que a IA está a ser utilizada. Um estudo da DeepMind diz que a principal forma de utilização indevida da IA é que os maus da fita criam falsificações profundas para manipular a opinião.

O resto da lista de utilizações incorrectas da IA constitui uma leitura interessante.

Tens a certeza de que isso está correto?

Os modelos de IA são muito bons a gerar informações muito plausíveis mas completamente erradas.

Os cientistas da IA afirmam que as alucinações não podem ser corrigidas, mas um estudo da Universidade de Oxford identificou as alturas em que é mais provável que ocorram alucinações na IA.

A "entropia semântica" verifica o nível de confiança do modelo de IA e é também a minha nova forma educada de dizer que alguém está a dizer disparates.

via GIPHY

Até os mais avançados LLMs inventam coisas quando confrontados com puzzles surpreendentemente simples. Esta semana, os utilizadores do X publicaram exemplos de como os modelos mais inteligentes não conseguem resolver um simples puzzle de travessia de um rio.

É uma prova de que os LLMs não são bons a raciocinar, ou está a acontecer algo mais?

A IA pode ter dificuldades com alguns enigmas, mas conhece-nos melhor do que pensamos. Um novo estudo descobriu que uma O sistema de IA consegue prever a sua ansiedade da forma como se reage às fotografias.

A capacidade destes modelos para inferir emoções humanas pode ser muito útil, mas também pode ser uma fonte de ansiedade humana.

Época de abertura da IA

Quando as empresas de IA utilizam a palavra "aberto" para descrever os seus modelos, raramente significa o que se pensa.

Quão "abertos" são estes modelos de IA? Sam analisou mais de perto que modelos de IA são verdadeiramente abertos e porque é que algumas empresas mantêm certos aspectos muito fechados.

Esta semana assistiu-se a um desenvolvimento empolgante no espaço dos modelos abertos. O ESM3 da EvolutionaryScale é um modelo generativo para a biologia que transforma as instruções em proteínas.

Anteriormente, os cientistas que procuravam uma nova proteína tinham de esperar que a natureza a descobrisse ou tentar uma abordagem de acerto ou erro no laboratório.

Agora, o ESM3 permite aos cientistas programar a biologia e criar proteínas para além da natureza.

Eventos de IA

Se quiser aumentar o nível dos seus esforços de marketing, consulte a Cimeira MarTech Hong Kong 2024 que terá lugar a 9 de julho.

O Instituto Acelerador de IA apresenta a Cimeira da IA generativa Austin 2024 a 10 de julho. Na ordem de trabalhos, os líderes do sector debatem as últimas tendências em aplicações de IA generativa do mundo real.

Noutras notícias...

Aqui estão algumas outras histórias de IA dignas de clique que apreciámos esta semana:

E é tudo.

Já experimentaste a versão actualizada do Claude? A janela Artefactos é muito fixe. É garantido que o ChatGPT vai ter uma funcionalidade semelhante muito em breve.

Gosto muito de jogar com o Udio e o Suno, mas é inegável que eles roubam música protegida por direitos de autor. É este o preço do progresso ou é um obstáculo?

Ainda me surpreende que os modelos de IA tenham dificuldades com um simples puzzle de travessia de um rio. Provavelmente, deveríamos corrigir isso antes de deixar a IA controlar coisas realmente importantes, como redes eléctricas ou hospitais.

Diga-nos o que pensa e continue a enviar-nos ligações para notícias e investigações interessantes sobre IA que nos possam ter escapado.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

Não foram encontradas categorias.
×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições