Bem-vindo ao resumo das notícias desta semana sobre a IA artesanal com destilação tripla.
Esta semana, as empresas que recolhem os seus dados gratuitamente queixaram-se de que outros os estavam a roubar.
A Big Tech está a fabricar os seus próprios chips de IA para competir com a NVIDIA.
E uma série de novos modelos de IA estão a sair das prateleiras.
Vamos lá ver.
Jogos de fome de dados de IA
A fome insaciável de dados da IA continua à medida que as empresas se esforçam por obter texto, áudio e vídeo para treinar os seus modelos.
É um segredo aberto que a OpenAI quase de certeza que extraiu conteúdo de vídeo do YouTube para treinar o seu modelo de texto para vídeo Sora. O diretor executivo do YouTube, Neal Mohan, avisou OpenAI que poderá ter violado os seus termos de serviço. Bem, boohoo. Já viram como a Sora é fixe?
É preciso pensar que a Google deve ter feito alguns cortes éticos para formar os seus modelos. O facto de o YouTube se queixar dos "direitos e expectativas" dos criadores de vídeos na sua plataforma é um pouco exagerado.
Um olhar mais atento sobre A luta das grandes tecnologias pelos dados de treino da IA revela como a Google alterou as suas políticas de privacidade do Google Docs para utilizar os seus dados. Entretanto, a OpenAI e a Meta continuam a ultrapassar os limites legais e éticos na procura de mais dados de treino.
Não tenho a certeza de onde vieram os dados para o novo gerador de música por IA Udio, mas as pessoas têm estado a dar-lhe algumas ideias interessantes. Esta é a prova de que a IA deve ser regulamentada.
Isto é uma loucura.
O Udio acabou de ser lançado e é como o Sora para a música.
A música tem uma qualidade insana, 100% AI. 🤯
1. "Dune, o musical da Broadway" pic.twitter.com/hzt7j32jIV
- Min Choi (@minchoi) 10 de abril de 2024
Batatas fritas ahoy
Todos esses dados controversos têm de ser processados e o hardware NVIDIA está a fazer a maior parte disso. Sam leva-nos a conhecer A história da NVIDIA da trapaça à riqueza desde 1993 (altura em que deveria ter comprado acções) até agora (altura em que estaria rico) e é fascinante.
Enquanto as empresas continuam a fazer fila para comprar chips NVIDIA acabados de sair do forno, a Big Tech está a tentar livrar-se dos seus chips.
A Intel e a Google revelaram novos chips de IA para competir com a NVIDIA, embora continuem a comprar o hardware Blackwell da NVIDIA.
Libertem os modelos!
É uma loucura que, há pouco mais de um ano, a OpenAI fosse o único modelo a receber alguma atenção. Agora, há um fluxo constante de novos modelos dos suspeitos habituais da Big Tech e de pequenas empresas em fase de arranque.
Esta semana vimos três modelos de IA lançados em 24 horas. O Gemini Pro 1.5 da Google tem agora uma janela de contexto de 1 milhão de tokens. Um contexto grande é ótimo, mas será que a sua recordação é tão boa como a do Claude 3?
Houve desenvolvimentos interessantes com a OpenAI, que permite o acesso da API ao GPT-4 com visão, e a Mistral acabou de oferecer outro modelo mais pequeno e potente.
O político que se tornou executivo da Meta, Nick Clegg, falou no Evento de IA da Meta em Londres para defender a IA de fonte aberta. Clegg disse ainda que a Meta espera que o Llama 3 seja lançado muito em breve.
Durante os debates sobre a desinformação da IA, desvalorizou de forma bizarra o papel da IA nas tentativas de influenciar as grandes eleições recentes.
Será que este tipo lê sequer as notícias que reportamos aqui no Daily AI?
Que questões de segurança?
Geoffrey Hinton, considerado o padrinho da IA, estava tão preocupado com a segurança da IA que se demitiu da Google. Yann LeCun, da Meta, diz que não há nada com que se preocupar. Então, qual é que é?
Um estudo da Universidade de Georgetown concluiu que apenas 2% da investigação em IA está centrada na segurança. Será porque não há nada com que nos preocuparmos? Ou devemos preocupar-nos com o facto de os investigadores estarem concentrados em criar uma IA mais potente, sem pensar muito em torná-la segura?
Será que "andar depressa e partir coisas" ainda deve ser o grito de guerra dos programadores de IA?
A trajetória do desenvolvimento da IA tem sido exponencial. Numa entrevista esta semana, Elon Musk disse que espera A IA poderá ser mais inteligente do que os humanos no final de 2025.
Gary Marcus, especialista em IA, não concorda e está disposto a apostar nisso.
Caro @elonmusk,
$1 milhões dizem que a sua última previsão - de que a IA será mais inteligente do que qualquer ser humano até ao final de 2025 - está errada.
Jogo? Posso sugerir algumas regras para a vossa aprovação.
Felicidades,
GaryP.S. Note-se que, nalguns aspectos (mas não em todos), os computadores têm sido...
- Gary Marcus (@GaryMarcus) 9 de abril de 2024
A xAI está a enfrentar o mesmo desafio de falta de chips NVIDIA que muitas outras empresas enfrentam. Musk diz que os 20.000 NVIDIA H100s que a empresa possui concluirão o treinamento do Grok 2 até maio.
Adivinha quantas GPUs ele diz que serão necessárias para treinar o Grok 3.
Antropia à vista
A Anthropic afirma que desenvolve sistemas de IA em grande escala para poder "estudar as suas propriedades de segurança na fronteira tecnológica".
O Claude 3 Opus da empresa está certamente na fronteira. Um novo estudo mostra que o modelo deixa o resto da concorrência para trás em resumir conteúdos de livros. Mesmo assim, os resultados mostram que os humanos continuam a ter vantagem em alguns aspectos.
Os últimos testes do Anthropic mostram que Claude LLMs tornaram-se excecionalmente persuasivosO Claude 3 Opus gera argumentos tão persuasivos como os criados por humanos.
As pessoas que minimizam os riscos de segurança da IA dizem muitas vezes que se poderia simplesmente desligar a ficha se uma IA se tornasse desonesta. E se a IA fosse tão persuasiva que o pudesse convencer a não o fazer?
A grande reivindicação de fama do Claude 3 é a sua enorme janela de contexto. A Anthropic publicou um estudo que mostra que LLMs de grande contexto são vulnerável a uma técnica de fuga de presos "many-shot. É super simples de implementar e eles admitem que não sabem como resolver o problema.
Noutras notícias...
Aqui estão algumas outras histórias de IA dignas de clique que apreciámos esta semana:
- O virtual Cimeira IA para o Sucesso do Cliente 2024 dá o pontapé de saída.
- Escritórios de advogados com IA falsa estão a enviar ameaças DMCA para gerar ganhos de SEO.
- Stability lança a sua versão multilingue e leve Estável LM 2 12B LLM com resultados de referência impressionantes.
- Os investigadores da Microsoft propõem "Solicitação de "visualização do pensamento para permitir que os LLM utilizem o raciocínio espacial.
- A IA pode ser tão importante para a economia como a eletricidade, afirma o diretor executivo do JPMorgan Chase, Jamie Dimon.
- Um Caça a jato operado por IA vai pilotar o Secretário da Força Aérea num teste dos futuros aviões de guerra drones do exército americano.
- A velocidade de O desenvolvimento da IA está a ultrapassar a avaliação dos riscos.
- Meta anunciou a sua próxima geração do chip Meta Training and Inference Accelerator (MTIA).
E é tudo.
Importa-se que a OpenAI, e provavelmente outros, possam ter utilizado o seu conteúdo do YouTube para treinar a sua IA? Se a Altman libertasse o Sora gratuitamente, acho que tudo estaria perdoado. A Google pode discordar.
Acha que Musk está a ser demasiado otimista com as suas previsões sobre a inteligência artificial? Espero que ele tenha razão, mas estou um pouco preocupado com o facto de apenas 2% da investigação em IA estarem a ser canalizados para a segurança.
Quão louca é a quantidade de modelos de IA que estamos a ver agora? Qual é o teu favorito? Estou a agarrar-me à minha conta ChatGPT Plus e espero pelo GPT-5. Mas o Claude Pro está a parecer muito tentador.
Diga-nos qual o artigo que se destacou para si e continue a enviar-nos ligações para quaisquer histórias interessantes sobre IA que possamos ter perdido.