Bem-vindo ao nosso resumo semanal de notícias sobre a IA montada por humanos.
Esta semana, a IA começou a escrever piadas e a detetar mentiras.
Um modelo chinês em tempo real venceu o GPT-4o.
E o OpenAI abriu-se quando devia ter-se fechado.
Vamos lá ver.
OpenAI pirateado
A OpenAI tem sido criticada por ser muito fechada, apesar do seu nome. Esta semana ficámos a saber que os servidores da empresa estavam completamente abertos pelas razões erradas.
A OpenAI sofreu uma violação de dados quando um hacker violou as suas defesas. À medida que a corrida global à IA se acelera, é provável que assistamos a mais tentativas como esta.
A Microsoft é o maior investidor da OpenAI, mas esta semana surpreendentemente retirou-se do seu papel de observador em OpenAIdireção da e a Apple também recusou um lugar à mesa.
A Microsoft afirma que se trata de uma evolução natural da sua relação com a OpenAI, mas poderá estar a acontecer algo mais?
Ainda estamos à espera que o assistente de voz do GPT-4o passe de demonstração a produto disponível ao público. Enquanto a OpenAI torce as mãos e fala de questões de segurança, o laboratório francês de IA Kyutai lançou o seu assistente de voz com IA Moshi.
Tem muitos bugs e a demo tinha uma série de falhas, mas pelo menos o Moshi está disponível para ser utilizado.
É a tua vez, Sam. O Kling já está a dar cabo dele, por isso mais vale libertar a Sora também.
Definitivamente criado usando alguma IA, mas não tenho certeza de qual. Provavelmente Kling. pic.twitter.com/1SNW9WslJi
- AshutoshShrivastava (@ai_for_success) 11 de julho de 2024
Deve estar a brincar
A IA pode ser engraçada? Um novo estudo comparou as anedotas escritas por humanos com as escritas pelo GPT-3.5.
Também compararam os títulos satíricos escritos por escritores profissionais de comédia do The Onion com os escritos por IA. Adivinhem quais as piadas que foram consideradas mais engraçadas num teste cego.
Se houvesse um dispositivo que nos dissesse quando alguém está a mentir, usá-lo-íamos? Os investigadores fizeram um Detetor de mentiras com IA que é muito melhor a detetar mentiras do que os humanos.
Tudo isto parece uma boa ideia, até se perceber até que ponto esta tecnologia pode ser socialmente disruptiva.
Novos modelos
Poderá um pequeno modelo de IA vencer o GPT-4? A Salesforce desafiou as tendências da IA com o modelos xLAM-1B e 7B minúsculos mas poderosos.
A IA agêntica precisa de transformar os pedidos de linguagem natural dos utilizadores em API específicas ou chamadas de função. Estes modelos minúsculos são centenas de vezes mais pequenos do que o GPT-4 e o Gemini 1.5 Pro, mas superam-nos no Berkeley Function-Calling Leaderboard.
A empresa tecnológica chinesa SenseTime lançou o seu modelo multimodal SenseNova 5.5 e afirmou que o seu desempenho é superior ao do GPT-4o. A versão interactiva em tempo real do modelo apresentava a mesma funcionalidade de voz que vimos na demonstração do GPT-4o, embora em mandarim.
A SenseTime e outras empresas chinesas de IA estão agora a distribuir tokens de API gratuitos para atrair novos clientes, uma vez que a OpenAI encerra o acesso à API na China.
A Anthropic impressionou-nos com o Claude Sonnet 3.5 no mês passado e a sua plataforma acaba de receber outra atualização. A consola Anthropic e o Claude receberam algumas novas e empolgantes capacidades de prompt e artefactos.
Mau comportamento da IA
A aplicação colaborativa de web design Figma sofreu uma reviravolta rápida quando o CEO encerrou a sua funcionalidade AI Make Design.
O designer de aplicações cria designs elegantes, mas alguns utilizadores disseram que parecem suspeitosamente familiares. Onde é que eu já vi esse design de aplicação antes....?
Se os adultos não conseguem descobrir como criar e utilizar a IA de forma ética, devemos ficar surpreendidos quando as crianças o fazem de forma errada?
Um tribunal espanhol proferiu sentenças contra 15 crianças por criar material explícito gerado por IA. É fácil culpar as crianças, mas a situação mostra como o impacto da IA nas crianças tem sido largamente ignorado.
E este tipo de investigação não inspira propriamente confiança.
https://t.co/vki4nKLPKb pic.twitter.com/zSA8dysuK2
- ControlAI (@ai_ctrl) 8 de julho de 2024
Dr. AI
É possível saber se uma pessoa é suscetível de desenvolver Alzheimer nos próximos 6 anos? Um novo sistema de IA consegue prever o início precoce da doença de Alzheimer utilizando a análise da fala.
A exatidão da previsão é superior à dos testes tradicionais e não invasivos e poderá permitir que os doentes recebam tratamento mais cedo.
Numa descoberta médica, os investigadores usaram IA para identificar infecções resistentes a medicamentos como a febre tifoide, antes de tentar tratá-los com antibióticos.
A velocidade e a precisão do sistema de IA permitem que os médicos façam diagnósticos mais rápidos para poderem prescrever os antibióticos mais eficazes mais cedo. Isto pode ser um grande impulso para reduzir a propagação de bactérias resistentes aos medicamentos.
Noutras notícias...
Aqui estão algumas outras histórias de IA dignas de clique que apreciámos esta semana:
- A Microsoft apresenta o seu avançado sistema de disparo zero modelo de síntese de texto para fala denominado VALL-E-2 mas diz que é demasiado perigoso para ser libertado.
- Investigadores testou se os modelos de IA são auto-conscientes e se sabem quando estão a ser utilizados ou testados.
- Xangai publica o orientações para o primeiro robô humanoide para salvaguardar a dignidade e a segurança das pessoas.
- IA agêntica: Qual é o estado atual e o que se segue para tornar os agentes de IA verdadeiramente úteis?
- Ferramenta de análise e histórias geradas por IA "Catch Me Up" de Wimbledon continua a enganar-se nos factos relativos ao ténis.
- Instalações de energia nuclear abandonadas como Three Mile Island pode voltar a ser ativado para satisfazer as necessidades de IA.
E é tudo.
O OpenAI tem estado muito calmo, apesar de outros modelos de IA estarem a seguir os seus passos no GPT-4o. Esperemos que na próxima semana tenhamos algumas notícias sobre o OpenAI para além de processos judiciais e hacks.
Acha que a IA alguma vez conseguirá lidar com o humor? Escrever uma piada é uma coisa, mas não tenho a certeza de que um algoritmo possa alguma vez criar o próximo Seinfeld ou Fawlty Towers.
Esperemos que os engenheiros de IA concentrem os seus modelos em tarefas mais fáceis, como a cura do cancro e a energia livre, por enquanto.
Diga-nos o que pensa, partilhe connosco as suas tentativas de humor com IA em Xe continuem a enviar-nos os links das notícias sobre IA.