20 de maio

O Frontier Safety Framework da Google atenua os riscos "graves" da IA

A Google publicou a primeira versão do seu Frontier Safety Framework, um conjunto de protocolos que tem como objetivo fazer face aos graves riscos que os poderosos modelos de IA de fronteira do futuro poderão apresentar. A estrutura define os Níveis Críticos de Capacidade (CCLs), que são limiares nos quais os modelos podem representar um risco elevado sem mitigação adicional. Em seguida, estabelece diferentes níveis de atenuação para lidar com modelos que violam esses CCLs. As atenuações dividem-se em duas categorias principais: Mitigações de segurança - Impedir a exposição dos pesos de um modelo que atinge os CCLs Mitigações de implantação - Impedir o uso indevido de um modelo implantado que atinge os CCLs O...

Últimas notícias

15 de maio

Entrevista: Tanisha Katara - Estratega de Blockchain e Web3

Entrevistamos Tanisha Katara, especialista em governança de blockchain e especialista em inovação de governança da Polygon Technology. Nos últimos dois anos, foi também consultora independente de mais de 6 clientes, incluindo protocolos Blockchain, Aplicações Descentralizadas (dApps) e Organizações Autónomas Descentralizadas (DAOs). Como consultora independente, ela ajuda os seus clientes a criar estratégias e produtos relacionados com a entrada no mercado, economia de tokens,...
15 de maio

Google I/O 2024 - Eis os destaques da IA que a Google revelou

O evento I / O 2024 do Google começou na terça-feira com vários novos avanços de produtos de IA anunciados. A OpenAI pode ter tentado ofuscar o Google com o lançamento do GPT-4o na segunda-feira, mas a palestra do Google I / O 2024 estava cheia de anúncios interessantes. Aqui está uma olhada nos avanços de IA de destaque, novas ferramentas e protótipos que o Google está experimentando. Pergunte às Fotos O Google Fotos,...
Segurança da IA
14 de maio

EUA e China reúnem-se na Suíça para mais uma conversa "secreta" sobre segurança da IA

Representantes de alto nível dos Estados Unidos e da China reuniram-se em Genebra, na Suíça, para abordar os desafios complexos e os riscos potenciais da IA. Esta série de debates, acordados pelo Presidente Joe Biden e pelo Presidente Xi Jinping, decorreu em relativo secretismo. Tarun Chhabra, do Conselho de Segurança Nacional da Casa Branca, e o Dr. Seth Center, enviado especial em exercício para as questões críticas...
14 de maio

Manifestantes da PauseAI exigem o fim do treino de modelos de IA

O grupo ativista de segurança de IA PauseAI coordenou protestos globais para apelar a uma pausa no desenvolvimento de modelos de IA mais poderosos do que o GPT-4. Os manifestantes se reuniram na segunda-feira em 14 cidades ao redor do mundo, incluindo Nova York, Londres, Sydney e São...
10 de maio

AlphaFold 3: DeepMind evolui o seu projeto de dobragem de proteínas por IA

A DeepMind anunciou o AlphaFold 3, a mais recente iteração do seu projeto de dobragem de proteínas. O AlphaFold 3, tal como os seus antecessores, prevê principalmente a forma como as proteínas se dobram com base nas suas sequências de aminoácidos. As proteínas, os blocos de construção de toda a vida orgânica, são compostas por longas cadeias de...
maio 08

As ferramentas de transcrição da IA geram alucinações nocivas

Os transcritores de fala para texto tornaram-se inestimáveis, mas um novo estudo mostra que, quando a IA se engana, o texto alucinado é muitas vezes prejudicial. As ferramentas de transcrição de IA tornaram-se extremamente precisas e transformaram a forma como os médicos mantêm os registos dos pacientes ou...

Junte-se ao futuro

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

×
 
 

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI


 

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.



 
 

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições