Cientistas da Universidade de Bona, liderados pelo Professor Dr. Jürgen Bajorath, descobriram o funcionamento interno das "caixas negras" das IAs envolvidas na investigação farmacêutica.
Os seus estudopublicado recentemente na revista Nature Machine Intelligence, revela que os modelos de IA na descoberta de medicamentos dependem predominantemente da recuperação de dados existentes e não da aprendizagem de novas interacções químicas. Isto desafia os pressupostos anteriores sobre a forma como a IA faz previsões neste domínio.
Os investigadores utilizam a aprendizagem automática para localizar moléculas que interagem eficazmente com as proteínas-alvo, o que envolve frequentemente a previsão de quais as moléculas que se ligam fortemente às proteínas-alvo, seguida da validação experimental dessas previsões.
Esta forma de descoberta de medicamentos assistida por IA registou grandes avanços em 2023, incluindo um Modelo desenvolvido pelo MIT que analisou milhões de compostos em busca de potenciais efeitos terapêuticos, os medicamentos descobertos pela IA mostram promissor no retardamento do envelhecimentoe proteínas geradas por IA que mostram excelente resistência de ligação.
A questão a que Bajorath e a sua equipa procuraram responder é: como é que alguns destes modelos alcançam os seus resultados?
A equipa de investigação centrou-se nas redes neurais gráficas (GNN), um tipo de aplicação de aprendizagem automática amplamente utilizada na descoberta de medicamentos. As GNNs são treinadas utilizando gráficos que representam potenciais interacções medicamentosas.
No entanto, como salienta o Prof. Bajorath, "a forma como os GNNs chegam às suas previsões é como uma caixa negra que não podemos vislumbrar".
Para desmistificar este processo de forma abrangente, a equipa analisou seis arquitecturas GNN diferentes. Andrea Mastropietro, autor do estudo e candidato a doutoramento na Universidade Sapienza de Roma, afirma: "Os GNNs dependem muito dos dados com que são treinados."
Os investigadores descobriram que os GNNs se baseiam predominantemente nas semelhanças químicas dos seus dados de treino para fazer previsões, em vez de aprenderem interacções específicas entre compostos e proteínas.
Isto significa essencialmente que os modelos de IA muitas vezes "recordam" em vez de "aprenderem" novas interacções.
O "efeito Hans inteligente" na IA
Os investigadores comparam este fenómeno ao "efeito Hans esperto", em que um cavalo parece fazer aritmética interpretando pistas subtis do seu tratador, em vez de compreender realmente a matemática.
De igual modo, as previsões da IA consistem mais em recordar dados conhecidos do que em compreender interacções químicas complexas.
Os resultados sugerem que a capacidade dos GNNs para aprender interacções químicas está sobrestimada e que métodos mais simples podem ser igualmente eficazes.
No entanto, algumas GNNs mostraram potencial para aprender mais interacções, o que indica que técnicas de treino melhoradas poderiam melhorar o seu desempenho.
O livro do Prof. A equipa está também a desenvolver métodos para clarificar a funcionalidade dos modelos de IA, com vista a uma "IA explicável", um domínio emergente que visa tornar os processos de tomada de decisão da IA transparentes e compreensíveis.