Forskere vil finde ud af, hvordan "black box"-modeller til lægemiddelopdagelse fungerer

1. januar 2024

stoffer AI

Forskere ved universitetet i Bonn, ledet af professor Dr. Jürgen Bajorath, har afdækket det indre arbejde i 'black box' AI'er, der er involveret i farmaceutisk forskning. 

Deres undersøgelsesom for nylig blev offentliggjort i Nature Machine Intelligence, afslører, at AI-modeller til lægemiddelopdagelse overvejende er afhængige af at genkalde sig eksisterende data snarere end at lære nye kemiske interaktioner. Dette udfordrer tidligere antagelser om, hvordan AI laver forudsigelser på dette område.

Forskere bruger maskinlæring til at finde molekyler, der effektivt interagerer med målproteiner, hvilket ofte indebærer forudsigelse af, hvilke molekyler der vil binde sig stærkt til målproteiner, efterfulgt af eksperimentel validering af disse forudsigelser.

Denne form for AI-assisteret lægemiddelopdagelse oplevede store gennembrud i 2023, herunder en MIT-udviklet model der analyserede millioner af stoffer for potentielle terapeutiske effekter, AI-opdagede stoffer, der viste Løfte om at bremse aldringog AI-genererede proteiner, der viser Fremragende bindingsstyrke.

Det spørgsmål, Bajorath og teamet forsøgte at besvare, er, hvordan nogle af disse modeller opnår deres resultater?

Forskerteamet fokuserede på Graph Neural Networks (GNN'er), en type maskinlæringsapplikation, der er meget udbredt inden for lægemiddelopdagelse. GNN'er trænes ved hjælp af grafer, der repræsenterer potentielle lægemiddelinteraktioner. 

Men som professor Bajorath påpeger: "Hvordan GNN'er når frem til deres forudsigelser, er som en sort boks, vi ikke kan kigge ind i."

For at afmystificere denne proces grundigt analyserede teamet seks forskellige GNN-arkitekturer. Andrea Mastropietro, der er forfatter til undersøgelsen og ph.d.-kandidat ved Sapienza University i Rom, siger: "GNN'erne er meget afhængige af de data, de er trænet med."

Forskerne opdagede, at GNN'erne overvejende er afhængige af kemiske ligheder fra deres træningsdata for at komme med forudsigelser i stedet for at lære specifikke interaktioner mellem forbindelser og proteiner.

Det betyder i bund og grund, at AI-modellerne ofte "husker" snarere end "lærer" nye interaktioner.

"Klog Hans-effekten" i AI

Forskerne sammenligner fænomenet med "Clever Hans-effekten", hvor en hest ser ud til at regne ved at fortolke subtile signaler fra sin fører i stedet for rent faktisk at forstå matematik. 

På samme måde handler AI'ens forudsigelser mere om at genkalde sig kendte data end om at forstå komplekse kemiske interaktioner.

Resultaterne tyder på, at GNN's evne til at lære kemiske interaktioner er overvurderet, og at enklere metoder kan være lige så effektive. 

Nogle GNN'er viste dog potentiale til at lære flere interaktioner, hvilket indikerer, at forbedrede træningsteknikker kan forbedre deres præstationer.

Prof. Bajoraths Teamet udvikler også metoder til at tydeliggøre AI-modellers funktionalitet i jagten på "Explainable AI", et nyt felt, der skal gøre AI's beslutningsprocesser gennemsigtige og forståelige.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser