Gli scienziati dell'Università di Bonn, guidati dal professor Jürgen Bajorath, hanno scoperto il funzionamento interno delle IA "scatola nera" coinvolte nella ricerca farmaceutica.
Il loro studiopubblicato di recente su Nature Machine Intelligence, rivela che i modelli di IA per la scoperta di farmaci dipendono prevalentemente dal richiamo di dati esistenti piuttosto che dall'apprendimento di nuove interazioni chimiche. Ciò mette in discussione le precedenti ipotesi sul modo in cui l'IA fa previsioni in questo campo.
I ricercatori utilizzano l'apprendimento automatico per individuare le molecole che interagiscono efficacemente con le proteine bersaglio, il che spesso comporta la previsione di quali molecole si legheranno fortemente alle proteine bersaglio, seguita dalla convalida sperimentale di queste previsioni.
Questa forma di scoperta di farmaci assistita dall'intelligenza artificiale ha visto importanti scoperte nel 2023, tra cui una Modello sviluppato dal MIT che ha analizzato milioni di composti alla ricerca di potenziali effetti terapeutici, i farmaci scoperti dall'intelligenza artificiale che mostrano promettenti per rallentare l'invecchiamentoe le proteine generate dall'AI che mostrano eccellente forza di legame.
La domanda a cui Bajorath e il team hanno cercato di rispondere è: come fanno alcuni di questi modelli a raggiungere i loro risultati?
Il team di ricerca si è concentrato sulle reti neurali grafiche (GNN), un tipo di applicazione di apprendimento automatico ampiamente utilizzata nella scoperta di farmaci. Le GNN vengono addestrate utilizzando grafici che rappresentano le potenziali interazioni tra farmaci.
Tuttavia, come sottolinea il Prof. Bajorath, "il modo in cui i GNN arrivano alle loro previsioni è come una scatola nera che non riusciamo a scrutare".
Per demistificare in modo completo questo processo, il team ha analizzato sei diverse architetture GNN. Andrea Mastropietro, autore dello studio e dottorando all'Università Sapienza di Roma, afferma: "I GNN dipendono molto dai dati con cui vengono addestrati".
I ricercatori hanno scoperto che i GNN si basano prevalentemente sulle somiglianze chimiche dei dati di addestramento per fare previsioni, piuttosto che imparare interazioni specifiche tra composti e proteine.
Ciò significa essenzialmente che i modelli di intelligenza artificiale spesso "ricordano" piuttosto che "imparano" nuove interazioni.
L'effetto "Clever Hans" nell'IA
I ricercatori paragonano questo fenomeno all'"effetto Clever Hans", in cui un cavallo sembra eseguire l'aritmetica interpretando sottili indicazioni del suo conduttore piuttosto che comprendere effettivamente la matematica.
Allo stesso modo, le previsioni dell'IA si basano più sul richiamo di dati noti che sulla comprensione di interazioni chimiche complesse.
I risultati suggeriscono che la capacità dei GNN di apprendere le interazioni chimiche è sovrastimata e che metodi più semplici potrebbero essere altrettanto efficaci.
Tuttavia, alcuni GNN hanno mostrato un potenziale nell'apprendimento di più interazioni, indicando che il miglioramento delle tecniche di addestramento potrebbe migliorare le loro prestazioni.
Il Prof. Bajorath Il team sta anche sviluppando metodi per chiarire le funzionalità dei modelli di IA, nell'ottica dell'"IA spiegabile", un campo emergente per rendere trasparenti e comprensibili i processi decisionali dell'IA.