I en gjennombruddsstudieForskere fra MIT og Tufts University har utviklet en maskinlæringsmetode (ML) for å akselerere prosessen med å finne nye legemidler.
Det finnes enorme legemiddelbiblioteker som inneholder milliarder av ulike stoffer som effektivt kan behandle alt fra kreft til hjertesykdommer. Spørsmålet er hvordan vi finner dem.
Oppdagelse av nye legemidler har tradisjonelt vært en arbeidskrevende prosess, der forskerne må teste hver potensielle substans mot alle mulige målmolekyler - en tidkrevende og kostbar affære.
For å løse dette problemet har forskere begynt å bruke beregningsmetoder for å screene biblioteker av legemiddelforbindelser. Denne tilnærmingen er imidlertid fortsatt svært tidkrevende, ettersom den innebærer å beregne hvert målproteins tredimensjonale struktur basert på dets aminosyresekvens.
Teamet ved MIT og Tufts har imidlertid utviklet en ny tilnærming basert på en stor språkmodell (LLM), som er den typen modell som driver AI som ChatGPT. Modellen analyserer enorme datamengder for å finne ut hvilke aminosyrer som sannsynligvis passer sammen, på samme måte som språkmodeller som ChatGPT analyserer enorme mengder tekst for å finne ut hvilke ord som passer sammen.
Denne nye modellen, ved navn ConPLexModellen matcher målproteiner med potensielle legemiddelmolekyler uten å beregne molekylstrukturer. Modellen gjorde det mulig for forskerne å screene over 100 millioner forbindelser på én dag.
Bonnie Berger, Simons-professor i matematikk og leder for Computation and Biology-gruppen ved MITs Computer Science and Artificial Intelligence Laboratory (CSAIL), sier: "Dette arbeidet dekker behovet for effektiv og nøyaktig in silico-screening av potensielle legemiddelkandidater, og modellens skalerbarhet muliggjør storskala screening for å vurdere off-target-effekter, repurposing av legemidler og bestemme virkningen av mutasjoner på legemiddelbinding."
Kunstig intelligens effektiviserer screening og utvikling av legemidler
Et av de største hindrene på feltet har vært at eksisterende modeller har hatt en tendens til ikke å utelukke "lokkemidler". Disse forbindelsene ligner på vellykkede legemidler, men interagerer ikke godt med målet. For å utelukke lokkemidler innlemmet teamet et treningsstadium som hjalp modellen med å skille mellom ekte legemidler og bedragere.
Forskerne testet ConPLex-modellen ved å screene et bibliotek med rundt 4700 legemiddelkandidater mot et sett med 51 enzymer, såkalte proteinkinaser.
Etter å ha testet 19 av de mest lovende legemiddel-protein-parene eksperimentelt, fant de 12 med sterk bindingsaffinitet til målmolekylet.
Denne studien fokuserte hovedsakelig på småmolekylære legemidler, men teamet undersøker nå hvordan denne tilnærmingen kan brukes på andre typer legemidler, for eksempel terapeutiske antistoffer.
Modellen kan også brukes til å undersøke toksisiteten til potensielle legemidler, slik at man kan sikre at de ikke gir uønskede bivirkninger før de testes i dyremodeller.
Rohit Singh, forsker ved CSAIL, sier: "En av grunnene til at det er så dyrt å finne nye legemidler, er at det er høy feilprosent. Hvis vi kan redusere disse feilprosentene ved å si på forhånd at dette legemiddelet sannsynligvis ikke vil fungere, kan vi komme et godt stykke på vei i å redusere kostnadene ved legemiddeloppdagelse."
Eytan Ruppin, sjef for Cancer Data Science Laboratory ved National Cancer Institute, roser tilnærmingen som et "betydelig gjennombrudd innen prediksjon av interaksjoner mellom legemidler og målgrupper".
I slutten av mai bygget et annet forskerteam fra MIT en modell for antibiotikascreening som fungerte på samme måte som denne.
Teamet brukte maskinlæring til å utforske tusenvis av eksisterende legemidler, og fant ett bestemt stoff som var effektivt mot antibiotikaresistente superbakterier.