I den krevende eksperimentelle fysikken hjelper maskinlæringsteknologi forskere med å analysere kolossale, men sparsomme datasett.
Forestill deg oppgaven med å hente ut informasjon fra en bok med tusen sider, der hver side bare inneholder én linje med tekst. Å skanne en slik bok med en skanner som metodisk leser hver side tomme for tomme, ville være svært arbeidskrevende, og det meste av arbeidet ville gå med til å skanne tomrom.
Det samme gjelder for eksperimentalfysikere, særlig innen partikkelfysikk. Her registrerer og analyserer detektorene en overveldende mengde data, til tross for at bare en forsvinnende liten del av dem er nyttige.
Kazuhiro Terao, fysiker ved SLAC National Accelerator Laboratory, beskriver det slik: "På et fotografi av for eksempel en fugl som flyr på himmelen, kan hver piksel være meningsfull", men i bildene fysikerne ofte gransker, er det bare en liten del som virkelig betyr noe. Denne arbeidskrevende øvelsen sløser bort både tid og databehandlingsressurser.
ML tilbyr en løsning i form av sparse convolutional neural networks (SCNN).
Ved å gjøre det mulig for forskere å zoome inn på de viktige delene av dataene og filtrere bort resten, gjør SCNN-ene det raskere å analysere data i sanntid.
I 2012 forsøkte Benjamin Graham, da ved University of Warwick, å lage et nevralt nettverk som kunne gjenkjenne kinesisk håndskrift. Han justerte CNN-nettverk (Convolutional Neural Networks), en referanseform for nevrale nettverk, for å gjøre dem mer egnet for data som anses som "sparsomme", som et bilde av et kinesisk tegn.
Graham tilbyr en annen analogi for sparsomme data: Tenk deg at Eiffeltårnet var innkapslet i et så lite rektangel som mulig, og at dette rektangelet ville bestå av "99,98 prosent luft og bare 0,02 prosent jern".
Hvis du bare er opptatt av metallet, analyserer du en enorm mengde ubrukelig plass.
Fremveksten av SCNN
Etter å ha lykkes med å lage et system som effektivt kunne gjenkjenne håndskrevet kinesisk, gikk Graham videre til en større utfordring: å gjenkjenne 3D-objekter.
Han videreutviklet teknikken sin og publiserte detaljene i den første SCNN i 2017 mens han jobbet hos Facebook AI Research.
Terao introduserte dette konsept til partikkelfysikk ved Fermi National Accelerator Laboratory, som undersøker nøytrinoer (universets mest unnvikende og mest tallrike partikler med masse).
Terao innså at SCNN kunne optimalisere dataanalysen for Deep Underground Neutrino Experiment (DUNE), der han konstaterte at SCNN behandlet dataene raskere og mer effektivt enn tradisjonelle metoder.
Fysikeren Philip Harris ved Massachusetts Institute of Technology har planer om å bruke SCNN ved Large Hadron Collider (LHC) ved CERN.
Harris håper at SCNN kan akselerere dataanalysen ved LHC med minst en faktor på 50, noe som kan bidra til å oppdage partikler av spesiell interesse.