Forskere skaber frivillige sikkerhedsregler for AI-proteindesign

9. marts 2024

Ai-proteiner

En gruppe førende forskere har lanceret et frivilligt initiativ, der skitserer et sæt værdier, principper og forpligtelser for AI-proteindesign. 

Den brev diskuterer det potentielle misbrug af AI-værktøjer, der er i stand til at designe nye proteiner med hidtil uset hastighed og effektivitet. 

Selvom kunstig intelligens er meget lovende i forhold til at løse presserende globale udfordringer, lige fra pandemireaktioner til bæredygtige energiløsninger, rejser det også spørgsmål om muligheden for ondsindet brug, som f.eks. at skabe nye biovåben.

Mens proteinerne designet af DeepMinds AlphaFold-system og senere af forskere på University of Washington School of Medicine viste høj affinitet og specificitet over for deres tilsigtede mål, er der altid mulighed for, at disse proteiner kan interagere med andre molekyler i kroppen på uventede måder. 

Det kan føre til uønskede bivirkninger eller endda udvikling af nye sygdomme.

En anden risiko er potentialet for misbrug eller ondsindet brug af denne teknologi. Ligesom AI-designede proteiner kan bruges til at skabe meget målrettede terapier, kan de også konstrueres til at forårsage skade. 

For eksempel kan en ondsindet aktør potentielt designe et protein, der er rettet mod en bestemt etnisk gruppe eller udnytter en bestemt genetisk sårbarhed. 

Som David Baker, en computerbaseret biofysiker ved University of Washington og en nøgleperson bag initiativet, bemærker: "Spørgsmålet var: Hvordan, hvis overhovedet, skal proteindesign reguleres, og hvad er i givet fald farerne?"

De mere end 100 underskrivere mener, at "fordelene ved de nuværende AI-teknologier for Proteindesign opvejer langt den potentielle skade", men anerkender behovet for en proaktiv tilgang til risikostyring, efterhånden som teknologien udvikler sig. 

I brevet står der, at "i betragtning af de forventede fremskridt på dette område kan det være nødvendigt med en ny proaktiv risikostyringstilgang for at afbøde potentialet ved at udvikle AI-teknologier, der kan misbruges, bevidst eller på anden måde, til at forårsage skade."

Som en del af initiativformulerede forskerne et sæt værdier og principper, der skal guide den ansvarlige udvikling af AI-teknologier inden for proteindesign.

De omfatter "sikkerhed, tryghed, retfærdighed, internationalt samarbejde, åbenhed, ansvar og forskning til gavn for samfundet". Underskriverne er også frivilligt gået med til en række specifikke, handlingsorienterede forpligtelser, der bygger på disse værdier og principper.

Et vigtigt aspekt af initiativet fokuserer på at forbedre screeningen af DNA-syntese, et afgørende skridt i omsætningen af AI-designede proteiner til fysiske molekyler. 

Forskerne forpligter sig til "kun at få DNA-synteseydelser fra udbydere, der viser, at de overholder industristandarder for biosikkerhedsscreening, som har til formål at opdage farlige biomolekyler, før de kan fremstilles."

AI's fremskridt inden for medicin og bioteknologi har været helt utrolige og har ført til nye antibiotika og anti-aging medicin.

For at fremme disse resultater forpligter underskriverne sig til at "samarbejde med interessenter fra hele verden" og "afstå fra forskning, der sandsynligvis vil føre til generel skade eller muliggøre misbrug af vores teknologier."

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser