Ein Bericht der Denkfabrik RAND kommt zu dem Schluss, dass die derzeitigen LLM das Risiko eines biologischen Angriffs durch einen nichtstaatlichen Akteur nicht wesentlich erhöhen.
Im Oktober letzten Jahres veröffentlichte dieselbe Forschergruppe einen Bericht, in dem die Möglichkeit angesprochen wurde, dass LLMs "bei der Planung und Durchführung eines biologischen Angriffs helfen könnten". In diesem Bericht wurde darauf hingewiesen, dass das Risiko, dass dies in der Praxis geschieht, weiter erforscht werden muss.
Der Bericht vom Oktober mit dem Titel "The Operational Risks of AI in Large-Scale Biological Attacks" (Die operationellen Risiken von KI bei groß angelegten biologischen Angriffen) wurde von einigen Vertretern der E/A-Seite kritisiert, die KI als gefährlich einstufen. Der leitende KI-Wissenschaftler bei Meta, Yann LeCun, sagte, der Bericht vereinfache zu sehr, was zur Entwicklung einer Biowaffe nötig sei.
Vielleicht kann ein LLM Ihnen ein wenig Zeit ersparen, statt in einer Suchmaschine nach Anleitungen zum Bau von Biowaffen zu suchen.
Aber wissen Sie auch, wie man die harte Laborarbeit macht, die dafür nötig ist? https://t.co/QnnZqUOP6X- Yann LeCun (@ylecun) 2. November 2023
Für den Moment ist alles in Ordnung
Die neueste RAND Bericht mit dem Titel "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" (Aktuelle künstliche Intelligenz erhöht nicht das Risiko eines Angriffs mit biologischen Waffen) bestätigte LeCuns Einschätzung und nahm denjenigen, die auf der Seite der effektiven Altruisten stehen, etwas Wind aus den Segeln.
Die Forscher, geleitet von Senior RAND Ingenieur Christopher A. Mouton, führte eine Red-Teaming-Übung durch, um herauszufinden, wie ein böswilliger nichtstaatlicher Akteur ein LLM zum Bau einer biologischen Waffe einsetzen könnte.
Die Teilnehmer hatten die Aufgabe, einen biologischen Anschlag zu planen, wobei einige Zugang zum Internet und zu einem LLM hatten, während andere nur Zugang zum Internet hatten. Sie nannten die verwendeten LLMs nicht.
Das Ergebnis war, dass es "keinen statistisch signifikanten Unterschied in der Lebensfähigkeit von Plänen gab, die mit oder ohne LLM-Unterstützung erstellt wurden." Mit anderen Worten: ChatGPT wird Ihnen nichts sagen, was Sie nicht bereits googeln können.
Tatsächlich zeigten die Ergebnisse, dass die von den Teams, die ein LLM nutzten, entwickelten Pläne geringfügig weniger praktikabel waren als die der Teams, die nur Zugang zum Internet hatten. Es ist beruhigend, dass kein Team in der Lage war, einen Bio-Angriffsplan zu entwickeln, der tatsächlich durchführbar war.
Da KI-Modelle immer intelligenter werden, könnte sich das ändern. Mouton sagte: "Nur weil die heutigen LLMs nicht in der Lage sind, die Wissenslücke zu schließen, die erforderlich ist, um die Planung von Angriffen mit biologischen Waffen zu erleichtern, schließt das nicht die Möglichkeit aus, dass sie in Zukunft dazu in der Lage sein werden".
Können neue KI-Tools - insbesondere große Sprachmodelle (LLMs) - für einen groß angelegten biologischen Angriff verwendet werden?
In einer neuen RAND-Studie wird diese Frage anhand einer Übung mit einem roten Team untersucht. Hier sind die Ergebnisse. 🧵 https://t.co/foFmWltIuQ
- RAND (@RANDCorporation) 25. Januar 2024
Mehr Forschung erforderlich
In dem Bericht wird eingeräumt, dass die Forschung nicht ermittelt hat, wie groß diese Wissenslücke ist. Mouton sagte, dass weitere Forschungen in diesem Bereich wichtig seien, "weil die KI-Technologie jedem zur Verfügung steht - auch gefährlichen nichtstaatlichen Akteuren - und schneller voranschreitet, als die Regierungen Schritt halten können".
Menschen, die sich für die Entwicklung von AGI sagen, dass das Potenzial für eine superintelligente KI real ist und erreicht werden kann. Aber viele dieser Leute werden jetzt sagen: "Ich hab's ja gesagt" und sich über die Idee lustig machen, dass KI ein Risiko wie das von RAND untersuchte darstellen könnte.
Wir müssen wahrscheinlich nicht herumlaufen und schreien: "Der Himmel stürzt ein!", aber zu behaupten, dass eine künstliche Intelligenz, die intelligenter ist als wir, nicht potenziell böse Akteure befähigen wird, ist ebenfalls ignorant. Und gefährlich.