Einer neuen Studie zufolge fehlen ethische Richtlinien, während KI das Gesundheitswesen von der Arzneimittelforschung bis zur medizinischen Bildanalyse weiter verändert.
Die Studie von Joschka Haltaufderheide und Robert Ranisch von der Universität Potsdam, die in der Zeitschrift njp Digital Communications veröffentlicht wurde, analysierte 53 Artikel, um die ethische Landschaft im Zusammenhang mit großen Sprachmodellen (LLMs) in der Medizin und im Gesundheitswesen darzustellen.
Die Studie ergab, dass KI bereits in verschiedenen Bereichen des Gesundheitswesens eingesetzt wird, darunter auch in der Medizin:
- Interpretation der diagnostischen Bildgebung
- Entwicklung und Entdeckung von Arzneimitteln
- Personalisierte Behandlungsplanung
- Patiententriage und Risikobewertung
- Medizinische Forschung und Literaturanalyse
Die jüngsten Auswirkungen der KI auf das Gesundheitswesen und die Medizin sind geradezu spektakulär.
Erst kürzlich, Forscher haben ein Modell entwickelt für die Alzheimer-Früherkennung, die mit 80%-Genauigkeit vorhersagen kann, ob jemand innerhalb von sechs Jahren an der Krankheit erkrankt.
Die erste KI-generierte Medikamente befinden sich bereits in der klinischen Erprobung, und KI-gestützte Bluttests kann Krebs anhand einzelner DNA-Moleküle erkennen.
In Bezug auf LLMs, OpenAI und Color Health kürzlich angekündigt ein System zur Unterstützung von Ärzten bei der Krebsdiagnose und -behandlung.
Diese Fortschritte sind zwar erstaunlich, lösen aber auch ein Gefühl der Beklemmung aus. Könnte es sein, dass die Risiken unter dem Radar verschwinden?
Mit Blick auf LLMs stellen die Forscher fest: "Mit der Einführung von ChatGPT haben Large Language Models (LLMs) im Gesundheitswesen enorme Aufmerksamkeit erhalten. Trotz der potenziellen Vorteile haben die Forscher verschiedene ethische Implikationen hervorgehoben".
Auf der Nutzenseite: "Die Vorteile des Einsatzes von LLMs werden ihrer Fähigkeit zur Datenanalyse, zur Informationsbereitstellung, zur Unterstützung bei der Entscheidungsfindung oder zur Abschwächung von Informationsverlusten und zur Verbesserung der Informationszugänglichkeit zugeschrieben."
Sie weisen jedoch auch auf wichtige ethische Bedenken hin: "Unsere Studie zeigt auch wiederkehrende ethische Bedenken im Zusammenhang mit Fairness, Voreingenommenheit, Nicht-Malefiz, Transparenz und Privatsphäre auf. Ein besonderes Problem ist die Tendenz, schädliche oder überzeugende, aber ungenaue Inhalte zu produzieren".
Dieses Problem der "Halluzinationen", bei denen LLMs plausible, aber sachlich falsche Informationenist im Gesundheitswesen besonders bedenklich. Im schlimmsten Fall könnte dies zu falschen Diagnosen oder Behandlungen führen.
KI-Entwickler können oft nicht erklären, wie ihre Modelle funktionieren, was als "Black-Box-ProblemDiese Fehlfunktionen sind daher besonders schwierig zu beheben.
Die Studie gibt Anlass zu Besorgnis über Voreingenommenheit bei LLMsund stellt fest: "Voreingenommene Modelle können zu einer ungerechten Behandlung benachteiligter Gruppen führen, was zu Ungleichheiten beim Zugang führt, bestehende Ungleichheiten verschärft oder Personen durch selektive Genauigkeit schadet."
Sie führen ein konkretes Beispiel an, bei dem ChatGPT und Foresight NLP eine rassistische Voreingenommenheit gegenüber schwarzen Patienten zeigen. A aktuelle Yale-Studie stellte eine rassistische Voreingenommenheit bei der Bearbeitung von Röntgenbildern durch ChatGPT fest, wenn rassistische Informationen über die Scans gegeben wurden.
Die Voreingenommenheit von LLM gegenüber Minderheitengruppen ist bekannt und kann im Gesundheitswesen heimtückische Folgen haben.
Bedenken hinsichtlich des Datenschutzes sind ein weiteres Risiko: "Die Verarbeitung von Patientendaten wirft ethische Fragen in Bezug auf Vertraulichkeit, Datenschutz und Datensicherheit auf."
Bei der Bewältigung von Risiken ist die menschliche Aufsicht von größter Bedeutung. Die Forscher fordern außerdem die Entwicklung allgemeiner ethischer Richtlinien für KI im Gesundheitswesen, um die Entwicklung schädlicher Szenarien zu verhindern.
Die Landschaft der KI-Ethik im Gesundheitswesen erweitert sich rasch, da immer neue Durchbrüche erzielt werden.
Kürzlich haben über 100 führende Wissenschaftler eine freiwillige Initiative gestartet, um die Sicherheit Regeln für das AI-Protein-Design, Dies unterstreicht, dass die Technologie oft zu schnell voranschreitet, als dass die Sicherheit Schritt halten könnte.