KI in der Arztpraxis: Hausärzte nutzen ChatGPT und andere Tools für Diagnosen

19. September 2024

  • Ärzte nutzen ChatGPT zur Unterstützung bei der klinischen Verwaltung und Entscheidungsfindung
  • 20% von etwa 1000 Hausärzten im Vereinigten Königreich gaben zu, generative KI-Tools zu verwenden
  • Dies wirft Fragen zu den Risiken der KI für die Diagnosegenauigkeit und die Patientensicherheit auf
KI-Medizin

Eine neue Umfrage hat ergeben, dass jeder fünfte Allgemeinmediziner im Vereinigten Königreich KI-Tools wie ChatGPT einsetzt, um bei täglichen Aufgaben wie dem Vorschlagen von Diagnosen und dem Verfassen von Patientenbriefen zu helfen. 

Die ForschungDie in der Fachzeitschrift BMJ Health and Care Informatics veröffentlichte Studie befragte 1.006 Allgemeinmediziner in ganz Europa zu ihrem Einsatz von KI-Chatbots in der klinischen Praxis. 

Etwa 20% gaben an, generative KI-Tools zu verwenden, wobei ChatGPT am beliebtesten war. Von denjenigen, die KI nutzen, gaben 29% an, dass sie sie zur Erstellung von Dokumentationen nach Patiententerminen einsetzen, während 28% sie nutzen, um mögliche Diagnosen vorzuschlagen.

"Diese Ergebnisse deuten darauf hin, dass Hausärzte einen Nutzen aus diesen Tools ziehen können, insbesondere bei administrativen Aufgaben und zur Unterstützung der klinischen Argumentation", so die Studienautoren.  

Dr. Charlotte Blease, die Hauptautorin der Studie, kommentierte: "Trotz mangelnder Anleitung zu diesen Tools und unklarer Arbeitsrichtlinien berichten Allgemeinmediziner, dass sie sie zur Unterstützung ihrer Arbeit nutzen. Die medizinische Gemeinschaft muss Wege finden, um Ärzte und Auszubildende über die potenziellen Vorteile dieser Tools bei der Zusammenfassung von Informationen, aber auch über die Risiken in Form von Halluzinationen, algorithmischen Verzerrungen und der potenziellen Beeinträchtigung der Privatsphäre der Patienten aufzuklären."

Dieser letzte Punkt ist entscheidend. Die Weitergabe von Patientendaten an KI-Systeme stellt wahrscheinlich eine Verletzung der Privatsphäre und des Vertrauens der Patienten dar.

Dr. Ellie Mein, medizinische Rechtsberaterin bei der Medical Defence Union, stimmte in den Kernpunkten zu: "Neben den in der BMJ-Veröffentlichung genannten Verwendungszwecken haben wir festgestellt, dass einige Ärzte KI-Programme nutzen, um Beschwerdeantworten für sich selbst zu verfassen. Wir haben die MDU-Mitglieder vor den damit verbundenen Problemen gewarnt, einschließlich der Ungenauigkeit und der Vertraulichkeit der Patienten. Außerdem gibt es Überlegungen zum Datenschutz."

Sie fügte hinzu: "Bei der Bearbeitung von Patientenbeschwerden können KI-Antworten zwar plausibel klingen, aber Ungenauigkeiten enthalten und auf falsche Richtlinien verweisen, die schwer zu erkennen sind, wenn sie in sehr eloquente Textpassagen eingeflochten sind. Es ist von entscheidender Bedeutung, dass Ärzte KI auf ethische Art und Weise nutzen und die einschlägigen Leitlinien und Vorschriften einhalten.

Wir haben keine Ahnung, wie viele Arbeiten OpenAI zum Trainieren ihrer Modelle verwendet hat, aber es sind sicherlich mehr als jeder Arzt gelesen haben könnte. Sie gibt schnelle, überzeugende Antworten und ist im Gegensatz zur manuellen Suche in Forschungsarbeiten sehr einfach zu bedienen. 

Bedeutet das, dass ChatGPT für klinische Ratschläge generell genau ist? Nein. Große Sprachmodelle (LLMs) wie ChatGPT werden mit riesigen Mengen allgemeiner Daten trainiert, was sie flexibler macht, aber ihre Genauigkeit für spezifische medizinische Aufgaben ist zweifelhaft.

KI-Modelle wie ChatGPT lassen sich leicht leiten und folgen oft den Annahmen der Nutzer auf problematische Weise. Darüber hinaus haben Forscher festgestellt, dass diese Modelle übermäßig konservative oder prüde Tendenzen aufweisen können, wenn es um sensible Themen wie sexuelle Gesundheit geht.

Stephen Hughes von der Anglia Ruskin Universität schrieb in The Conservation, “Ich habe ChatGPT gebeten, Schmerzen beim Wasserlassen und einen Ausfluss aus den männlichen Genitalien nach ungeschütztem Geschlechtsverkehr zu diagnostizieren. Ich war erstaunt, dass ich keine Antwort erhielt. Es war, als ob ChatGPT auf eine schüchterne computergesteuerte Weise errötete. Als ich die Erwähnung von Geschlechtsverkehr entfernte, gab ChatGPT eine Differenzialdiagnose ab, die auch Gonorrhö einschloss, also die Krankheit, die ich im Sinn hatte."

Die wahrscheinlich kritischsten Fragen in diesem Zusammenhang sind: Wie genau ist ChatGPT in einem medizinischen Kontext? Und wie groß könnten die Risiken von Fehldiagnosen oder anderen Problemen sein, wenn das so weitergeht?

Generative KI in der medizinischen Praxis

Da Allgemeinmediziner zunehmend mit KI-Tools experimentieren, arbeiten Forscher daran, zu bewerten, wie sie im Vergleich zu herkömmlichen Diagnosemethoden abschneiden. 

A Studie veröffentlicht in Expertensysteme mit Anwendungen führte eine vergleichende Analyse zwischen ChatGPT, herkömmlichen maschinellen Lernmodellen und anderen KI-Systemen für medizinische Diagnosen durch.

Die Forscher fanden heraus, dass ChatGPT zwar vielversprechend war, aber häufig von herkömmlichen Modellen des maschinellen Lernens, die speziell auf medizinischen Datensätzen trainiert wurden, übertroffen wurde. So erreichten beispielsweise mehrschichtige neuronale Perzeptron-Netzwerke die höchste Genauigkeit bei der Diagnose von Krankheiten auf der Grundlage von Symptomen, mit Raten von 81% und 94% bei zwei verschiedenen Datensätzen.

Die Forscher kamen zu dem Schluss, dass ChatGPT und ähnliche KI-Tools zwar Potenzial haben, "ihre Antworten aber oft mehrdeutig und aus dem Kontext gerissen sein können, so dass sie falsche Diagnosen stellen, selbst wenn sie nur unter Berücksichtigung einer bestimmten Gruppe von Klassen eine Antwort geben sollen."

Dies deckt sich mit anderen aktuellen Studien, die das Potenzial von KI in der medizinischen Praxis untersuchen.

Zum Beispiel, Forschung veröffentlicht in JAMA Network Open testete die Fähigkeit von GPT-4, komplexe Patientenfälle zu analysieren. Obwohl es in einigen Bereichen vielversprechende Ergebnisse zeigte, machte GPT-4 immer noch Fehler, von denen einige in realen klinischen Szenarien gefährlich sein könnten.

Es gibt jedoch einige Ausnahmen. Eine Studie Die vom New York Eye and Ear Infirmary of Mount Sinai (NYEE) durchgeführte Studie zeigte, dass GPT-4 bei der Diagnose und Behandlung von Augenkrankheiten mit menschlichen Augenärzten mithalten oder diese sogar übertreffen kann.

Bei Glaukom lieferte GPT-4 sehr genaue und detaillierte Antworten, die die von echten Augenärzten übertrafen. 

KI-Entwickler wie OpenAI und NVIDIA schulen jetzt spezialisierte medizinische KI-Assistenten, um Kliniker zu unterstützen und so die Defizite von Basismodellen wie GP-4 auszugleichen.

OpenAI hat bereits eine Partnerschaft mit Gesundheitstechnologie-Unternehmen Color Health um einen KI-"Copiloten" für die Krebsbehandlung zu entwickeln, was zeigt, wie diese Tools immer spezifischer für die klinische Praxis werden sollen.  

Abwägung von Nutzen und Risiken

Es gibt zahllose Studien, in denen speziell ausgebildete KI-Modelle bei der Erkennung von Krankheiten anhand von Diagnosebildern wie MRT und Röntgenaufnahmen mit Menschen verglichen werden. 

KI-Techniken haben Ärzte in allen Bereichen überflügelt, von Krebs und die Diagnose von Augenkrankheiten zu Alzheimerkrankheit und Früherkennung der Parkinson-Krankheit. Ein KI-Modell mit dem Namen "Mia" erwies sich bei der Analyse von mehr als 10.000 Mammographie-Scans als effektiv, zeigte bekannte Krebsfälle an und entdeckte bei 11 Frauen Krebs, den die Ärzte übersehen hatten. 

Diese speziell entwickelten KI-Tools sind jedoch sicherlich nicht dasselbe wie das Parsen von Notizen und Befunden in ein allgemeines Sprachmodell wie ChatGPT und die Aufforderung, allein daraus eine Diagnose abzuleiten. 

Dennoch ist es schwierig, der Versuchung zu widerstehen, dies zu tun und schnelle, informative Antworten zu erhalten.

Es ist kein Geheimnis, dass die Gesundheitsdienste überlastet sind. KI-Tools sparen Zeit, das macht sie für überforderte Ärzte so attraktiv.

Wir haben gesehen, dass sich dies im gesamten öffentlichen Sektor widerspiegelt, z. B. im Bildungswesen, wo Lehrer in großem Umfang KI einsetzen, um Materialien zu erstellen, Arbeiten zu markieren und vieles mehr. 

Wird Ihr Arzt also Ihre Notizen in ChatGPT analysieren und Ihnen auf der Grundlage der Ergebnisse ein Rezept für Ihren nächsten Arztbesuch ausstellen? Durchaus möglich. Dies ist ein weiterer Bereich, in dem das Versprechen der KI-Technologie, wertvolle Zeit zu sparen, kaum zu leugnen ist. 

Ein Teil des Weges nach vorn wird darin bestehen, einen Kodex für die Nutzung von KI in der Arztpraxis zu entwickeln. Die British Medical Association hat bereits klare Richtlinien für die Integration von KI in die klinische Praxis gefordert.

"Die medizinische Gemeinschaft muss Wege finden, um sowohl Ärzte und Auszubildende als auch Patienten über die sichere Anwendung dieser Instrumente aufzuklären", so das Fazit der Autoren der BMJ-Studie.

Neben der Aufklärung sind kontinuierliche Forschung, klare Leitlinien und ein Engagement für die Patientensicherheit von entscheidender Bedeutung, um die Vorteile der KI zu nutzen und gleichzeitig die Risiken auszugleichen. Es wird schwierig sein, alles richtig zu machen. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen