KI in der Arztpraxis: Hausärzte nutzen ChatGPT und andere Tools für Diagnosen

19. September 2024

  • Ärzte nutzen ChatGPT zur Unterstützung bei der klinischen Verwaltung und Entscheidungsfindung
  • 20% von etwa 1000 Hausärzten im Vereinigten Königreich gaben zu, generative KI-Tools zu verwenden
  • Dies wirft Fragen zu den Risiken der KI für die Diagnosegenauigkeit und die Patientensicherheit auf
KI-Medizin

Eine neue Umfrage hat ergeben, dass jeder fünfte Allgemeinmediziner im Vereinigten Königreich KI-Tools wie ChatGPT einsetzt, um bei täglichen Aufgaben wie dem Vorschlagen von Diagnosen und dem Verfassen von Patientenbriefen zu helfen. 

Die ForschungDie in der Fachzeitschrift BMJ Health and Care Informatics veröffentlichte Studie befragte 1.006 Allgemeinmediziner in ganz Europa zu ihrem Einsatz von KI-Chatbots in der klinischen Praxis. 

Etwa 20% gaben an, generative KI-Tools zu verwenden, wobei ChatGPT am beliebtesten war. Von denjenigen, die KI nutzen, gaben 29% an, dass sie sie zur Erstellung von Dokumentationen nach Patiententerminen einsetzen, während 28% sie nutzen, um mögliche Diagnosen vorzuschlagen.

"Diese Ergebnisse deuten darauf hin, dass Hausärzte einen Nutzen aus diesen Tools ziehen können, insbesondere bei administrativen Aufgaben und zur Unterstützung der klinischen Argumentation", so die Studienautoren. 

Wir haben keine Ahnung, wie viele Arbeiten OpenAI zum Trainieren ihrer Modelle verwendet hat, aber es sind sicherlich mehr als jeder Arzt gelesen haben könnte. Sie gibt schnelle, überzeugende Antworten und ist im Gegensatz zur manuellen Suche in Forschungsarbeiten sehr einfach zu bedienen. 

Bedeutet das, dass ChatGPT generell für klinische Ratschläge geeignet ist? Ganz und gar nicht. Große Sprachmodelle (LLMs) wie ChatGPT werden auf riesigen Mengen allgemeiner Daten vortrainiert, was sie flexibler, aber für spezifische medizinische Aufgaben zweifelhaft genau macht.

Es ist leicht, sie an der Nase herumzuführen, denn das KI-Modell neigt dazu, sich in problematischer Weise auf die Seite der eigenen Annahmen zu stellen und sich anbiedernd zu verhalten.

Außerdem stellen einige Forscher fest, dass ChatGPT konservativ oder prüde sein kann, wenn es um heikle Themen wie sexuelle Gesundheit geht.

Wie Stephen Hughes von der Anglia Ruskin University schrieb in The Conservation, “Ich habe ChatGPT gebeten, Schmerzen beim Wasserlassen und einen Ausfluss aus den männlichen Genitalien nach ungeschütztem Geschlechtsverkehr zu diagnostizieren. Ich war erstaunt, dass ich keine Antwort erhielt. Es war, als ob ChatGPT auf eine schüchterne computergesteuerte Weise errötete. Als ich die Erwähnung von Geschlechtsverkehr entfernte, gab ChatGPT eine Differenzialdiagnose ab, die auch Gonorrhö einschloss, also die Krankheit, die ich im Sinn hatte." 

Dr. Charlotte Blease, die Hauptautorin der Studie, kommentierte: "Trotz mangelnder Anleitung zu diesen Tools und unklarer Arbeitsrichtlinien berichten Allgemeinmediziner, dass sie sie zur Unterstützung ihrer Arbeit nutzen. Die medizinische Gemeinschaft muss Wege finden, um Ärzte und Auszubildende über die potenziellen Vorteile dieser Tools bei der Zusammenfassung von Informationen, aber auch über die Risiken in Form von Halluzinationen, algorithmischen Verzerrungen und der potenziellen Beeinträchtigung der Privatsphäre der Patienten aufzuklären."

Dieser letzte Punkt ist entscheidend. Die Weitergabe von Patientendaten an KI-Systeme stellt wahrscheinlich eine Verletzung der Privatsphäre und des Vertrauens der Patienten dar.

Dr. Ellie Mein, medizinische Rechtsberaterin bei der Medical Defence Union, stimmte in den Kernpunkten zu: "Neben den in der BMJ-Veröffentlichung genannten Verwendungszwecken haben wir festgestellt, dass einige Ärzte KI-Programme nutzen, um Beschwerdeantworten für sich selbst zu verfassen. Wir haben die MDU-Mitglieder vor den damit verbundenen Problemen gewarnt, einschließlich der Ungenauigkeit und der Vertraulichkeit der Patienten. Außerdem gibt es Überlegungen zum Datenschutz."

Sie fügte hinzu: "Bei der Bearbeitung von Patientenbeschwerden können KI-Antworten zwar plausibel klingen, aber Ungenauigkeiten enthalten und auf falsche Richtlinien verweisen, die schwer zu erkennen sind, wenn sie in sehr eloquente Textpassagen eingeflochten sind. Es ist von entscheidender Bedeutung, dass Ärzte KI auf ethische Art und Weise nutzen und die einschlägigen Leitlinien und Vorschriften einhalten.

Die wahrscheinlich kritischsten Fragen in diesem Zusammenhang sind: Wie genau ist ChatGPT in einem medizinischen Kontext? Und wie groß könnten die Risiken von Fehldiagnosen oder anderen Problemen sein, wenn das so weitergeht?

Generative KI in der medizinischen Praxis

Da Allgemeinmediziner zunehmend mit KI-Tools experimentieren, arbeiten Forscher daran, zu bewerten, wie sie im Vergleich zu herkömmlichen Diagnosemethoden abschneiden. 

A Studie veröffentlicht in Expertensysteme mit Anwendungen führte eine vergleichende Analyse zwischen ChatGPT, herkömmlichen maschinellen Lernmodellen und anderen KI-Systemen für medizinische Diagnosen durch.

Die Forscher fanden heraus, dass ChatGPT zwar vielversprechend war, aber häufig von herkömmlichen Modellen des maschinellen Lernens, die speziell auf medizinischen Datensätzen trainiert wurden, übertroffen wurde. So erreichten beispielsweise mehrschichtige neuronale Perzeptron-Netzwerke die höchste Genauigkeit bei der Diagnose von Krankheiten auf der Grundlage von Symptomen, mit Raten von 81% und 94% bei zwei verschiedenen Datensätzen.

Die Forscher kamen zu dem Schluss, dass ChatGPT und ähnliche KI-Tools zwar Potenzial haben, "ihre Antworten aber oft mehrdeutig und aus dem Kontext gerissen sein können, so dass sie falsche Diagnosen stellen, selbst wenn sie nur unter Berücksichtigung einer bestimmten Gruppe von Klassen eine Antwort geben sollen."

Dies deckt sich mit anderen aktuellen Studien, die das Potenzial von KI in der medizinischen Praxis untersuchen.

Zum Beispiel, Forschung veröffentlicht in JAMA Network Open testete die Fähigkeit von GPT-4, komplexe Patientenfälle zu analysieren. Obwohl es in einigen Bereichen vielversprechende Ergebnisse zeigte, machte GPT-4 immer noch Fehler, von denen einige in realen klinischen Szenarien gefährlich sein könnten.

Es gibt jedoch einige Ausnahmen. Eine Studie Die vom New York Eye and Ear Infirmary of Mount Sinai (NYEE) durchgeführte Studie zeigte, dass GPT-4 bei der Diagnose und Behandlung von Augenkrankheiten mit menschlichen Augenärzten mithalten oder diese sogar übertreffen kann.

Bei Glaukom lieferte GPT-4 sehr genaue und detaillierte Antworten, die die von echten Augenärzten übertrafen. 

KI-Entwickler wie OpenAI und NVIDIA trainieren speziell entwickelte medizinische KI-Assistenten zur Unterstützung von Ärzten und hoffen, dass sie die Defizite von Basis-Grenzmodellen wie GP-4 ausgleichen können.

OpenAI hat bereits eine Partnerschaft mit Gesundheitstechnologie-Unternehmen Color Health um einen KI-"Copiloten" für die Krebsbehandlung zu entwickeln, was zeigt, wie diese Tools immer spezifischer für die klinische Praxis werden sollen.  

Abwägung von Nutzen und Risiken

Es gibt zahllose Studien, in denen speziell ausgebildete KI-Modelle bei der Erkennung von Krankheiten anhand von Diagnosebildern wie MRT und Röntgenaufnahmen mit Menschen verglichen werden. 

KI-Techniken haben Ärzte in allen Bereichen überflügelt, von Krebs und die Diagnose von Augenkrankheiten zu Alzheimerkrankheit und Früherkennung der Parkinson-Krankheit. Eine davon, "Mia", erwies sich bei der Analyse von mehr als 10.000 Mammographie-Scans als effektiv, zeigte bekannte Krebsfälle an und entdeckte bei 11 Frauen Krebs, den die Ärzte übersehen hatten. 

Diese speziell entwickelten KI-Tools sind jedoch sicherlich nicht dasselbe wie das Parsen von Notizen und Befunden in ein Sprachmodell wie ChatGPT und die Aufforderung, allein daraus eine Diagnose abzuleiten. 

Dennoch ist es schwierig, dieser Versuchung zu widerstehen. Es ist kein Geheimnis, dass die Gesundheitsdienste überlastet sind. Die Wartezeiten im NHS sind so hoch wie nie zuvor, und in manchen Gegenden ist es sogar schwierig, einen Termin beim Hausarzt zu bekommen. 

KI-Tools zielen auf zeitaufwändige Verwaltungsaufgaben ab und sind daher für überlastete Ärzte sehr attraktiv. Wir haben gesehen, dass sich dies in zahlreichen Bereichen des öffentlichen Sektors widerspiegelt, z. B. im Bildungswesen, wo Lehrer in großem Umfang KI einsetzen, um Materialien zu erstellen, Arbeiten zu markieren und vieles mehr. 

Wird Ihr Arzt also Ihre Notizen in ChatGPT analysieren und Ihnen auf der Grundlage der Ergebnisse ein Rezept für Ihren nächsten Arztbesuch ausstellen? Durchaus möglich. Es ist nur eine weitere Grenze, bei der das Versprechen der Technologie, Zeit zu sparen, einfach nicht zu leugnen ist. 

Der beste Weg nach vorn könnte die Entwicklung eines Nutzungskodex sein. Die British Medical Association hat klare Richtlinien für die Integration von KI in die klinische Praxis gefordert.

"Die medizinische Gemeinschaft muss Wege finden, um sowohl Ärzte und Auszubildende als auch Patienten über die sichere Anwendung dieser Instrumente aufzuklären", so das Fazit der Autoren der BMJ-Studie.

Neben Beratung und Aufklärung sind kontinuierliche Forschung, klare Leitlinien und ein Engagement für die Patientensicherheit von entscheidender Bedeutung, um die Vorteile der KI zu nutzen und gleichzeitig die Risiken auszugleichen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen