ChatGPT leistet gute Dienste als „Partner“ bei der Diagnose von Patienten

Medizinisch überprüft von Drugs.com.

Von Ernie Mundell HealthDay Reporter

DIENSTAG, 13.12 12.12.2023 – Das Gehirn von Ärzten ist ein großartiger Entscheidungsträger, aber selbst die klügsten Ärzte könnten mit ein wenig diagnostischer Hilfe von ChatGPT gut bedient sein, so eine neue Studie.

Der Hauptvorteil ergibt sich aus einem Denkprozess, der als „probabilistisches Denken“ bekannt ist – dem Wissen um die Wahrscheinlichkeit, dass etwas passieren wird (oder nicht).

„Menschen haben Schwierigkeiten mit probabilistischem Denken, der Praxis, Entscheidungen auf der Grundlage der Berechnung von Gewinnchancen zu treffen“, erklärte der Hauptautor der Studie Dr. Adam Rodman vom Beth Israel Deaconess Medical Center in Boston.

„Probabilistisches Denken ist eine von mehreren Komponenten bei der Diagnosestellung, einem unglaublich komplexen Prozess, der eine Vielzahl unterschiedlicher kognitiver Strategien nutzt.“ „, erklärte er in einer Pressemitteilung von Beth Israel. „Wir haben uns entschieden, probabilistisches Denken isoliert zu bewerten, weil es ein bekannter Bereich ist, in dem Menschen Unterstützung gebrauchen könnten.“

Das Beth Israel-Team nutzte Daten aus eine zuvor veröffentlichte Umfrage unter 550 Ärzten. Alle wurden gebeten, probabilistische Überlegungen anzustellen, um fünf verschiedene medizinische Fälle zu diagnostizieren.

In der neuen Studie übergab Rodmans Team jedoch dieselben fünf Fälle dem KI-Algorithmus von ChatGPT, dem Large Language Model (LLM), ChatGPT-4.

Die Fälle umfassten Informationen aus gängigen medizinischen Tests, wie einem Brustscan auf Lungenentzündung, einer Mammographie auf Brustkrebs, einem Stresstest auf koronare Herzkrankheit und einer Urinkultur auf Harnwegsinfektionen.

Auf der Grundlage dieser Informationen nutzte der Chatbot seine eigene probabilistische Argumentation, um die Wahrscheinlichkeit verschiedener Patientendiagnosen neu zu bewerten.

Von den fünf Fällen war der Chatbot in zwei Fällen genauer als der menschliche Arzt; ähnlich genau für zwei weitere; und zum einen weniger genau. Die Forscher betrachteten dies als „Unentschieden“, wenn sie Menschen mit dem Chatbot für medizinische Diagnosen verglichen.

Der ChatGPT-4-Chatbot zeichnete sich jedoch aus, wenn die Tests eines Patienten negativ (statt positiv) ausfielen, und wurde genauer „Menschen haben manchmal das Gefühl, dass das Risiko höher ist als nach einem negativen Testergebnis, was zu einer Überbehandlung, mehr Tests und zu vielen Medikamenten führen kann“, sagt Rodman wies darauf hin. Er ist Internist und Prüfarzt in der medizinischen Abteilung von Beth Israel.

Die Studie wurde am 11. Dezember in JAMA Network Open.

Dann ist es möglich, dass Ärzte eines Tages mit KI zusammenarbeiten, um bei der Patientendiagnose noch genauer zu werden, sagten die Forscher.

Rodman nannte diese Aussicht „aufregend.“

„Auch wenn sie unvollkommen sind, könnten die Benutzerfreundlichkeit und die Fähigkeit ihrer [Chatbots], in klinische Arbeitsabläufe integriert zu werden, theoretisch dazu führen, dass Menschen bessere Entscheidungen treffen.“ “, sagte er. „Zukünftige Forschung zur kollektiven menschlichen und künstlichen Intelligenz ist dringend erforderlich.“

Quellen

  • Beth Israel Deaconess Medical Center, Pressemitteilung, 11. Dezember, 2023
  • Haftungsausschluss: Statistische Daten in medizinischen Artikeln stellen allgemeine Trends dar und beziehen sich nicht auf Einzelpersonen. Einzelne Faktoren können stark variieren. Immer Holen Sie sich personalisierten medizinischen Rat für individuelle Gesundheitsentscheidungen.

    Quelle: HealthDay

    Mehr lesen

    Haftungsausschluss

    Es wurden alle Anstrengungen unternommen, um sicherzustellen, dass die von Drugslib.com bereitgestellten Informationen korrekt und aktuell sind aktuell und vollständig, eine Garantie hierfür kann jedoch nicht übernommen werden. Die hierin enthaltenen Arzneimittelinformationen können zeitkritisch sein. Die Informationen von Drugslib.com wurden für die Verwendung durch medizinisches Fachpersonal und Verbraucher in den Vereinigten Staaten zusammengestellt. Daher übernimmt Drugslib.com keine Gewähr dafür, dass eine Verwendung außerhalb der Vereinigten Staaten angemessen ist, sofern nicht ausdrücklich anders angegeben. Die Arzneimittelinformationen von Drugslib.com befürworten keine Arzneimittel, diagnostizieren keine Patienten und empfehlen keine Therapie. Die Arzneimittelinformationen von Drugslib.com sind eine Informationsquelle, die zugelassenen Ärzten bei der Betreuung ihrer Patienten helfen soll und/oder Verbrauchern dienen soll, die diesen Service als Ergänzung und nicht als Ersatz für die Fachkenntnisse, Fähigkeiten, Kenntnisse und Urteilsvermögen im Gesundheitswesen betrachten Praktiker.

    Das Fehlen einer Warnung für ein bestimmtes Medikament oder eine bestimmte Medikamentenkombination sollte keinesfalls als Hinweis darauf ausgelegt werden, dass das Medikament oder die Medikamentenkombination für einen bestimmten Patienten sicher, wirksam oder geeignet ist. Drugslib.com übernimmt keinerlei Verantwortung für irgendeinen Aspekt der Gesundheitsversorgung, die mithilfe der von Drugslib.com bereitgestellten Informationen durchgeführt wird. Die hierin enthaltenen Informationen sollen nicht alle möglichen Verwendungen, Anweisungen, Vorsichtsmaßnahmen, Warnungen, Arzneimittelwechselwirkungen, allergischen Reaktionen oder Nebenwirkungen abdecken. Wenn Sie Fragen zu den Medikamenten haben, die Sie einnehmen, wenden Sie sich an Ihren Arzt, das medizinische Fachpersonal oder Ihren Apotheker.

    Beliebte Schlüsselwörter