ChatGPT sprawdza się jako „partner” w diagnozowaniu pacjentów

Przebadany medycznie przez Drugs.com.

Autor: Ernie Mundell HealthDay Reporter

WTOREK, grudzień 12 lutego 2023 r. — Mózgi lekarzy świetnie podejmują decyzje, ale z nowego badania wynika, że ​​nawet najmądrzejszym lekarzom przydałaby się niewielka pomoc diagnostyczna ze strony ChatGPT.

Główna korzyść wynika z procesu myślenia zwanego „rozumowaniem probabilistycznym” – wiedzy o prawdopodobieństwie, że coś się wydarzy (lub nie).

„Ludzie zmagają się z probabilistycznym rozumowaniem, praktyką podejmowania decyzji na podstawie obliczania szans” – wyjaśnił główny autor badania Dr. Adam Rodman z Beth Israel Deaconess Medical Center w Bostonie.

„Rozumowanie probabilistyczne jest jednym z kilku elementów stawiania diagnozy, która jest niezwykle złożonym procesem, w którym wykorzystuje się wiele różnych strategii poznawczych ” – wyjaśnił w komunikacie prasowym Beth Israel. „Zdecydowaliśmy się oceniać rozumowanie probabilistyczne w izolacji, ponieważ jest to dobrze znany obszar, w którym ludzie mogliby skorzystać ze wsparcia”.

Zespół Beth Israel wykorzystał dane z opublikowane wcześniej badanie przeprowadzone wśród 550 pracowników służby zdrowia. Wszystkich poproszono o przeprowadzenie probabilistycznego rozumowania w celu zdiagnozowania pięciu odrębnych przypadków medycznych.

Jednak w nowym badaniu zespół Rodmana podał te same pięć przypadków algorytmowi sztucznej inteligencji ChatGPT, dużemu modelowi językowemu (LLM), ChatGPT-4.

Przypadki obejmowały informacje z typowych badań medycznych, takich jak tomografia klatki piersiowej w kierunku zapalenia płuc, mammografia w kierunku raka piersi, test wysiłkowy w kierunku choroby wieńcowej oraz posiew moczu w kierunku zakażenia dróg moczowych.

Na podstawie tych informacji chatbot wykorzystał własne rozumowanie probabilistyczne, aby ponownie ocenić prawdopodobieństwo różnych diagnoz pacjentów.

W pięciu przypadkach chatbot był dokładniejszy niż ludzki lekarz w dwóch; podobnie dokładne dla kolejnych dwóch; i mniej dokładne dla jednego. Naukowcy uznali to za „remis” przy porównywaniu ludzi z chatbotem pod kątem diagnoz medycznych.

Ale chatbot ChatGPT-4 wyróżniał się, gdy testy pacjentów wykazywały wynik negatywny (a nie pozytywny), stając się dokładniejszy przy diagnozę niż lekarze we wszystkich pięciu przypadkach.

„Ludzie czasami uważają, że ryzyko jest wyższe niż w przypadku negatywnego wyniku testu, co może prowadzić do nadmiernego leczenia, większej liczby testów i zbyt wielu leków” – Rodman wskazany. Jest lekarzem chorób wewnętrznych i badaczem na oddziale medycyny w Beth Israel.

Badanie opublikowano 11 grudnia w JAMA Network Open.

Możliwe zatem, że pewnego dnia lekarze będą współpracować z sztuczną inteligencją, aby jeszcze dokładniej diagnozować pacjentów – twierdzą naukowcy.

Rodman nazwał tę perspektywę „ekscytującą”.

„Nawet jeśli są niedoskonałe, łatwość obsługi ich [chatbotów] i możliwość zintegrowania ich z przebiegiem pracy klinicznej teoretycznie mogłyby skłonić ludzi do podejmowania lepszych decyzji ”, powiedział. „Bardzo potrzebne są przyszłe badania nad zbiorową inteligencją ludzką i sztuczną.”

Źródła

  • Beth Israel Deaconess Medical Center, komunikat prasowy, 11 grudnia, 2023
  • Zastrzeżenie: Dane statystyczne w artykułach medycznych przedstawiają ogólne trendy i nie dotyczą poszczególnych osób. Czynniki indywidualne mogą się znacznie różnić. Zawsze zasięgnij spersonalizowanej porady medycznej w przypadku indywidualnych decyzji dotyczących opieki zdrowotnej.

    Źródło: HealthDay

    Czytaj więcej

    Zastrzeżenie

    Dołożono wszelkich starań, aby informacje dostarczane przez Drugslib.com były dokładne i aktualne -data i kompletność, ale nie udziela się na to żadnej gwarancji. Informacje o lekach zawarte w niniejszym dokumencie mogą mieć charakter wrażliwy na czas. Informacje na stronie Drugslib.com zostały zebrane do użytku przez pracowników służby zdrowia i konsumentów w Stanach Zjednoczonych, dlatego też Drugslib.com nie gwarantuje, że użycie poza Stanami Zjednoczonymi jest właściwe, chyba że wyraźnie wskazano inaczej. Informacje o lekach na Drugslib.com nie promują leków, nie diagnozują pacjentów ani nie zalecają terapii. Informacje o lekach na Drugslib.com to źródło informacji zaprojektowane, aby pomóc licencjonowanym pracownikom służby zdrowia w opiece nad pacjentami i/lub służyć konsumentom traktującym tę usługę jako uzupełnienie, a nie substytut wiedzy specjalistycznej, umiejętności, wiedzy i oceny personelu medycznego praktycy.

    Brak ostrzeżenia dotyczącego danego leku lub kombinacji leków w żadnym wypadku nie powinien być interpretowany jako wskazanie, że lek lub kombinacja leków jest bezpieczna, skuteczna lub odpowiednia dla danego pacjenta. Drugslib.com nie ponosi żadnej odpowiedzialności za jakikolwiek aspekt opieki zdrowotnej zarządzanej przy pomocy informacji udostępnianych przez Drugslib.com. Informacje zawarte w niniejszym dokumencie nie obejmują wszystkich możliwych zastosowań, wskazówek, środków ostrożności, ostrzeżeń, interakcji leków, reakcji alergicznych lub skutków ubocznych. Jeśli masz pytania dotyczące przyjmowanych leków, skontaktuj się ze swoim lekarzem, pielęgniarką lub farmaceutą.

    Popularne słowa kluczowe