Uit onderzoek blijkt dat AI-chatbots misleidend gezondheidsadvies kunnen geven

Medisch beoordeeld door Carmen Pope, Senior Medical Editor, B. Pharm. Laatst bijgewerkt op 21 april 2026.

via HealthDay

DINSDAG 21 april 2026 — "Heb ik echt chemotherapie nodig?"

"Is dit natuurlijke middel veiliger?"

"Veroorzaakt het eten van suiker kanker?"

Naarmate steeds meer mensen zich tot kunstmatige intelligentie (AI) wenden voor snelle antwoorden op dit soort gezondheidsvragen, blijkt uit een nieuwe studie dat het advies dat zij ontvangen soms onvolledig, misleidend of potentieel schadelijk kan zijn.

Onderzoekers hebben verschillende populaire AI-chatbots getest om te zien hoe ze omgaan met veelvoorkomende medische vragen, waaronder onderwerpen waarvan bekend is dat ze vatbaar zijn voor verkeerde informatie.

De resultaten, onlangs gepubliceerd in BMJ Open, gaven aanleiding tot bezorgdheid.

In het onderzoek was bijna de helft van de chatbotreacties 'problematisch'. Ongeveer 30% was 'enigszins problematisch', wat betekent dat ze geen volledige context hadden, terwijl 19,6% als 'zeer problematisch' werd beschouwd, wat betekent dat ze onnauwkeurige of misleidende informatie boden.

Het team, gevestigd aan het Lundquist Institute for Biomedical Innovation in het Harbor-UCLA Medical Center, testte tools als ChatGPT, Google's Gemini, Meta AI, DeepSeek en Grok.

Hoofdauteur Nicholas Tiller zei dat de vragen zijn ontworpen om weer te geven hoe mensen vaak online naar informatie zoeken.

"Veel mensen stellen precies deze vragen", vertelde Tiller aan NBC News. “Als iemand gelooft dat rauwe melk heilzaam zal zijn, dan zullen de zoektermen al voorzien zijn van dat soort taal.”

Onderzoekers vroegen naar onderwerpen als kanker, vaccins en of producten als 5G-technologie of anti-transpiranten kanker veroorzaken.

Hoewel veel reacties nauwkeurige waarschuwingen bevatten, introduceerden sommigen risicovolle ideeën.

Wanneer chatbots bijvoorbeeld werd gevraagd naar alternatieven voor chemotherapie, zeiden ze vaak dat deze opties niet bewezen waren, maar stelden ze toch behandelingen voor zoals acupunctuur, kruidenremedies en speciale diëten, zo meldde NBC News. Sommigen wezen mensen zelfs op klinieken die deze diensten aanbieden.

Onderzoekers noemden dit een 'valse balans', waarbij wetenschappelijke en onwetenschappelijke informatie even zwaar weegt.

Artsen waarschuwen dat dit soort berichten schadelijk kan zijn.

“Sommige van deze dingen doen mensen direct pijn”, zegt Dr. Michael Foote, assistent-professor aan het Memorial Sloan Kettering Cancer Center in New York City, die niet betrokken was bij het onderzoek.

"Sommige van deze medicijnen zijn niet beoordeeld door de [Amerikaanse Food and Drug Administration], kunnen je lever schaden, je stofwisseling schaden en sommige van deze medicijnen kunnen je pijn doen doordat patiënten erop vertrouwen en geen conventionele behandelingen ondergaan," zei hij.

Foote voegde eraan toe dat AI ook onnodige angst kan veroorzaken.

"Ik heb meegemaakt dat patiënten huilend binnenkwamen, erg overstuur omdat de AI-chatbot hen vertelde dat ze nog zes tot twaalf maanden te leven hadden, wat natuurlijk volkomen belachelijk is", vertelde hij aan NBC News.

Uit het onderzoek bleek dat de prestaties van chatbots op alle platforms vergelijkbaar waren, maar dat Grok overall de laagste scoorde.

Ongeveer een derde van de volwassenen gebruikt nu AI voor gezondheidsadvies, volgens een recente KFF poll.

Maar AI is nog niet klaar voor prime time, waarschuwen experts.

"De technologie die nodig is, de methodologie die nodig is voor de FDA, voor mensen, voor artsen, om te begrijpen hoe het werkt en om vertrouwen in het systeem te hebben, is er nog niet", zegt Dr. Ashwin Ramaswamy, urologie-instructeur aan het Mount Sinai Hospital in New York City.

Bronnen

  • NBC News, 20 april 2026
  • Disclaimer: Statistische gegevens in medische artikelen geven algemene trends weer en hebben geen betrekking op individuen. Individuele factoren kunnen sterk variëren. Vraag altijd persoonlijk medisch advies voor individuele beslissingen over de gezondheidszorg.

    Bron: HealthDay

    Lees verder

    Disclaimer

    Er is alles aan gedaan om ervoor te zorgen dat de informatie die wordt verstrekt door Drugslib.com accuraat en up-to-date is -datum en volledig, maar daarvoor wordt geen garantie gegeven. De hierin opgenomen geneesmiddelinformatie kan tijdgevoelig zijn. De informatie van Drugslib.com is samengesteld voor gebruik door zorgverleners en consumenten in de Verenigde Staten en daarom garandeert Drugslib.com niet dat gebruik buiten de Verenigde Staten gepast is, tenzij specifiek anders aangegeven. De geneesmiddeleninformatie van Drugslib.com onderschrijft geen geneesmiddelen, diagnosticeert geen patiënten of beveelt geen therapie aan. De geneesmiddeleninformatie van Drugslib.com is een informatiebron die is ontworpen om gelicentieerde zorgverleners te helpen bij de zorg voor hun patiënten en/of om consumenten te dienen die deze service zien als een aanvulling op en niet als vervanging voor de expertise, vaardigheden, kennis en beoordelingsvermogen van de gezondheidszorg. beoefenaars.

    Het ontbreken van een waarschuwing voor een bepaald medicijn of een bepaalde medicijncombinatie mag op geen enkele manier worden geïnterpreteerd als een indicatie dat het medicijn of de medicijncombinatie veilig, effectief of geschikt is voor een bepaalde patiënt. Drugslib.com aanvaardt geen enkele verantwoordelijkheid voor enig aspect van de gezondheidszorg die wordt toegediend met behulp van de informatie die Drugslib.com verstrekt. De informatie in dit document is niet bedoeld om alle mogelijke toepassingen, aanwijzingen, voorzorgsmaatregelen, waarschuwingen, geneesmiddelinteracties, allergische reacties of bijwerkingen te dekken. Als u vragen heeft over de medicijnen die u gebruikt, neem dan contact op met uw arts, verpleegkundige of apotheker.

    Populaire zoekwoorden