Künstliche Intelligenz in der Medizin
KI kann Medizin-Examen. Aber im echten Leben fällt sie durch.🤔
Neue Studie in *Nature Medicine* (09.02.2026):
1.298 Menschen sollten bei 10 Fällen entscheiden:
👉 Was könnte es sein?
👉 Was soll ich jetzt tun? (zu Hause bleiben bis Ambulanz)
Vier Gruppen:
KI-Chatbots (u. a. GPT-4o) vs. Kontrollgruppe (Google/NHS/“wie immer”).
Das Ergebnis ist ein Warnsignal:
✅ KI allein (wenn man sie direkt testet):
– trifft die richtigen Krankheiten in ~95%* der Fälle
– richtige Handlungsempfehlung in ~56%
❌ Mensch + KI zusammen.
– richtige Krankheiten unter 35%
– richtige Handlung unter 45%
– nicht besser als Google
Kurz gesagt:
Die KI ist schlau. Aber die Zusammenarbeit klappt nicht.
Warum?
Weil echte Menschen:
🙃 Symptome unvollständig beschreiben
🙃 falsch fragen (zu eng, zu vage)
🙃 KI-Antworten nicht richtig einordnen
🙃 sich von „klingt überzeugend“ leiten lassen
Die wichtigsten Botschaften für das Gesundheitswesen:
👉 Keine „KI-Frontdoor“ für Patient:innen ohne harte Tests mit echten Nutzer:innen.
👉 Benchmarks & Examen sind gut. Aber nicht der Alltag.
👉 Wer das ausrollt, muss es bauen wie eine gute Anamnese:
klare Fragen, klare Warnhinweise, klare nächste Schritte.
Habt ihr schon Praxiserfahrung gesammelt?
https://lnkd.in/d4e2jZ74
