|

Künstliche Intelligenz in der Medizin

KI kann Medizin-Examen. Aber im echten Leben fällt sie durch.🤔

Neue Studie in *Nature Medicine* (09.02.2026):

1.298 Menschen sollten bei 10 Fällen entscheiden:
👉 Was könnte es sein?
👉 Was soll ich jetzt tun? (zu Hause bleiben bis Ambulanz)

Vier Gruppen:
KI-Chatbots (u. a. GPT-4o) vs. Kontrollgruppe (Google/NHS/“wie immer”).

Das Ergebnis ist ein Warnsignal:

✅ KI allein (wenn man sie direkt testet):
– trifft die richtigen Krankheiten in ~95%* der Fälle
– richtige Handlungsempfehlung in ~56%

❌ Mensch + KI zusammen.
– richtige Krankheiten unter 35%
– richtige Handlung unter 45%
– nicht besser als Google

Kurz gesagt:
Die KI ist schlau. Aber die Zusammenarbeit klappt nicht.

Warum?
Weil echte Menschen:

🙃 Symptome unvollständig beschreiben
🙃 falsch fragen (zu eng, zu vage)
🙃 KI-Antworten nicht richtig einordnen
🙃 sich von „klingt überzeugend“ leiten lassen

Die wichtigsten Botschaften für das Gesundheitswesen:

👉 Keine „KI-Frontdoor“ für Patient:innen ohne harte Tests mit echten Nutzer:innen.

👉 Benchmarks & Examen sind gut. Aber nicht der Alltag.

👉 Wer das ausrollt, muss es bauen wie eine gute Anamnese:
klare Fragen, klare Warnhinweise, klare nächste Schritte.

Habt ihr schon Praxiserfahrung gesammelt?

https://lnkd.in/d4e2jZ74

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert