KI in der Medizin – auch eine Frage des Vertrauens und der Ethik
Nichts Genaues weiß man (noch) nichtBirgit Frohn Dipl. biol.Künstliche Intelligenz (KI) macht allseits Furore, auch in der Medizin. Doch an der schönen neuen Welt existieren gerade in diesem sensiblen Feld berechtigte Zweifel. Denn lässt sich dem Kollegen KI wirklich vertrauen und wie weit? Fraglich ist zudem, ob eine auf Wahrscheinlichkeiten basierende Technologie auch für medizinethisch komplexe Fälle geeignet ist. Die Skepsis wächst und die Maxime lautet deshalb, nach wie vor vorsichtig zu sein.
Ist künstliche Intelligenz der bessere Arzt?
Die KI verfügt inzwischen über bemerkenswerte Fähigkeiten. Diese lassen selbstverständlich auch den gesamten medizinischen Bereich maximal interessiert aufhorchen. Nicht zuletzt, weil sich angesichts der zahlreichen Studien aus jüngster Zeit immer mehr die Frage aufdrängt, ob KI nicht eigentlich der bessere Arzt sei.
In der Tat: „Die künstliche Intelligenz lockt mit beeindruckenden Ergebnissen“, bestätigt die Psychologin Nadine Schlicker, wissenschaftliche Mitarbeiterin am Institut für Künstliche Intelligenz in der Medizin an der Philipps-Universität Marburg. So konnte beispielsweise bereits 2020 nachgewiesen werden, dass KI Mammographie-Aufnahmen auf dem Niveau erfahrener Radiologen auswerten kann (1). Erst kürzlich, Ende 2024, wurde belegt, dass ChatGPT in der Lage ist, medizinische Fragen ebenso gut wie Expert:innen zu beantworten (2).
Diese Studien sind nur einige der von Schlicker vorgestellten Beispiele, die das enorme Niveau widerspiegeln, das die KI inzwischen erreicht hat. Weitere Exempel, etwa dass KI den Zeitpunkt eines Schlaganfalls genauer abschätzen oder seltene Magen-Darm-Erkrankungen besser diagnostizieren kann als menschliche Medizinkundige, gibt es zu Genüge.
Zweifel an der Verlässlichkeit von KI in der Medizin
Befunde, die überzeugen können… Nur auf den ersten Blick. Denn das Problem ist: KI-Systeme sind nicht transparent. „Wir geben Daten ein und bekommen Ergebnisse heraus, die scheinbar ganz gut sind. Doch wir wissen nicht, wie die KI dazu gekommen ist“, gibt Schlicker zu bedenken. Indem die Entscheidungen nicht nachvollziehbar sind, lassen sie sich auch nicht kontrollieren und überwachen. Hinzu addiert sich laut der Marburger Psychologin, dass KI imperfekt ist: „Ihr Einsatz ist damit also mit einem Risiko verbunden“. So verweist etwa Chat-CPT selbst darauf, dass es Fehler machen kann. Selbst wenn das System nach Verbesserungen auf Nachfrage dann eine hundertprozentige Sicherheit angibt, stimmt das nicht. Was Schlicker in zahllosen Recherchen selbst überprüft hat: „Unsicherheit wird es immer geben“. Was zu dem Schluss führt, dass es derzeit nach den Worten von Schlicker keinen Ansatz dafür gibt, dass die Künstliche Intelligenz vollauf vertrauenswürdig ist. Doch gerade das ist im Hochrisikobereich Medizin eine zwingende Voraussetzung zur Anwendung von Systemen. Muss der Einsatz von KI in der Medizin deshalb in Frage gestellt werden? „Es ist wichtig, kein blindes Vertrauen zu haben, sondern fortlaufend zu evaluieren“.
Das Vertrauen, dass einem System entgegengebracht wird, darf nur so hoch sein, wie es seine Fähigkeiten erlauben. Und es sollte durch eine gewissenhafte Einschätzung gerechtfertigt sein. Die Verantwortung liegt damit beim Entscheider, nicht bei der KI.
Vertrauen ist ein hohes Gut…
„…besonders in der Medizin“, so Prof. Dr. Martin Hirsch, Leiter des Instituts für Künstliche Intelligenz in der Medizin an der Philipps-Universität Marburg. Nicht umsonst wurden so viele Mechanismen wie unter anderem Gesetze und Verordnungen entwickelt, um die Vertrauenswürdigkeit aller medizinischen Akteure sicherzustellen. In diese komplexe Gemengelage kommt nun die Künstliche Intelligenz hinein – mit dem Ziel, bei den Entscheidungen in der täglichen Praxis zu unterstützen. „Das bedeutet, dass die KI aktiv in das ethisch regulierte Denken der Ärzte eingreift“. Müssen diese Systeme dann nicht auch ethischen Regeln unterliegen? Was sie jedoch nicht tun… Zumindest noch nicht.
Die Vertrauensfrage ist auch in der Medizin wichtig
In der Regel wird sie in der Politik gestellt, doch beim Einsatz von KI in der Medizin ist sie ebenfalls sehr relevant. „KI braucht Vertrauen und hat Potenzial für Verbesserungen“. Die Psychologin verweist in diesem Zusammenhang auf den am 1. August 2024 in Kraft getretenen AI-Act der EU. Er soll dazu dienen, eine verantwortungsvolle Entwicklung und Verwendung von KI zu fördern. Zu den hierfür festgelegten Anforderungen an Hochrisiko-KI-Systeme, die in der Medizin ausnahmslos zum Einsatz kommen, gehören unter anderem Transparenz, Bereitstellung von Informationen und menschliche Aufsicht. „Das bedeutet, dass jedes Hochrisiko-KI-System generell so entwickelt werden muss, dass es von natürlichen, nämlich menschlichen Personen beaufsichtigt werden kann“, so Schlicker.
Diese Personen müssen gemäß dem AI-Act dazu befähigt werden, die relevanten Fähigkeiten und Grenzen des KI-Systems zu kennen, hinreichend zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen. Zudem müssen sie die Ergebnisse der KI richtig interpretieren können und in bestimmten Situationen in der Lage sein zu beschließen, diese nicht zu verwenden oder außer Kraft zu setzen. Letzteres heißt im Klartext, dass die menschliche Aufsicht in den Betrieb des KI-Systems eingreifen und es auch zum Stillstand bringen kann.
Eine Bemerkung dazu am Rande: Zum Nachweis dieser KI-Kompetenz sind hohe regulatorische Hürden zu nehmen. Sie könnten – das befürchten selbst die Entwickler des Acts – zu hoch sein und die Nutzer entmutigen, sich aktiv an der Umsetzung des AI-Acts zu beteiligen. Womit der Nutzen des an sich sehr klugen Instruments zum verantwortungsbewussten Umgang mit KI wieder zu verpuffen droht…
KI und medizinische Ethik: kein Dream-Team
Wie sich die KI auf medizinethisch komplexe Fälle auswirken könnte, ist für Prof. Dr. theol. Kurt Schmidt, Leiter des Zentrums für Ethik in der Medizin in Frankfurt am Main eine wichtige Grundsatzfrage: „Denn sie kann hier eingreifen und das ist sehr relevant“. Prof. Schmidt warnt davor, sich in falscher Sicherheit zu wiegen. „Trotz Anwendung von KI-Systemen muss man immer noch Quellen checken“. Wie schwerwiegend das alleinige Vertrauen sein kann, zeigt die eigene Erfahrung von Prof. Schmidt im Fall seiner Prüfung einer Patientenverfügung (3). Der rechtliche Verweis hierzu von Chat-CPT stammte von 2023. Somit war er veraltet und nicht mehr auf dem aktuellen Stand.
Abseits dessen, das KI-Systeme wie Chat-CPT Fehler machen können, sind deren Angaben nicht gerichtsfest. Entsprechend können und dürfen sie nicht in rechtlichen Angelegenheiten vor Gericht herangezogen werden. Was bei Patientenverfügungen und Betreuungsvollmachten durchaus einige Schwierigkeiten verursachen kann. Prof. Schmidts Fazit ist, dass die KI durchaus ein zusätzlicher Gesprächspartner für eigene ethische Entscheidungen sein und die Entscheidungsfindung möglicherweise qualitativ verbessern könnte. Allerdings: „KI kann nie sicher sein“. Dass KI eine Patientenverfügung erstellen kann, hält er deshalb für problematisch. Zumal hierbei eigene Wertvorstellungen eine tragende Rolle spielen.
Ethische Rahmung der KI von Trump gecancelt
Am 21. Januar, einen Tag nach seiner Amtseinführung, kündigte Donald Trump „The Stargate Project“ an. Um die Vormachtstellung der USA bei der künstlichen Intelligenz auszubauen, werden 500 Milliarden US-Dollar in die KI-Infrastruktur investiert. Zugleich hob Trump die Schranken auf, die KI-Systeme bislang eingrenzten: Einen Erlass seines Vorgängers Joe Biden, der die ethische Integrität und Vertrauenswürdigkeit der KI sicherstellen sollte.
Einschätzungen zur KI mitten aus der Praxis
Sie stammen von Dr. Christian Becker. Der Facharzt für Kardiologie und Innere Medizin ist in der Abteilung für Kardiologie und Pneumologie am Universitätsklinikum Göttingen tätig. Davon, dass sich das ärztliche Selbstverständnis durch den Einsatz von KI nicht verändern wird, ist er überzeugt: „Sie ist aktuell kein Ersatz für einen empathischen Arzt-Patienten-Kontakt, das kann sie nicht leisten“. Dennoch ist Dr. Becker sich darüber bewusst, dass „eine Entität einzusetzen, die intelligenter ist als der Mensch, Auswirkungen auf das Arztverständnis haben kann. Um Vertrauen zu schaffen muss die KI erklären, wo ihre Informationen herkommen. Deshalb ist für die KAI, die erklärende KI, zu votieren“, so Dr. Becker.
Wichtig ist dem Praktiker jedoch auch, den Gefahrenaspekt der KI nicht zu überschätzen und entsprechend die Risiken nicht so hoch zu bewerten. Er empfiehlt, sich aktiv damit auseinandersetzen und offen gegenüber einer neuen Technologie zu sein. „Neben den Risiken, die es durchaus gibt, sollten auch die Chancen gesehen werden“.
Quelle:Live-Fortbildung „Künstliche Intelligenz in Medizinethik und ärztlichem Selbstverständnis“ am 3.2.2025; Veranstalter: Deutsche Gesellschaft für Innere Medizin (DGIM)
Literatur
(1) Killock D. et al. (2020) AI outperforms radiologists in mammographic srceening. Nature Reviews Clinical Oncology 2020; 134: 17, DOI: 10.1038/s41571-020-0329-7.
(2) Singhal K. et al. (2025) Toward expert-level medical question answering with large language models. Nature Medicine 2025; 642, 16, DOI: 10.1038/s41591-024-03423-7.
(3) Schmidt KW & Lechner F. (2023) ChatGPT: Hilfe bei der medizinethischen Entscheidungsfindung? Inn Med (Heidelb.) 2023; 64 (11): 1065 – 1071, DOI: 10.1007/s00108-023-01601-2.