Donnerstag, 21. November 2024
Navigation öffnen
Medizin

Von ärztlicher Kunst mit Künstlicher Intelligenz

von Anne Krampe-Scheidler

Von ärztlicher Kunst mit Künstlicher Intelligenz
© fotomek – stock.adobe.com
Im Oktober lud die Bundesärztekammer (BÄK) in Berlin zu einem interdisziplinären Austausch über künstliche Intelligenz (KI). Der Titel sei bewusst gewählt, sagte Präsident Klaus Reinhardt – ärztliche Kunst und KI seien keine Gegensätze. Aber was ist KI überhaupt? Schon daran scheiden sich die Geister. Und es wurde deutlich, dass die ärztliche Verantwortung im Umgang mit KI neu definiert werden muss.
Anzeige:
Programmatic Ads
 

Vorreiter USA: Mitmachen oder eigenen Weg gehen?

Bundesgesundheitsminister Karl Lauterbach ging auf 2 wichtige aktuelle Trends ein: Deep Learning und generative KI. Als Beispiel für Deep Learning nannte er AlphaFold, ein künstliches neuronales Netzwerk, das mit hoher Präzision die 3-dimensionale Struktur eines Proteins anhand seiner Aminosäuresequenzen vorhersagen kann (1). In der onkologischen Forschung werde die AlphaFold-Datenbank für die Entwicklung von Arzneimitteln bereits intensiv genutzt, so der Minister. Generative KI ist ein prädiktives System, das auf Sprachmodellen beruht. Aus der Zusammenfassung von Texten könnten genuine Inhalte generiert werden, wie etwa Behandlungsvorschläge. „Hier sieht man ganz klar Anzeichen von richtiger Intelligenz“, so der Minister. Neueste Entwicklungen in den USA setzen Europa unter Druck. 3 große Player im US-Gesundheitsmarkt – Nuance Communications, Epic Systems sowie GPT4 – entwickeln eine neue Plattform. „Es baut sich dort ein Monopol auf“, so Lauterbach. „Wie gehen wir damit um? Machen wir mit oder entwickeln wir eigene Modelle?“

Künstliche Intelligenz in der Medizin: Warnung vor Prognosen

Philosoph Julian Nida-Rümelin widersprach vehement Lauterbachs Definition von KI. Generative Sprachmodelle seien Sprachproduktionssysteme, aber keine genuine Intelligenz. „Jedes 3-jährige Kind erfasst nach 3 Kühen, was eine Kuh ist. Ein Software-System braucht dafür über 20.000 Beispiele.“ Chat-GPT sei eine „gigantische, beeindruckend perfekte Plagiatsmaschine, aber keine KI.“ Ungeachtet dessen könne der Einsatz solcher Werkzeuge hilfreich sein. In der Medizin stehe aber letztlich – ganz analog – die Beziehung zwischen Patient:in und Ärzt:in im Zentrum. Nida-Rümelin spannte einen historischen Bogen von Norbert Wieners Kybernetik über den Turing-Test und das World Wide Web bis hin zur digitalen Transformation und damit verknüpfte Erwartungen, die sich häufig nicht erfüllt haben. Sein Fazit: „Hüten Sie sich vor Prognosen!“

Nutzen von KI im Blick behalten

Ulrike I. Attenberger, Leiterin des KI.NRW-Flagship-Projekts „Innovative Secure Medical Campus“ des Universitätsklinikums Bonn, stellte praktische Beispiele vor. Bei allem Hype um die KI sei es wichtig, konkret auf den Nutzen zu schauen, sagte sie. Ein Problem ist die Generierung von valider Evidenz. So zeigte eine Untersuchung der Europäischen Röntgengesellschaft, dass von 100 CE-zertifizierten KI-Analysetools nur bei 36 eine Steigerung der Effizienz belegt werden konnte, und nur 18 Produkte hatten einen potenziell signifikanten klinischen Impact (2).
 
 

Lesen Sie mehr zu diesem Thema:

Wie der Einsatz Künstlicher Intelligenz die Intensivmedizin verändern kann

Erschienen am 22.06.2023Der Tag der Intensivmedizin hat auch in diesem Jahr ein Schlaglicht auf die Intensivmedizin geworfen. Weitere Informationen lesen Sie hier!

Erschienen am 22.06.2023Der Tag der Intensivmedizin hat auch in diesem Jahr ein Schlaglicht auf die Intensivmedizin geworfen....

© 3dkombinat – stock.adobe.com

Medizinische Anwendung von KI wirft ethische Fragen auf

Attenberger wies darauf hin, dass KI nur mit Digitalisierung funktioniere und auch die (Tele-)Robotik ein wichtiger Bereich sei. Chirurgische Eingriffe können damit auch über große Distanzen zwischen Ärzt:in und Patient:in durchgeführt werden – ein Aspekt, der angesichts des Fachkräftemangels in entlegenen Gebieten relevant sei. „Ich spreche nicht von Afrika, Indien, sondern von Mecklenburg-Vorpommern, Niederbayern, Oberpfalz oder der Eifel.“ Tatsächlich stammt das erste Praxisbeispiel aus Indien, wo ein Kardiologe bei 20 Meilen entfernten Patient:innen mittels assistierter Telerobotik erfolgreich perkutane Koronarinterventionen durchgeführt hat (3). In Attenbergers eigener Arbeitsgruppe wurde ein Algorithmus entwickelt, der die Ursachen einer Leberzirrhose besser differenzierte als radiologische Fachärzt:innen. Daraus erwüchsen ethische Fragen: „Was sagen wir unseren Patient:innen, wenn wir anders entscheiden als die KI? Wer ist verantwortlich, wenn die Therapie falsch läuft?“

Wer trägt die Verantwortung?

Diese Frage griff Eva Winkler, Vorsitzende der Zentralen Ethikkommission bei der BÄK, auf. An einem Beispiel erläuterte sie, wie leicht das Vertrauen in KI-Systeme aufs Glatteis führen kann. Medizinstudierenden mit keiner oder wenig Erfahrung sowie erfahrenen Radiolog:innen wurden CT-Bilder sowie eine KI-Einschätzung vorgelegt mit der Fragestellung, ob eine chronisch obstruktive Lungenerkrankung (COPD) vorliegt. Sie bekamen die Information, dass die KI zu 90% zuverlässig sei, obwohl sie tatsächlich eine Fehlerquote von 50% aufwies. Mit einem falschen KI-Input sank die Rate der korrekten Diagnosen sowohl bei den Studierenden (46%) als auch bei den Erfahrenen (67%) (4). Hilft es, wenn die KI eine Erklärung mitliefert? Studien zeigen, dass die Bereitschaft von Ärzt:innen, sich mit ausführlicheren Erläuterungen von KI-Werkzeugen zu beschäftigen, begrenzt ist (5). Winkler betonte, dass die ärztliche Letztentscheidung essenziell sei, die Verantwortung aber auf mehreren Ebenen liege: der der Ärzt:in, der Institution und des Gesetzgebers.

Quelle: Interdisziplinärer Dialog „Von ärztlicher Kunst mit künstlicher Intelligenz“, 19.10.2023, Berlin; Veranstalter: Bundesärztekammer (BÄK)

Literatur:

(1) Jumper J et al. Nature 2021; 596: 583-589.
(2) van Leeuwen KG et al. Eur Radiol 2021; 31: 3797-3804.
(3) Patel TM et al. EClinicalMedicine 2019; 14: 53-58.
(4) Jussupow E et al. Inform Sys Res 2021; 32: iii-viii, 675-1097.
(5) Tschandl P et al. Nat Med 2020; 26: 1229-1234.


Anzeige:
Gardasil
Gardasil

Sie können folgenden Inhalt einem Kollegen empfehlen:

"Von ärztlicher Kunst mit Künstlicher Intelligenz"

Bitte tragen Sie auch die Absenderdaten vollständig ein, damit Sie der Empfänger erkennen kann.

Die mit (*) gekennzeichneten Angaben müssen eingetragen werden!

Die Verwendung Ihrer Daten für den Newsletter können Sie jederzeit mit Wirkung für die Zukunft gegenüber der MedtriX GmbH - Geschäftsbereich rs media widersprechen ohne dass Kosten entstehen. Nutzen Sie hierfür etwaige Abmeldelinks im Newsletter oder schreiben Sie eine E-Mail an: rgb-info[at]medtrix.group.