Vorreiter USA: Mitmachen oder eigenen Weg gehen?
Bundesgesundheitsminister Karl Lauterbach ging auf 2 wichtige aktuelle Trends ein: Deep Learning und generative KI. Als Beispiel für Deep Learning nannte er AlphaFold, ein künstliches neuronales Netzwerk, das mit hoher Präzision die 3-dimensionale Struktur eines Proteins anhand seiner Aminosäuresequenzen vorhersagen kann (1). In der onkologischen Forschung werde die AlphaFold-Datenbank für die Entwicklung von Arzneimitteln bereits intensiv genutzt, so der Minister. Generative KI ist ein prädiktives System, das auf Sprachmodellen beruht. Aus der Zusammenfassung von Texten könnten genuine Inhalte generiert werden, wie etwa Behandlungsvorschläge. „Hier sieht man ganz klar Anzeichen von richtiger Intelligenz“, so der Minister. Neueste Entwicklungen in den USA setzen Europa unter Druck. 3 große Player im US-Gesundheitsmarkt – Nuance Communications, Epic Systems sowie GPT4 – entwickeln eine neue Plattform. „Es baut sich dort ein Monopol auf“, so Lauterbach. „Wie gehen wir damit um? Machen wir mit oder entwickeln wir eigene Modelle?“
Künstliche Intelligenz in der Medizin: Warnung vor Prognosen
Philosoph Julian Nida-Rümelin widersprach vehement Lauterbachs Definition von KI. Generative Sprachmodelle seien Sprachproduktionssysteme, aber keine genuine Intelligenz. „Jedes 3-jährige Kind erfasst nach 3 Kühen, was eine Kuh ist. Ein Software-System braucht dafür über 20.000 Beispiele.“
Chat-GPT sei eine „gigantische, beeindruckend perfekte Plagiatsmaschine, aber keine KI.“ Ungeachtet dessen könne der Einsatz solcher Werkzeuge hilfreich sein. In der Medizin stehe aber letztlich – ganz analog – die Beziehung zwischen Patient:in und Ärzt:in im Zentrum. Nida-Rümelin spannte einen historischen Bogen von Norbert Wieners Kybernetik über den Turing-Test und das World Wide Web bis hin zur digitalen Transformation und damit verknüpfte Erwartungen, die sich häufig nicht erfüllt haben. Sein Fazit: „Hüten Sie sich vor Prognosen!“
Nutzen von KI im Blick behalten
Ulrike I. Attenberger, Leiterin des KI.NRW-Flagship-Projekts „Innovative Secure Medical Campus“ des Universitätsklinikums Bonn, stellte praktische Beispiele vor. Bei allem Hype um die KI sei es wichtig, konkret auf den Nutzen zu schauen, sagte sie. Ein Problem ist die Generierung von valider Evidenz. So zeigte eine Untersuchung der Europäischen Röntgengesellschaft, dass von 100 CE-zertifizierten KI-Analysetools nur bei 36 eine Steigerung der Effizienz belegt werden konnte, und nur 18 Produkte hatten einen potenziell signifikanten klinischen Impact (2).
Lesen Sie mehr zu diesem Thema:
Wie der Einsatz Künstlicher Intelligenz die Intensivmedizin verändern kann
Erschienen am 22.06.2023 • Der Tag der Intensivmedizin hat auch in diesem Jahr ein Schlaglicht auf die Intensivmedizin geworfen. Weitere Informationen lesen Sie hier!
Erschienen am 22.06.2023 • Der Tag der Intensivmedizin hat auch in diesem Jahr ein Schlaglicht auf die Intensivmedizin geworfen....
© 3dkombinat – stock.adobe.com
Medizinische Anwendung von KI wirft ethische Fragen auf
Attenberger wies darauf hin, dass KI nur mit Digitalisierung funktioniere und auch die (Tele-)Robotik ein wichtiger Bereich sei. Chirurgische Eingriffe können damit auch über große Distanzen zwischen Ärzt:in und Patient:in durchgeführt werden – ein Aspekt, der angesichts des Fachkräftemangels in entlegenen Gebieten relevant sei. „Ich spreche nicht von Afrika, Indien, sondern von Mecklenburg-Vorpommern, Niederbayern, Oberpfalz oder der Eifel.“ Tatsächlich stammt das erste Praxisbeispiel aus Indien, wo ein Kardiologe bei 20 Meilen entfernten Patient:innen mittels assistierter Telerobotik erfolgreich perkutane Koronarinterventionen durchgeführt hat (3). In Attenbergers eigener Arbeitsgruppe wurde ein Algorithmus entwickelt, der die Ursachen einer Leberzirrhose besser differenzierte als radiologische Fachärzt:innen. Daraus erwüchsen ethische Fragen: „Was sagen wir unseren Patient:innen, wenn wir anders entscheiden als die KI? Wer ist verantwortlich, wenn die Therapie falsch läuft?“
Wer trägt die Verantwortung?
Diese Frage griff Eva Winkler, Vorsitzende der Zentralen Ethikkommission bei der BÄK, auf. An einem Beispiel erläuterte sie, wie leicht das Vertrauen in KI-Systeme aufs Glatteis führen kann. Medizinstudierenden mit keiner oder wenig Erfahrung sowie erfahrenen Radiolog:innen wurden CT-Bilder sowie eine KI-Einschätzung vorgelegt mit der Fragestellung, ob eine
chronisch obstruktive Lungenerkrankung (COPD) vorliegt. Sie bekamen die Information, dass die KI zu 90% zuverlässig sei, obwohl sie tatsächlich eine Fehlerquote von 50% aufwies. Mit einem falschen KI-Input sank die Rate der korrekten Diagnosen sowohl bei den Studierenden (46%) als auch bei den Erfahrenen (67%) (4). Hilft es, wenn die KI eine Erklärung mitliefert? Studien zeigen, dass die Bereitschaft von Ärzt:innen, sich mit ausführlicheren Erläuterungen von KI-Werkzeugen zu beschäftigen, begrenzt ist (5). Winkler betonte, dass die ärztliche Letztentscheidung essenziell sei, die Verantwortung aber auf mehreren Ebenen liege: der der Ärzt:in, der Institution und des Gesetzgebers.
Quelle: Interdisziplinärer Dialog „Von ärztlicher Kunst mit künstlicher Intelligenz“, 19.10.2023, Berlin; Veranstalter: Bundesärztekammer (BÄK)
(1) Jumper J et al. Nature 2021; 596: 583-589.
(2) van Leeuwen KG et al. Eur Radiol 2021; 31: 3797-3804.
(3) Patel TM et al. EClinicalMedicine 2019; 14: 53-58.
(4) Jussupow E et al. Inform Sys Res 2021; 32: iii-viii, 675-1097.
(5) Tschandl P et al. Nat Med 2020; 26: 1229-1234.