Künstliche Intelligenz kann Ärztinnen und Ärzte nicht ersetzen
„Sollten wir alle Arbeitsplätze automatisieren, auch die, die uns erfüllen? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sind, uns überlisten... und ersetzen? Sollten wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“ Fragen aus einem offenen Brief des Future of Life Institutes anlässlich der offensichtlichen Tatsache, dass diese Technologie durch ihr rasches Voranschreiten einer sicheren Kontrolle entwächst.
„Künstliche Intelligenz (KI) in der Medizin, die nicht richtig entwickelt und implementiert wurde, kann zu schwerwiegenden Fehlern sowie menschlichem Kontrollverlust führen und letztendlich die Sicherheit und das Vertrauen der Patienten gefährden.“ Dieses Zitat ist ein Teil der Antwort des KI-basierten Sprachverarbeitungs-Tools „ChatGPT“ auf meine Frage, welche positiven und negativen Auswirkungen KI auf die Medizin haben kann. Das Instrument ist in der Lage, zu programmieren, menschenähnliche Konversationen zu generieren, Blog-Texte zu erstellen, E-Mails sowie Bewerbungen zu schreiben und hat testweise sogar in Universitäts-Prüfungen gute Ergebnisse erzielt.
Dabei repräsentiert „ChatGPT“ nur einen kleinen Ausschnitt der neuen, KI-unterstützten Welt, welche heute in fast allen Bereichen des Lebens Einzug gehalten hat. KI steuert Industrieroboter sowie Online-Suchmaschinen und stellt uns virtuelle Assistentinnen und Assistenten zur Verfügung. Auf ihr basieren intelligente Tutorsysteme in der Schule sowie Software, die Entscheidungen im Sozial- und Justizwesen, bei der Polizei oder in der Medizin erleichtern soll.
Patientinnen und Patienten können sich etwa von KI-basierten digitalen Gesundheitsanwendungen Diagnosevorschläge erstellen lassen – wobei manche App-Hersteller bereits damit werben, dass ihre App treffsicherer diagnostiziere als Ärztinnen und Ärzte. KI-Bilderkennung ist seit einigen Jahren auch in der Lage, Porträtfotos mit Gen- und Patientendaten abzugleichen. Dadurch können Symptome relativ rasch bestimmten seltenen Erkrankungen zugeordnet werden – denn KI kann in Sekundenschnelle tausende Vergleiche anstellen. KI soll künftig auch wichtige Ereignisse im OP antizipieren und für Chirurginnen und Chirurgen Informationen zum weiteren Vorgehen bereitstellen.
Schöne neue Welt? Computer und Programme fangen an zu denken und die Menschen können damit aufhören? Auf keinen Fall. Ich stimme mit dem Deutschen Ethikrat überein, dass KI-Anwendungen menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen können und sollten. Dafür gibt es eine Vielzahl von Gründen. So spucken Sprachverarbeitungstools wie „ChatGPT“ letztendlich nicht mehr als immer neue Rekombinationen aus bereits Bestehendem aus – zu Innovation sind sie nicht wirklich in der Lage. Internationale Forschungsteams haben errechnet, dass der Fundus an neuen hochwertigen Daten – damit sind in diesem Fall von Menschen produzierte Texte gemeint – für KI-Systeme bereits in wenigen Jahren erschöpft sein wird. Danach trainieren sie mehr und mehr mit Texten, die sie selbst erzeugt haben. Das ist Textinzest und eine intellektuelle Bankrotterklärung. Darüber hinaus sind KI-Modelle im Regelfall nicht in der Lage, zu beurteilen, wie gut und vollständig die Daten sind, mit denen sie trainiert wurden. Bei minderwertigen Lerngrundlagen können Fehler von der KI immer wieder repliziert werden – was im Bereich der Medizin einer Katastrophe gleichkäme. Man stelle sich nur vor, Patientinnen und Patienten würden aufgrund der Entscheidung einer Diagnose-KI, die auf fehlerhaften Daten basiert, einer falschen Behandlung zugeführt. Wir sollten uns immer wieder vergegenwärtigen: Nicht alles, was KI als Wahrheit ausgibt, ist auch wahr, sodass sich anhand der rasanten Entwicklung der Leistungsfähigkeit von KI die grundlegende Frage stellt:
Können wir mögliche Mängel oder Fehlentwicklungen überhaupt noch kontrollieren, wenn menschliche Intelligenz dafür nicht mehr ausreicht?
Datenverarbeitungsprozess bleibt „Blackbox“
Umso schwerer wiegt deshalb, dass eine transparente Prüfung der Ergebnisse, die KI-Systeme produzieren, oft nicht möglich ist. Für die Nutzerinnen und Nutzer – und aufgrund der enormen Komplexität der Datenverarbeitungsprozesse manchmal sogar für die Entwicklerinnen und Entwickler – bleibt der Prozess der Ergebnisfindung eine sprichwörtliche „Blackbox“. Wenn ich aber nicht nachvollziehen kann, warum eine KI eine bestimmte Diagnose stellt, werde ich mich auf diese Empfehlung nicht verlassen. Mit anderen Worten: Künstliche Intelligenz kann ärztliches Handeln nicht ersetzen.
Zu Bedenken ist auch: Wer sich zu stark von Technik abhängig macht, verlernt möglicherweise essenzielle Fähigkeiten. Ein Beispiel: Für viele Menschen ist es heute sehr schwierig, ohne Navigationssystem den Weg zu ihrem Ziel zu finden. Ähnliches gilt auch im Bereich der Medizin. Wenn wir Diagnosestellungen oder Entscheidungen im OP zunehmend der KI überlassen, besteht die Gefahr, dass wir unser eigenes Handwerk verlernen. Darüber hinaus ist im Sozialgesetzbuch V vermerkt: Ärztliche Behandlung findet durch Ärzte bzw. ausschließlich in deren Verantwortung statt. Diesen Grundsatz und auch den des Facharztstandards geben wir auf, wenn wir KI die Behandlungsprozesse überlassen.
Außerdem stellt sich bei vielen KI-Anwendungen die berechtigte Frage, ob Datenschutz und
Datensicherheit ausreichend gewährleistet sind. Wir sollten unbedingt darauf achten, dass sensible Patientendaten nicht durch die Hintertür von App-Entwicklerinnen und -Entwicklern kommerziell ausgeschlachtet werden. Wenn wir mit der geplanten Opt-out-Lösung von Patientendaten tatsächlich so weitermachen, sind wir am Ende des „informed consents“ mit unseren Patientinnen und Patienten angekommen.
Mein Fazit
Die Entwicklung geeigneter KI-Komponenten für die medizinische Praxis stellt eine enorm anspruchsvolle Aufgabe dar, die eine enge interdisziplinäre Zusammenarbeit von Expertinnen und Experten aus der Medizin, der Informatik, der Ingenieurswissenschaft sowie aus dem juristischen Bereich erfordert. Nur so können geeignete Algorithmen für die zuverlässige Bewältigung bestimmter Aufgaben definiert werden. Außerdem muss eine hohe Qualität der vom Algorithmus verwendeten Trainingsdaten sichergestellt sein, um vermeidbare Ergebnisverzerrungen zu minimieren. In vielen Fällen genügen KI-Anwendungen diesen Ansprüchen und notwendigen Datenschutzanforderungen nicht. Unabdingbar sind dazu neue Regeln und geeignete Verträge, welche die Voraussetzung für die Entwicklung und Anwendung von, sowie die Datennutzung durch die KI regeln, gegebenenfalls durch eine entsprechende Aufsichtsbehörde. Einen Hype nach dem Motto „Künstliche Intelligenz löst alle unsere Probleme“ darf es nicht geben. Vielmehr bedarf es der kritischen und nüchternen Reflexion, wo vermeintlicher Fortschritt der Menschheit nützt oder unserer Kontrolle entgleitet.
Teilen:
Das könnte Sie auch interessieren: