Was ist Intelligenz?
Für verschiedene Tätigkeitsfelder werden verschiedene Begabungen, Kenntnisse, Fertigkeiten und Erfahrungen benötigt. Eine statistische Konstruktion wie der globale IQ kann das nicht erfassen. Der Psychologe und Pädagoge Howard Gardener hat deshalb das Konzept der Multiplen Intelligenzen entwickelt. Er unterscheidet
(a) die visuell-räumliche,
(b) die körperlich-kinästhetische,
(c) die musikalisch-rhythmische,
(d) die interpersonal-soziale,
(e) die intrapersonale,
(f) die sprachlich-linguistische,
(g) die logisch-mathematische,
(h) die naturalistische und
(i) die existentiell-spirituelle Intelligenz.
Ein Arzt würde also einige dieser neun Intelligenzen benötigen, um seinen Patienten gerecht zu werden. Damit wird auch offensichtlich, dass es keine umfassende Intelligenz auf allen Feldern geben kann, die von rechnenden Maschinen so imitiert würde, dass sie den Menschen komplett überflüssig machten. Klar wird aber auch, dass es durchaus einige Aufgaben geben könnte, die eine spezielle Intelligenz erfordern. Wenn diese Aufgaben algorithmisierbar sind, wäre das ein potentielles Einsatzgebiet für Künstliche „Intelligenzen“ [KI].
Mustererkennung
Ein Beispiel dafür ist die Mustererkennung in Bildern, welche ja schon Eingang in die bildgebende Diagnostik der Medizin gefunden hat. Lungenrundherde sind z.B. maschinell deutlich treffsicherer zu entdecken, als das müde Augen eines überstrapazierten Radiologen das je vermöchte. Um eine solche Perfektion zu erreichen, müssen die Mustererkennungsmaschinen mit vielen Bildern gefüttert werden. Diese Trainingsbilder müssen sichere Befunde enthalten, und für diese diagnostische Sicherheit sorgen Menschen, also Radiologen. Während die Maschinenfehler anfangs deutlich über der menschlichen Fehlerquote liegen, reduziert das kontinuierliche Training diese Missgriffe. Dazu werden ständig weitere gesicherte Bildbefunde benötigt, und irgendwann liegt die diagnostische Treffsicherheit dann über der des Radiologen. Ähnliche Programme können aus einer unübersichtlichen Menge von Labordaten ein Muster erkennen, das zu einer Diagnose passt.
Diagnosen
Geeignete Programme können aus der Fülle von Symptomen, Befunden und Messdaten die Diagnose eines Patienten erkennen. Sie können die Wahrscheinlichkeit dieser Diagnose und der dazu gehörigen Differentialdiagnosen angeben. Eine solche KI könnte eine starke Hilfe werden, solange sie bei Vorschlägen bleibt. Besonders hilfreich wäre dies bei den selten Krankheiten und Syndromen, die ja inzwischen niemand mehr außerhalb seines speziellen Fachgebietes überblicken kann.
Prognosen
Falls eine KI in der Lage wäre, den Krankheitsverlauf mit und ohne Therapie treffsicherer vorherzusagen als ein Arzt, wäre das in manchen Situationen eine wirklich große Hilfe. Wie bei jedem Blick in die Zukunft bleibt die ethische Frage, ob das überhaupt erwünscht ist, wie man mit wahrscheinlich, aber nicht sicher schlechten Botschaften umgeht, ob darauf Handlungen begründet werden können, ob das ganze Verfahren einem Patienten tatsächlich hilft oder ob er das auch will. Wie entscheidet sich z.B. der behandelnde Arzt auf einer Intensivstation, dem im konkreten Fall die KI eine Wahrscheinlichkeit des Überlebens seines Patienten von 10% (oder 5% oder 1%) errechnet hat? Wird er die kostenintensive Behandlung fortführen, obwohl wahrscheinlich nur einer von 100 Patienten in der gegebenen Situation überleben würde?
Datenqualität, Interoperabilität und Datenschutz
Bevor Deep Learning überhaupt einsetzt, müssen die Daten korrekt befundet werden, d.h. die Richtigkeit der Informationen ist zu gewährleisten. Die lernende Maschine würde sonst mit Fehlern gefüttert. Die händische Eingabe von Informationen in ein digitales System ist zeit-, personal- und kostenaufwändig, außerdem fehleranfällig. So kommen die großen Datenmengen, die eine lernende Maschine bräuchte, nicht in der adäquaten Qualität zustande. Benötigt wird eine einheitlich standardisierte, digitale Akte der Patienten. Es gibt aber noch viele Papierakten und - Archive, d.h. die einfachen Infrastrukturen sind noch gar nicht überall vorhanden.
Der Zugriff auf die Patientendaten muss nach den Gesetzen und Regeln des Landes erfolgen, dessen Bürger der Patient ist. Es gibt regional völlig unterschiedliche Ansichten zur Datensicherheit und Privatheit, nicht zu sprechen von wolkigen Gemeinschaftsregeln der Big-Data-Konzerne. Eine in der Medizin einsetzbare KI kann aber aus Kostengründen nicht für nur ein Land entwickelt werden; es werden weltweit einsetzbare Geräte sein, ggf. mit regionalen Modifikationen.
Nachweis des Nutzens
Technische Werkzeuge werden meist nur überprüft, ob sie funktionieren und technisch sicher sind. In der Medizin müssen wir wissen, ob sie Nutzen im Sinne des Patientenwohls bringen und dem Patienten nicht schaden. Die bewährte Methode dies sicherzustellen, sind klinische Studien. Die gibt es bisher nicht. Für die ethische Bewertung einer KI sind solche Nutzen-Schaden-Analysen jedoch dringend erforderlich. Während der Nutzen unbegrenzt groß werden darf, muss ein Schaden minimal bleiben, und falls ein Schaden absehbar ist, muss er kontrollierbar sein. Ein unkalkulierbarer Schaden wäre ethisch nicht zu verantworten.
Ethik ist komplex
Je mehr über die Risiken einer KI im Alltag diskutiert wird, desto häufiger wird der Ruf nach einer eingebauten Ethik in die datenverarbeitenden Systeme laut. Dann wären, so der Wunsch, moralische Fehlentscheidungen ausgeschlossen und die KI übernähme schnell und zuverlässig die mühsame und langsame Denkarbeit der Ethiker.
Der Informatiker Jürgen Geuter verneint energisch, dass Ethik programmierbar sei. Ethische Entscheidungen seien seien einfach zu komplex. Ein Massenversuch des Massachusetts Institute of Technology, der mit Fragen zu persönlichen Präferenzen in Notfallsituationen arbeitet, habe lediglich banale Ergebnisse gefördert. Außerdem ließe sich leider kaum umgehen, dass die Werte und Präferenzen der konzipierenden und programmierenden Menschen in ethische Fragen eingehen. Seit über 50 Jahren würden Hoffnungen auf eine perfekte KI geweckt, aber die neuronalen Netze seien immer noch weit entfernt von menschlicher Intelligenz.
Wir müssten uns zuvor darauf einigen, welche Werte bedeutend und erhaltenswert sind und welche Regeln dazu benötigt werden, bevor man überhaupt eine globale Ethik konstruierten könnte. Es ist eine Illusion, zu glauben, intelligente Algorithmen würden dieses philosophisch-ethische Problem einvernehmlich und automatisch lösen können. Der Streit in der Moralphilosophie zwischen dem nutzenorientierten Utilitarismus und der regelorientierten Deontologie hat fast weltanschauliche Dimensionen. In der Medizinethik spielen beide Aspekte gleichzeitig eine Rolle, und es ist jeweils im konkreten Einzelfall möglichst ideologie- und machtfrei zu diskutieren, welche Entscheidung dem Patienten nützlich wäre.
Wer hat den Nutzen?
Algorithmische Systeme werden auf einen Nutzen hin programmiert. Wer bestimmt, was der Nutzen ist und wer ihn hat? Für die Medizin besteht ein Nutzen immer in der Verbesserung des Patientenwohls. Der Deutsche Ethikrat hat sich 2016 deutlich dazu geäußert:
(a) Das Ziel der Behandlungen ist es, dem Patienten ein möglichst großes Maß an Selbstbestimmung wieder herzustellen;
(b) eine gute Zusammenarbeit zwischen Patient, Arzt, Pflegenden und Therapeuten ist eine Voraussetzung dazu, d.h. ein respektvoller Umgang im Team hilft dem Patienten;
(c) eine gelingende Kommunikation mit allen Beteiligten verhindert Missverständnisse. Alle Mitarbeiter im Gesundheitswesen sind bewusst oder ungewollt Kommunikatoren;
(d) die Behandlungsqualität muss möglichst hoch sein, d.h. für entsprechende Weiterbildung ist zu sorgen;
(e) alle Maßnahmen müssen wirtschaftlich sein, denn die Ökonomie dient dem Patientenwohl.
Damit ist deutlich, worin der Nutzen einer KI in der Medizin anzusiedeln ist. Nehmen wir an, eine teure KI würde beschafft, um die Effektivität der Diagnostik zu optimieren. Im Hintergrund stünde aber die verborgene Absicht, Kosten und Personal einzusparen; dann ginge es um Effizienz. Wenn heute KI mit dem Argument beworben wird, die Ärzte und Pflegenden hätten dadurch mehr Zeit für ihre Patienten, widerspricht dies allen Erfahrungen der letzten Jahre: Falls mehr Zeit zur Verfügung stünde, würde im Sinne der Effizienz selbstverständlich Personal eingespart. Ansonsten hätte sich die teure KI ja nicht gerechnet. Wir dürfen uns nicht täuschen lassen: In der Medizin wird KI dazu dienen, die Industrialisierung voranzutreiben. Das Ziel ist Effizienz.
Umgang mit Fehlern
Auch kluge Algorithmen können Fehler machen, die man erst während der Anwendung erkennt. In der Digitalwirtschaft soll die offizielle Fehlerdichte eines Programms der höchsten Sicherheitsstufe 0,5 Fehler pro 1000 Zeilen Code unterschreiten. Ein Bilderkennungsprogramm hat ggf. Millionen Code-Zeilen, d.h. es wären 500 Fehler pro Million Code-Zeilen hinzunehmen. Das ist für die Medizin indiskutabel. Das Lernen der Bilderkennungs-KI dient der Reduktion dieser Fehler und je mehr korrekte Bilder und Befunde eingespeist werden, desto kleiner wird diese Fehlerquote, die nie Null erreichen wird.
Verantwortung
Wer ist dann für den Folgeschaden verantwortlich? Wir verwenden den Begriff „Verantwortung“ für sehr unterschiedliche Situationen. Wenn jemand (genannt die Instanz) eine verantwortliche Person bestimmt (genannt das handelnde Subjekt), sich um etwas Drittes oder einen Dritten (genannt das Objekt) zu kümmern, liegt eine übliche dreipolige Verantwortungssituation vor. Die Instanz wird den Erfolg am Objekt überprüfen, vom Subjekt Rechenschaft fordern und es zur Verantwortung ziehen. Wenn wir in der Medizin eine KI als Werkzeug einsetzen ist der Arzt (handelndes Subjekt) sowohl dem Patienten (hier genannt Objekt) als auch dem Arbeitgeber oder Dienstvorgesetzten (genannt Instanz) gegenüber verantwortlich. Aus dieser Sicht hat die KI überhaupt keine Verantwortung: Die bleibt beim Arzt-Subjekt.
Verlässlichkeit
Falls KI in der Medizin zum Einsatz kommt,
-
müssen wir uns auf dieses Werkzeug völlig verlassen können; diese Zuverlässigkeit liegt im Verantwortungsbereich des Herstellers.
-
Diese KI muss für die Anwendung zugelassen sein; hier gibt es eine Verantwortung der zulassenden Behörden.
-
Die ärztliche Verantwortung liegt in der Indikationsstellung dieser KI-Methode und in deren korrekter Anwendung.
Ein großes Problem ist für uns das von den Herstellern insgeheim geforderte, nahezu blinde Vertrauen in diese Geräte, deren technische Möglichkeiten und Grenzen wir nicht mehr verstehen können. Außerdem müssen wir uns darauf verlassen können, dass die KI primär dem Patientenwohl dient und verborgene Ziele nicht im Vordergrund stehen. Sicher ist hingegen, dass wir zur Sicherheit unserer Patienten analoge Backup-Systeme brauchen, die beim Ausfall der KI das Funktionieren einer Praxis oder eines Krankenhauses gewährleisten. Die Aus-, Weiter- und Fortbildung muss sich dann sowohl auf digitale wie analoge Werkzeuge erstrecken. Dadurch werden sich Studium und Berufsausbildung deutlich verändern.
Werkzeug oder selbständiges Gerät?
In der Medizin kann KI in einigen Bereichen auch heute schon sinnvoll, d.h. im Sinne des Patientenwohls, als Werkzeug eingesetzt werden. Dabei entscheidet KI nicht selbst und handelt nicht selbständig, die Verantwortungsbereiche lassen sich eindeutig festlegen. Nachdem es aber beim Militär schon selbst entscheidende und selbst handelnde (d.h. schießende) Drohnen gibt, liegen entsprechende Befürchtungen für die Medizin nicht weit. Autonome out of the loop-Systeme sind nach heutigem Wissensstand für die Medizin abzulehnen.
Warum überhaupt Maschinenethik?
Warum gibt es dann überhaupt eine solche Diskussion? Weil KI kein Werkzeug bleiben soll. Die Rede von Entscheidungen, die durch die KI getroffen werden sollen, entlarvt es: KI soll autonom werden. Wo wäre denn eine selbständig entscheidende KI in der Medizin denkbar? Im Medizinsystem gibt es, grob eingeteilt, zwei Arten von Klienten: Den Kunden und den Patienten. Der Kunde fordert eine Dienstleistung und hat eher kein großes Interesse an einem Arzt, der sich kümmert. Der Patient hingegen ist so krank, dass er seine weitere Lebensplanung darauf einstellen muss, dass er vielleicht aus allen sozialen oder beruflichen Netzen fällt, dass er ggf. um sein Leben fürchten muss. Er braucht einen Arzt, der sich kümmert, technisch perfekte Abläufe allein helfen ihm nicht mehr. Nebenbei ist diese Care nicht algorithmisierbar.
Also wird KI im Kundenbereich des Gesundheitswesens angesiedelt werden. Diese Kunden werden in Portalpraxen- oder -Ärztezentren ausgewählt, sie werden einem Diagnostikpfad zugewiesen. Die KI organisiert das selbständig und legt Orte und Termine fest. Die Befunde laufen in der zentralen, digitalen Akte standardisiert auf und dann entscheidet die KI, ob behandelt werden muss und ggf. wie, durch wen und wo zu behandeln ist. An dieser Stelle könnte ein Arztkontakt notwendig werden, weil man ja Aufklärung und Unterschrift braucht. Jetzt geht es auf den entsprechenden Therapiepfad. Die KI organisiert wieder Orte und Termine, wobei sie gleich die Qualität der Behandlungen beurteilt (interessant wäre hier, welche Qualität gemein ist!). Ärzte sind dort spezialisierte Dienstleister. Nach einem Arztgespräch und der Entlassung folgen die Nachsorgetermine in den Portalpraxen. Es werden also, grob dargestellt, in Zukunft zwei Arten von Krankheitsservice angeboten werden:
(a) die effiziente, industrialisierte und KI geleitete Variante und
(b) die teure, durch Menschen geleistete Behandlung schwer kranker Menschen, die nicht auf die KI-Pfade passen.
Aus dieser Efffizienz-Richtung kommt also der mediale und politische Druck zur baldigen Einführung von KI in die Medizin. Der Bundesverband Digitale Wirtschaft spricht sogar von einem verpflichtenden Einsatz der KI, wenn der Nachweis ihrer Wirksamkeit erbracht sei. Auch hier die Frage: Welche Wirksamkeit mit welchem Ziel?
Patienten-orientierte Medizin
Medizinische KI orientiert sich an evidenzbasierter Medizin [EBM] und den daraus abgeleiteten Leitlinien der Fachgesellschaften, d.h. an der medizinisch-wissenschaftlichen Sicht. Bei der Umsetzung am Patienten brauchen wir die ärztlich-patientenorientierte Sicht der Medizin, eine Individualisierung. Viele ältere Patienten leiden unter verschiedenen Erkrankungen; dann widersprechen sich die diversen Leitlinien. Medikamente für verschiedene Erkrankungen interagieren unheilvoll; man muss ein verträgliches Konzept zusammen mit dem Patienten entwickeln. Hinzu kommt das persönliche Arzt-Patienten-Verhältnis mit allen zugehörigen Emotionen. Ärztliche Entscheidungen werden dann weniger prinzipiell, sondern humaner, d.h. am individuellen Patientenwohl ausgerichtet und nicht unflexibel an einer Leitlinie. Das ist einer KI bisher nicht möglich. Für einen Kunden ist dieser Aspekt vielleicht nicht so wichtig, für einen Patienten aber essentiell.
Robotik
Ein eigenes Fachgebiet ist die Verknüpfung von intelligenten Algorithmen und Robotern geworden. Es gibt schon erste Einsatzmöglichkeiten, z.B. die Robbe »Paro«, ein Plüsch- und Kuscheltier. Sie wird in Alten- und Pflegeheimen verwendet und soll vor allem bei Patienten mit Demenz zur Zufriedenheit und zu weniger Medikamentenverbrauch führen. Die Roboter »Pepper« und »Nao« sind für die Kranken- und Altenpflege in Deutschland noch in der Erprobungsphase. Während die Robbe Paro eher wie ein braves Haustier agiert, sind Pepper und Nao aktiv unterwegs und erledigen kleine Aufgaben auf Station. Das Ziel bleibt selbstverständlich konkrete Hilfe bei pflegerischen Aufgaben am Menschen; davon ist man derzeit noch weit entfernt.
Der Einsatz einer KI in der Medizin wirft also viele Fragen auf, für die wir noch keine befriedigenden Antworten haben, beispielsweise:
-
Wie steht es um die Qualität und Verfügbarkeit der Trainingsdaten und wer legt Standards fest und wacht über die Qualität,
-
wer sichert die Privatheit der Patientendaten,
-
welche offenen und verborgenen Ziele hat die KI,
-
ist sie absolut verlässlich, wie organisieren wir die Sicherheits-Backups,
-
wie füttern wir sie mit neuer wissenschaftlicher Evidenz und löschen Veraltetes; wer legt dann fest, was noch gebraucht wird,
-
ist KI ein Werkzeug oder eine autonom entscheidende und handelnde Maschine?
Ethik ist nicht nur in der Medizin eine komplexe Angelegenheit. Sie braucht eine solide Ausbildung und viel klinische Erfahrung, um gemeinsame Entscheidungen im Sinne des Patientenwohls treffen zu können. Aus meiner Sicht ist die Entwicklung einer Ethik-KI für Medizingeräte in weiter Ferne. Noch weiter entfernt ist der Ersatz der Ethiker durch lernende Maschinen.
Anmerkungen
Ausführliche Literaturvereise in meinen Büchern.