Medizinische Informationen sind streng vertraulich. Zugleich kann ihre Analyse komplexe Zusammenhänge aufdecken und so Patienten helfen. Unter der Leitung der Medizinethikerin Bernice Elger erforscht ein interdisziplinäres Team, wie sich diese wertvollen Daten künftig sicher und sinnvoll nutzen lassen.
(Basel) Die Pulsuhr ist für viele Jogger heute so selbstverständlich wie ein gutes Paar Laufschuhe. Viele Menschen möchten wissen, wie fit sie sind und ob sich ihr Training auszahlt. Die Industrie entwickelt inzwischen sogar Textilien, die über den Schweiss den Laktat-Wert messen können – einen wichtigen Gesundheitsparameter, der Sportlerinnen und auch älteren Menschen sagt, wie gut ihr Stoffwechsel arbeitet.
Die Menge solcher Gesundheitsdaten hat in den vergangenen Jahren dank immer kleinerer Sensoren und der Fortschritte in der Mikroelektronik stark zugenommen. Diese Daten sind eine Fundgrube für detaillierte Informationen über den Gesundheitszustand von Patienten – vor allem, wenn man sie mithilfe der künstlichen Intelligenz auswertet. Denn Computer sind in der Lage, darin unbekannte Zusammenhänge zu entdecken, die der Mensch allein nicht erkennen könnte.
In dem interdisziplinären Kooperationsprojekt «Explain» untersucht ein Team unter der Leitung der Universität Basel, wie sich Blutdruck- und Herzfrequenzwerte oder die Sauerstoffsättigung von Patientinnen während einer Operation nutzen lassen, um die Narkose zu überwachen und Anästhesisten zu unterstützen.
So ist es denkbar, dass Computer anhand solcher Messwerte künftig schneller erkennen können, ob es Komplikationen gibt, ob sich etwa ein Herzstillstand anbahnt. «In den Kliniken sind heute etliche Patientendaten gespeichert, die man nutzen könnte, um Assistenzfunktionen mit künstlicher Intelligenz zu entwickeln», sagt Bernice Elger, Leiterin des Instituts für Bio- und Medizinethik der Universität Basel. Oftmals würden die Patientendaten wegen des Datenschutzes aber nicht angetastet.
«In unserem Projekt untersuchen wir aus ethischer Perspektive, ob und auf welche Weise man die Informationen künftig für digitale Assistenzfunktionen verwenden könnte», erklärt sie. Denn eines sei klar: Der Datenschutz ist ein hohes Gut. Andererseits sei es sinnvoll, die Daten zu nutzen, wenn das am Ende dem Wohl der Patienten diene.
Förderung durch Schweizerischen Nationalfonds
Für das Projekt, das durch den Schweizerischen Nationalfonds gefördert wird, hat Bernice Elger Informatiker, Medizinerinnen und Rechtswissenschaftler zusammengeholt. Das Team um den Computerwissenschaftler Carlos Andrés Peña von der Haute Ecole d’Ingénierie et de Gestion du Canton de Vaud (HEIG-VD) etwa versucht den Computern und Algorithmen beizubringen, den Menschen ihre Entscheidungen zu erklären.
Bislang arbeiten Algorithmen oder auch sogenannte Neuronale Netze wie eine Black Box. Sie werden mit Daten für eine Problemstellung trainiert und geben anschliessend Lösungsvorschläge. Wie sie zu der Lösung gekommen sind, bleibt unklar. Das ist problematisch, wenn Algorithmen falsche Ergebnisse präsentieren – und der Mensch ihnen blind vertraut.
Bekannt wurde vor wenigen Jahren der Fall der IBM-Software «Watson for Oncology». Die Software war darauf trainiert worden, Krebstypen zu erkennen und Vorschläge für die Therapie zu geben. Allerdings waren die Trainingsdaten mangelhaft, weshalb die Software oft falsche Schlüsse zog. Als das Problem bekannt wurde, gab es in der Fachwelt weltweit einen Aufschrei.
Ein eher harmloses Beispiel ist ein Algorithmus, der mit Bildern darauf trainiert wurde, Fussbälle zu erkennen. Eine genauere Analyse der Software zeigte, dass der Algorithmus Fussbälle an den Kriterien «schwarz/weiss», «sechseckig» und «grün» identifizierte, weil auf vielen Fotos Rasen zu sehen war. Das Beispiel macht klar, wie schnell sich derartige Korrelationen einschleichen können. An der HEIG-VD arbeiten Fachleute jetzt an Lösungen für Erklärbarkeit, «Explainability».
Entscheidungshilfe anstatt Diagnose
«Studien zeigen, dass Ärzte oftmals auf das Urteil einer Software vertrauen und die eigene Entscheidung anzweifeln», sagt Bernice Elger. «Da ist es fatal, wenn der Computer falsche Ergebnisse liefert.» Sicherer sei es, wenn ein Algorithmus nur Entscheidungshilfe biete und seinen Vorschlag begründe.
Zu «Explain» gehört daher auch ein Team aus dem Fachbereich Informatik der ETH Zürich, das Entscheidungshilfekonzepte entwickelt. So könnte ein Algorithmus Ärzte beispielsweise mit roten und grünen Pfeilen durch eine Diagnose führen und nacheinander Kriterien abarbeiten, die zum richtigen Ergebnis führen.
Offen für neue Fragestellungen
Das «Explain»-Projekt sei besonders, weil es offen für neue Fragestellungen sei, die sich erst während der Projektlaufzeit ergäben, sagt Bernice Elger. «Wir können direkt miterleben, wie neue Probleme auftauchen, und dann überlegen, wie wir sie ethisch angehen.» Das Thema Datenschutz zum Beispiel spielte von Anfang an eine Rolle.
Nach einiger Zeit tauchte dann die Frage auf, wie man mit Hackern umgehen solle. So gebe es nicht nur die Kategorie der «bösen» Hacker, die Daten stehlen oder Systeme lahmlegen, sondern auch «ethische Hacker», die in Computersystemen nach Schwachstellen suchen, um die Probleme offenzulegen – und die Löcher zu stopfen. «In unserem Projekt befassen wir uns auch mit der Frage, wie man das ethische Hacken rechtlich bewerten soll. Darüber hinaus überlegen wir zusammen mit der rechtswissenschaftlichen Fakultät der Universität Zürich, wie man datenschutzrechtliche Vorgaben so anpassen kann, dass man Daten für die Forschung nutzen kann, ohne den Schutz der betroffenen Personen zu verringern.»
Die Idee zu dem Projekt ergab sich aus einer längeren Zusammenarbeit mit Prof. Luzius Steiner, dem Leiter der Anästhesiologie des Universitätsspitals Basel, erzählt Bernice Elger, die früher als Internistin gearbeitet hat und den Klinikbetrieb sehr gut kennt: «Luzius Steiner und ich kamen zu dem Schluss, dass esviel zu schade ist, Patientendaten ungenutzt auf den Servern einer Klinik zu speichern, weil man sie vielfältig verwenden kann. Nur wirft das technische und ethische Fragen auf.»
Verschiedene Disziplinen zusammenbringen
Insofern sei es das Ziel von «Explain», die verschiedenen Disziplinen zusammenzubringen, um diese Fragestellungen zu klären. «Wenn Ärzte und Spezialistinnen für künstliche Intelligenz eng zusammenarbeiten, dann hilft uns das dabei, verständliche Technik zu entwickeln und gewinnbringend im Klinikalltag einzusetzen.»
Foto: © Uni Basel