Vernetzte Visionen verwirklichen, 3. bis 4. Mai 2016 in Berlin, Langenbeck-Virchow-Haus
Teilen

23.03.2021

Auf ein Wort mit Prof. Dr. Alena Buyx

Unser Interview zur Keynote

In ihrer Keynote hat Prof. Dr. Alena Buyx die ethische Dimension der Digitalisierung im Kontext der Gesundheitsversorgung und der Pandemie beleuchtet. Im Interview haben wir zu einigen Punkten noch einmal genauer nachgefragt. Wir bedanken uns herzlich für das Gespräch.

 

Frau Professor Buyx, die Corona-Pandemie hat die Digitalisierung in vielen Bereichen beschleunigt – wie hat sich das hinsichtlich ethischer Fragestellungen ausgewirkt?

Sie hat uns gezeigt, dass es einen großen Unterschied gibt zwischen ethischen Prinzipien auf der einen Seite und der Umsetzung auf der anderen Seite – wie eine Verschärfung der guten alten Erkenntnis, dass es zwischen Theorie und Praxis erhebliche Unterschiede gibt. Und dass die Probleme der Umsetzung auch eine ethische Dimension haben.

Die Spannung zwischen mehr Digitalisierung auf der einen Seite und der Sorge um Datenschutz und Datensouveränität auf der anderen zeigt sich in dieser zum Teil etwas holprigen Beschleunigung besonders klar. Aus meiner Sicht zeigt sich insbesondere, dass bestimmte ethisch gut begründete Dinge, die eigentlich funktionieren sollten, in der Umsetzung nicht so funktionieren.

Und das hat auch ethische Implikationen, wenn Dinge nicht schnell oder effizient genug funktionieren. Das heißt, diese Umsetzungsfragen besorgen zum Teil nicht nur diejenigen, die diese Umsetzung machen müssen, sondern auch mich als Ethikerin.

Was geben Sie den Menschen mit, die die Digitalisierung im Gesundheitswesen gestalten?

Die Kernbotschaft ist, dass es eine Balance geben muss zwischen Chancen und Risiken. Und zwar in dieser Reihenfolge, dass man nicht immer mit den Risiken beginnt. Sondern dass man beginnen muss, sich klarzumachen: Was wollen wir erreichen, was ist die Zielperspektive, und wie können wir das verantwortungsbewusst, aber auch schnell und effektiv tun.

Die Risiken darf man natürlich nicht außer Acht lassen, aber ich glaube da stehen wir in Deutschland wirklich nicht in der Gefahr. Wir müssen die Balance so hinkriegen, dass wir die Datensouveränität wahren, aber nicht vergessen, weshalb wir das eigentlich alles machen. Es gibt diesen Ausspruch „teilweise sind die Daten besser geschützt als die Menschen“ – und das ist ein erhebliches Problem. Zuallererst dient der Schutz der Datensouveränität den Menschen. Wenn er hingegen beginnt, ihnen zu schaden, dann hat man die Bedenken zu stark aufgewertet. Da muss es eine Balance geben.

Wäre es unethisch, die Chancen der Digitalisierung aus Sorge vor den Risiken nicht genügend zu nutzen?

In unserer Stellungnahme zu Big Data haben wir darauf hingewiesen, dass es ein ethisches Gebot ist, die Potenziale tatsächlich auch umzusetzen, in verantwortlicher Art und Weise. Sie gar nicht umzusetzen oder sie zu ignorieren, ist ethisch tatsächlich problematisch.

Sie haben den optimistischen Appell formuliert, den Datenschutz als Chance zu begreifen. Worin liegt diese Chance?

Viele Regelungen zum Datenschutz sind nicht mehr passend oder gar dysfunktional, man muss also neue Schutzkonzepte entwickeln. Wir haben detaillierte Empfehlungen gemacht, die einen guten, sicheren, verlässlichen Datenschutz gewährleisten können – der aber nicht von vor 25 Jahren ist, sondern an das angepasst ist, was wir erreichen wollen. Der also mit neuen Ansätzen auf die neuen Möglichkeiten reagiert.

Auch im Datenschutz liegt eine Innovationschance; dieser „Datenschutz made in Germany“ ist ein hohes Gut. Ein Vorschlag von uns ist, dass man beispielsweise Datengütesiegel stärker nutzen könnte, etwa um Daten zu kuratieren. Damit man begreift: Diese starken Schutzkonzepte haben ethischen Wert, sind aber so gebaut, dass sie es ermöglichen, die vielen Potenziale und Chancen tatsächlich zu realisieren.

Ganz praktisch gesehen: Wie kommt die Ethik in die digitale Medizin – wie schaffe ich es, meine Innovation ethisch zu gestalten?

Die Praktiker rufe ich dazu auf, sich gute Konzepte anzusehen und mutig auszuprobieren. Für viele Forscher sind zum Beispiel diese Einwilligungsfragen eine Herausforderung. Dazu gibt es total gut entwickelte Konzepte wie dynamic consent, meta consent, cascade consent: Das ist alles digital ausgearbeitet, die Tools, die Software-Oberflächen und das backend sind da. Und solche Best Practice Beispiele einfach mal auf den eigenen Kontext übertragen – kann man sowas für den eigenen Anwendungsbereich bauen?

Aber das sagen wir nicht nur den Praktikern, das sagen wir genauso der Politik. Es gibt viele Konzepte, die wir in dieser Stellungnahme vorschlagen: alle möglichen Versionen von Datentreuhänderschaft, verschiedene institutionelle Standards. Wir sagen, da muss mehr Geld investiert werden, da müssen mehr Menschen ausgebildet werden, wir geben ganz vielen Akteuren viel zu tun. Alle müssen ran – es ist eine Multiakteursverantwortung. Und wir müssen aus diesem Konflikt raus, hier die Praktiker – da die Bedenkenträger.

Im Rahmen Ihrer Professur für Ethik der Gesundheitstechnologien entwickeln Sie das Konzept der „embedded ethics“. Worum geht es dabei?

„Embedded ethics“ ist ein Konzept, bei dem Ethik, also ethische Aspekte und Implikationen, von Anfang in den Technologieentwicklungsprozess einfließen und Ethiker schon bei den Entwicklungsmeetings regelmäßig mit am Tisch sitzen. In der Medizin ist das gar nicht so neu, aber bei den Technikern, den Ingenieuren ist das durchaus ungewöhnlich. Wir haben dazu verschiedene Forschungsprojekte, bei denen wir das einfach mal versuchen: Was passiert, wenn Ethiker mit dabei sind, die an bestimmten Stellen Fragen stellen, die einem Ingenieur vielleicht nicht einfallen. Die zum Beispiel sagen, selbst lernende Algorithmen – da gibt es diese und jene bekannte ethische Herausforderung, denkt mal gleich von Anfang an darüber nach.

Wie ist die empfohlene Datensouveränität real zu erreichen – habe ich als Bürger eigentlich die Chance, einer Datennutzung nicht zuzustimmen?

Wir sagen: Es muss eine Entscheidung möglich sein und es muss verschiedene Möglichkeiten geben. Man muss da, wo es einem wichtig ist, in den Datenstrom eingreifen können.

Aber das heißt nicht, dass man immer von Anfang an bei allem gefragt werden muss. Man sollte etwa die Möglichkeit der initialen Datenfreigabe haben. Vielen reicht das. Wenn ich aber möchte, dass ich immer, wenn etwas Entscheidendes verändert wird oder etwas Neues mit meinen Daten gemacht wird, informiert werde, dann sollte ich Nachricht erhalten können. Die Tools, die diese unterschiedlichen Wege umsetzen, gibt es schon, Stichwort dynamic consent, meta consent, cascade consent. Es gibt viele Best Practice-Möglichkeiten, die es schaffen, Bürgern diese Souveränität zu erlauben.

Souveränität heißt ja nicht die perfekte Kontrolle. Davon müssen wir uns verabschieden, das ist völlig unrealistisch in der heutigen Zeit. Aber da, wo es mir wichtig ist – und das ist für die Menschen unterschiedlich, was ihnen wichtig ist –, da sollte ich die Möglichkeit haben, einzugreifen.

Wie geht das zusammen, dass die Menschen per Social Media massenhaft Daten zur Verfügung stellen und andererseits große Ängste im Gesundheitsbereich haben?

Das ist tatsächlich ein Widerspruch. Dabei sind die Menschen sind laut Befragungen sehr viel bereiter, ihre Daten für gemeinschaftliche Zwecke zu geben, als für rein kommerzielle Nutzung. Dazu habe ich eine Studie in Kiel gemacht, die das gezeigt hat: Die Menschen sagen, wenn das im Rahmen staatlich geförderter medizinischer Forschung bleibt, überhaupt kein Problem, macht mit den Daten, was ihr wollt. Aber als wir gefragt haben, wie würden Sie das bewerten, wenn das Forschung durch kommerzielle Unternehmen wäre, ging diese Bereitschaft drastisch runter.

In der Praxis ist es genau umgekehrt: Über die ganzen Plattformen hauen die Leute ihre Daten raus, weil sie keine Lust haben, 47 Seiten Cookie- und Sicherheitseinstellungen durchzugehen, und das ist ja auch explizit so designed, dass das ganz schwierig ist. Und gleichzeitig sind bei uns zum Beispiel medizinische Forschung oder auch so Dinge, wie wir sie jetzt in der Pandemie wahrnehmen, höchst reguliert.

Man muss also von wirtschaftlichen Akteuren sehr viel stärker Privacy by Design Standards fordern – man muss sie zwingen, mehr Verantwortung zu übernehmen, damit nicht das Individuum selbst dafür sorgen muss, dass seine Datensouveränität gewahrt bleibt. Die hohen Schutzstandards müssen dann auch für Unternehmen gelten. Und gleichzeitig sollte man sicherstellen, dass Potentiale gerade auch im öffentlichen Bereich umgesetzt werden können. Da gibt es ein echtes Missverhältnis und darauf weisen wir in unserer Stellungnahme relativ stark hin.

Wo liegen denn aus Ihrer Sicht die Risiken der digitalen Vernetzung sowie Datensammlung und -nutzung im Gesundheitsbereich?

Die Risiken sind ja hinlänglich bekannt, dass Surveillance-Daten zum Beispiel dann doch für was anderes genutzt werden. Das haben wir jetzt in der Pandemie bei den Tracking-Listen gesehen, als es große Diskussionen gab, ob diese von der Polizei genutzt werden dürfen. Die waren natürlich katastrophal, was das Thema Datenschutz anbelangt, denn da konnte jeder Nutzer auf einen Blick sehr viel sehen. Das kann viel besser digital über Apps gemacht werden, die über QR-Codes gesicherte Kontaktnachverfolgung machen.

Ein anderes Beispiel war Südkorea, wo intensives Tracking mit großer Unterstützung aus der Bevölkerung gemacht wurde, wodurch dann aber bei einem Ausbruch in einem Ausgehviertel die LGBTQ-Community quasi mit geoutet wurde. Von solchen Kollateralschäden kann man lernen und sie dann von vornherein zu vermeiden suchen.

Was nicht passieren darf ist, dass man aufgrund der Risiken kaum noch was digital macht. Denn die Zettel- und Faxwirtschaft ist ganz sicher schlechter. Sie ist am Ende des Tages viel risikohafter, weil der Datenschutz auch noch schlecht ist, und sie erreicht auch nicht das Ziel, das man erreichen möchte und mit digitalen Tools erreichen könnte.

 

Prof. Dr. Alena Buyx

Zur Person

Prof. Dr. Alena Buyx ist seit 2018 Direktorin des Instituts für Geschichte und Ethik der Technischen Universität München sowie Professorin für Ethik der Medizin und Gesundheitstechnologien an der Medizinischen Fakultät der TU München. Im Mai 2020 hat der Deutsche Ethikrat sie zur Vorsitzenden gewählt.

Prof. Alena Buyx ist vollapprobierte Ärztin mit weiteren Abschlüssen in Philosophie und Soziologie. Vor ihrem Wechsel an die TU München war sie Professorin für Medizinethik an der Universität Kiel, Emmy Noether-Gruppen-Leiterin an der Universität Münster, Academic Scholar an der Harvard University, stellvertretende Direktorin des englischen Ethikrats und Senior Fellow am University College London. 

nach oben