Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung

Von Ralf Keuper

Kann die Gesundheitsversorgung durch den Einsatz von Big Data – Lösungen verbessert werden, ohne dabei die Informationelle Selbstbestimmung der Bürger zu beeinträchtigen – kann der “Gläserne Patient” verhindert werden? Diesen Fragen wendet sich der Ethikrat in seiner Stellungnahme Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung zu.

Aus der Zusammenfassung:

  • Zusammenfassend lassen sich anwendungskontextübergreifend die folgenden Stärken, Schwächen, Chancen und Risiken von Big Data in gesundheitsrelevanten Bereichen identifizieren: Zu den Stärken gehören die wachsende Datenbasis, die damit verbundene Entwicklung innovativer digitaler Instrumente sowie der hohe Grad der Vernetzung der Akteure. Zu den Schwächen gehören Schwankungen bei der Datenqualität, Intransparenz von Datenflüssen, Kontrollverluste sowie erhöhte Koordinations-, Regulierungs und Qualifikationsanforderungen. 
  • Als Chancen von Big Data sind vor allem bessere Stratifizierungsmöglichkeiten bei Diagnostik, Therapie und Prävention und damit verbundene Effizienz- und Effektivitätssteigerungen sowie die Unterstützung gesundheitsförderlichen Verhaltens zu nennen. Risiken bestehen hinsichtlich Entsolidarisierung, Verantwortungsdiffusion, Monopolisierung, Datenmissbrauch und informationeller Selbstgefährdung. 
  • Die konkrete Beurteilung von Big-Data-Anwendungen mit Gesundheitsbezug hängt maßgeblich von den jeweils beteiligten Akteuren mit ihren unterschiedlichen Interessen und eigenen Chancen- und Risikoeinschätzungen sowie dem jeweiligen Anwendungskontext ab

So richtig festlegen wollen und können sich die Autoren nicht. Die DSGVO werden den Anforderungen von Big Data in der Medizin nicht gerecht:

Angesichts der jüngst erfolgten umfassenden Neuordnung des Datenschutzrechts durch die DSGVO und das BDSG n. F. ist zwar abzuwarten, ob und wie sich die neuen Normen und Mechanismen bewähren. Indes dürfte feststehen, dass einige Grundprinzipien des geltenden Datenschutzrechts mit dem Konzept von Big Data kaum in Einklang zu bringen sind. Dieser Spannung kann im Rahmen der vom Verfassungsrecht gewährten Handlungsspielräume mit flexiblen, innovationsoffenen Regelungen Rechnung getragen werden, die auch die Verwendung komplexerer, privatrechtlicher wie privat-staatlich kooperativer Steuerungsbeiträge mitberücksichtigen.

Die Patienten könnten bei ihrer Einwilligung, die nach DSGVO eine Zweckbindung vorsieht, nicht abschätzen, ob ihre Daten nicht doch wichtige Rückschlüsse auf ihre Gesundheit zulassen, obwohl das im Moment der Freigabe oder Ablehnung noch nicht zu erkennen sei. Insofern sollte die Einwilligung dynamischer, kaskadierend gestaltet werden. Dabei könnten sog. Datenagenten unterstützend wirken:

Eine weitere Möglichkeit, Verantwortung für die Rechte des Individuums zu übernehmen und dabei dennoch legitime Geschäftsinteressen zu wahren, wären Stellvertretersysteme an den programmatischen Schnittstellen in Datennetzwerken. Solche Schnittstellen könnten als „Datenagenten“ Präferenzen von Datengebern für die Datenhandhabung umsetzen. Hierdurch würde eine individuelle Datenverwaltung durch eine programmatische Verwaltung ersetzt, die dem Einzelnen eine technisch niedrigschwellige und reliable Möglichkeit gäbe, Verantwortung für die Wahl eigener kurz-, mittel- und langfristiger Strategien der Datenhandhabung zu übernehmen, ohne jede Einzelfrage selbst entscheiden zu müssen.

Die Vorschläge des Ethikrates blieben nicht ohne Widerspruch.

In der FAZ warnte Gert Antes vor einem Datenrausch in der Medizin, worauf Philip Grätzel von Grätz, ebenfalls in der FAZ, eine Erwiderung schrieb (Vgl. dazu: Im Datenrausch).

In einem Interview warnte Philip Kellermeyer vor der Verwertung von Hirndaten durch Google & Co (Vgl. dazu: Neurowissenschaftler wollen umfassenden Daten-Schutz für Infos aus dem Hirn).

Daraus:

Frage: Sie und die Kollegen, die am Aufsatz in “Nature” beteiligt waren, fordern, den Zugriff auf Gehirndaten zu beschränken, bevor die Industrie davongaloppiert. Durch einen ethischen Kodex?

Kellermeyer: Das wird nicht reichen. Zuerst brauchen wir eine breite gesellschaftliche Debatte zu diesem Thema, beispielsweise zur Frage, ob man Gehirndaten anders bewertet als andere biometrische Daten. Sind sie nichts anderes als Daten von Fitnesstrackern oder als Gesundheitswerte? Oder sagen wir, keine anderen Daten repräsentieren unser Innerstes so sehr wie Gehirndaten, also ist es umso wichtiger, sie zu schützen?

Die generelle Frage ist in dem Zusammenhang, inwieweit Daten überhaupt Aufschluss über mentale Zustände geben können und welche Rückschlüsse sich daraus für die Gesundheit ziehen lassen. Mehr Daten bedeuten nicht zwangsläufig bessere Resultate, was Antes in dem erwähnten Beitrag moniert:

Mehr Daten bedeuten nicht automatisch mehr Wissen. Im Gegenteil, dieser Tatbestand bedeutet, dass selbst die Hinzunahme weiterer korrekter Daten die Erkenntnissituation verschlechtern kann. Damit ist die Konstruktion, den Wissenszuwachs und damit die Handlungsgrundlage auf wachsende Datenmengen zu gründen, mehr als fragil. Wenn mit zunehmender Datenmenge das störende Rauschen zunimmt, sind echte Effekte weniger leicht zu finden, also der Anteil der falsch identifizierten, also unechten Effekte nimmt zu. Diese Falsch-Positiven sind eines der zentralen Probleme der empirischen Forschung und können durch den Big Data – Ansatz über die Korrelationen zu völler Blüte gelangen.

Ähnlich argumentiert Gerd Gigerenzer u.a. in Simple Heuristics.

Überhaupt kann man die Frage stellen, ob es nicht manchmal besser ist, nicht zu viel über seinen Gesundheitszustand zu wissen oder sich nicht zu sehr damit zu beschäftigen, wie Hans-Georg Gadamer, der immerhin 102 Jahr alt wurde, in Über die Verborgenheit der Gesundheit – Aufsätze und Vorträge empfahl.

Daten sind nicht neutral, sondern müssen interpretiert werden, worauf u.a. Hans Sandkühler hinweist:

In neurowissenschaftlichen Experimenten werden nicht mentale repräsentationale Leistungen gemessen, deren physische Basis diese oder jenes individuelle Gehirn ist, sondern physische Prozesse/Zustände eines neurobiotischen Systems. Die Prozesse/Zustände dieses Systems werden aufgrund bestimmter theoriegeleiteter Hypothesen und Erkenntnisziele und mithilfe mathematischer/statistischer Methoden in Bilder/Zeichen transformiert. Die transformierten Daten werden als Repräsentationen interpretiert. Je nach dem gewählten epistemologischen Profil, nach der präferierten Rahmentheorie und dem der Theorie zugehörigen Begriffsschema kommt es – oder kommt es nicht – zu Aussagen über mentale Aktivitäten im Gehirn. Diese ergeben sich aber nicht direkt aus dem experimentell gewonnenen Datenmaterial, sondern sind das Ergebnis von Interpretationen. Die Interpretationen sind an Überzeugungen, Denkstile, Denkgemeinschaften und Wissenskulturen gebunden (Quelle: Kritik der Repräsentation).

Auf der anderen Seite entziehen sich selbstlernende Systeme der Transparenz, d.h. irgendwann ist es nicht mehr nachvollziehbar, nach welchen Kriterien die Entscheidungen oder Vorschläge erzeugt wurden. Ein Problem, auf das Joachim Müller-Jung in Künstliche Intelligenz: Augen auf, Google guckt näher eingeht.

Wir brauchen, wie der Ethikrat empfiehlt, Datentreuhänder. Beispielhaft dafür ist die Healthbank in der Schweiz. Interessant ist auch der Ansatz, den die BertelsmannStiftung vor einiger Zeit vorgestellt hat (Vgl. dazu: Der digitale Patient: Zugriffsberechtigungen für elektronische Patientenakten). Ein Weg könnten Datenagenten oder Personal Data Banks oder Identity Banks sein, welche für die Patienten die Verwaltung der personenbezogenen Daten und das Management der Einwilligungen stellvertretend übernehmen.

Dieser Beitrag wurde unter Data Banking, Datensouveränität, Digitale Identitäten, Identity Economy veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar