re:publica: Ruf nach Schutz von Hirndaten vor kommerzieller Auswertung

Mit "Brainscannern" wird es immer leichter, Gehirnwellen zu messen. Forscher befürchten, dass sich die Geräte bald verbreiten wie Smartphones und dass Hirndaten im großen Maßstab von Facebook, Google & Co. in die Cloud geladen und analysiert werden.

In Pocket speichern vorlesen Druckansicht 52 Kommentare lesen
re:publica: Ruf nach Schutz von Hirndaten vor kommerzieller Auswertung

Christiane Miethge, Philipp Kellmeyer und Silja Vöneky auf der re:publica 2018.

(Bild: Stefan Krempl  )

Lesezeit: 5 Min.
Inhaltsverzeichnis

Gehirn-Computer-Schnittstellen, über die Nutzer mit ihren Hirnströmen Rechner steuern können, wandern langsam aus dem Forschungsbereich in praktische Anwendungen etwa im Bereich Virtual-Reality-Spiele. Die Technologie werde sich bald stark in datengetriebenen Projekten durchsetzen, prognostizierte Philipp Kellmeyer, Wissenschaftler an der Abteilung für Neurochirurgie des Universitätsklinikums Freiburg, am Freitag auf der re:publica in Berlin. Die große offene Frage dabei sei weniger die Technik an sich, sondern vor allem der Datenschutz. Bislang sei völlig unklar, wem die besonders sensiblen personenbezogenen Informationen gehörten und wer sie kontrolliere.

Startups und Internetkonzerne dürften sich bald einen Wettbewerb um die Nutzung der menschlichen Hirndaten liefern, schätzt der Neurologe. Neue einschlägige Gadgets würden dann damit beworben, dass sie dank der Messung der Gehirnaktivitäten ein besseres Nutzungserlebnis böten oder die Anwender klüger machten. Auch mit Schlagwörtern wie "Bewusstseinserweiterung" oder "Selbstoptimierung" dürften Kunden angelockt werden. Ähnlich wie bei persönlichen Informationen in sozialen Netzwerken könnte dies dazu führen, dass "Hirndaten im großen Maßstab freigegeben, in die Cloud hochgeladen und ausgewertet werden", befürchtet der Forscher. Die beteiligten Firmen könnten über derart angereicherte Big-Data-Analysen etwa versuchen, Depressionen oder eine Suizidgefahr vorherzusagen.

In der Wissenschaft tue sich in diesem Bereich einiges, erläuterte Kellmeyer. Er sehe zwar "keinen echten Durchbruch" auf dem Weg zu dem großen Ziel von Initiativen wie dem "Human Brain"-Projekt in Europa oder der "Brain Initiative" in den USA, das menschliche Gehirn mit dem Computer zu simulieren. Für die meist zur Messung der elektrischen Aktivität des Gehirns eingesetzte, mit Elektroden auf der Kopfhaut arbeitende Elektroenzephalographie (EEG) gebe es aber neue Entschlüsselungsmethoden. Dabei werde etwa Künstliche Intelligenz (KI) für die automatische Datenanalyse eingesetzt. Die Algorithmen würden so immer besser und könnten potenziell auf tieferer Ebene mehr Informationen herausziehen und Hirnaktivitäten in Echtzeit erkennen. Praktisch lasse sich so etwa vorhersagen, in welche Richtung sich ein Mensch bewegen werde.

Als interessanten Ansatz, um weitere Gehirnregionen zu erschließen, nannte der Forscher auch geschlossene, sich selbst steuernde Systeme ("Closed Loop") mit Implantaten. Damit ließen sich Hirnströme über längere Zeit viel flexibler, ungestörter und angepasster auf die Umgebung analysieren. Parallel sieht Kellmeyer aber die eigene Zunft und die Politik gefragt, die nun dringend Regeln für diesen Bereich setzen müsse. Dringend erforderlich sei es etwa, neue Klassen biometrischer Daten festzulegen. Darüber könnten Messwerte etwa von Fitness-Trackern auf eine andere Schutzebene gestellt werden als Hirndaten.

Als weitere Lösung brachte der Experte spezielle Datenbanken ins Spiel, die als Vermittlungsinstanzen zwischen einzelne Nutzergruppen geschaltet werden könnten. Über solche Plattformen ließe es sich verhindern, dass besonders sensible Informationen direkt an Firmen gingen. Die Systemhersteller sollten zudem stärker auf Ansätze wie "Privacy und Security by Design" setzen, also den Datenschutz direkt in die Technik einbauen. Vielversprechend könnten sich dabei Verfahren wie "Differential Privacy" auswirken. Dabei passieren Datenbankabfragen einen Filter, der Unschärfe hinzufügt. Kellmeyer mahnte, dass alle Beteiligten aber jetzt über solche Schutzverfahren nachdenken müssten, bevor sich "Brainscanner" so rasch verbreiteten wie Smartphones.

Derzeit investierten neben militärischen Forschungsinstitutionen wie der DARPA zahlreiche Technologiefirmen einschließlich Facebook und Google in Gehirn-Computer-Schnittstellen, berichtete die Filmemacherin Christiane Miethge, die für ihr Projekt "Homo Digitalis" in die Szene der Hirn- und Biohacker eintauchte. Wenn beispielsweise nur ein Prozent der Facebook-Nutzer entsprechende Scanner nutze, erhalte der Betreiber sehr viele intime Daten über sie. Man könne mit der derzeitigen Messtechnik zwar nicht Gedanken lesen, aber etwa feststellen, ob jemand wach ist und welche Vorlieben er hat.

Ein kanadischer Wissenschaftler hat Miethge zufolge bereits versucht, mithilfe von EEG und zusätzlicher Messungen der Augenbewegungen sexuelle Vorlieben von Probanden wie Pädophilie herauszufinden. Wenn solche Verfahren von Behörden oder Unternehmen erst einmal eingesetzt würden, dürfte man sich schlecht gegen solche automatisierten Einschätzungen wehren können, selbst wenn der Wahrscheinlichkeitsgrad ihrer Prognosen nicht sonderlich hoch sei. "Was wäre, wenn Versicherungen oder Arbeitgeber diese Informationen bekämen?", fragte die Produzentin. Auch sie warb daher für rechtliche Regeln, um die Verwendung von Hirndaten einzuschränken.

Aus juristischer Sicht erläuterte die Freiburger Professorin für Rechtsethik Silja Vöneky, dass etwa per EEG gewonnene Messwerte sehr spezielle Informationen seien, die einen "direkten Weg zur menschlichen Persönlichkeit" ebneten. Sollten Verbraucher aber einwilligen in die Abgabe solcher Daten, könne man kommerziellen Nutzern keine Menschenrechtsverletzung vorwerfen. In der neuen EU-Datenschutzverordnung gebe es keine spezielle Kategorie dafür jenseits etwa von allgemeinen Gesundheitsdaten. Zudem seien die Einwilligungsoptionen vergleichsweise breit gefasst. Dies gelte auch für Ausnahmen, nach denen selbst Informationen über die sexuelle Orientierung verwendet werden dürften. Technische Selbstoptimierung sei zudem Teil der Autonomie, sodass es mit Vorschriften schwierig werde. Vöneky plädierte daher für eine "internationale Erklärung zur Datenethik" mit gesonderten Vorgaben für Hirnanalysen. (bme)