Was in den Daten steckt, die vernetzte Hausgeräte sammeln, ist uns häufig gar nicht bewusst. Wir sollten die Datensammlungen in einem größeren Zusammenhang betrachten, so Frederike Kaltheuner von der Organisation Privacy International im Interview.
Unternehmen werten diverse Daten über Verbraucherinnen und Verbraucher aus. Die meisten wissen aber nicht, wie das genau funktioniert. Worum geht es hier?
Wir beobachten, dass immer mehr Menschen sich Sorgen darüber machen, auf welche Weise Unternehmen ihre Daten verarbeiten, weil wir als Einzelne die Kontrolle darüber völlig verloren haben. Es gibt einen schwerwiegenden Mangel an Vertrauen in die Bereitschaft von Unternehmen, ihre Kunden zu schützen.
Es ist zwar ein gutes Zeichen, dass die Menschen sich betroffen fühlen, aber das durchschnittliche technische Verständnis ist sehr gering. Es geht dabei um die Beobachtung des Verhaltens (Tracking), das Anlegen von Personenprofilen (Profiling) und automatisierte Entscheidungsprozesse, die daran ansetzen.
Die meisten Menschen denken bei Privatsphäre an die explizite Preisgabe von Informationen wie etwa den Wohnort oder daran, was sie in den sozialen Medien posten. Unsere Geräte und die Dienste, die wir nutzen, sammeln allerdings ständig große Datenmengen und generieren Informationen über uns, selbst wenn wir dazu aktiv gar nichts beitragen.
Was bedeutet das für uns als Verbraucherinnen und Verbraucher?
Unsere Vorlieben und Abneigungen werden heute in einem Ausmaß digital gespeichert, verarbeitet und verwertet, das bis vor wenigen Jahren undenkbar war. Die Technologie, die wir nutzen, wird immer allgegenwärtiger, kleiner, leistungsstärker und dadurch immer mehr in unseren Alltag eingebunden. Das Ausmaß, in dem unser Verhalten online wie auch offline massive Datenspuren generiert, und wie viele sensible Informationen daraus abgeleitet und teilweise vorausgesagt werden können, übersteigt die Erwartungen.
Ein undurchsichtiges Ökosystem der Daten
Wofür werden unsere Daten verwendet?
Der größte Treiber hinter der umfassenden Datenaufzeichnung und Profilbildung ist noch immer die Werbeindustrie und das damit einhergehende Tracking der Nutzerinnen und Nutzer. Hinter den werbegetriebenen Produkten und Dienstleistungen – also hinter jeder App, die wir nutzen, hinter jedem personalisierten Streaming-Anbieter – steckt ein hochkomplexes und undurchsichtiges Ökosystem aus Unternehmen, von denen die meisten Menschen noch nie etwas gehört haben.
Dieses Ökosystem wird immer häufiger auch von Organisationen und Institutionen genutzt, die gar nichts mit Werbung zu tun haben. Das reicht von Risikobewertungen durch Versicherungen und Gesundheitsdienstleister bis hin zu Personalentscheidungen, Polizeiermittlungen und der Informationsgewinnung durch heimische und ausländische Geheimdienste.
Entscheidungen über Verbraucherinnen und Verbraucher
Mit Blick auf unser Privatleben ist das beunruhigend, denn Einzelpersonen haben kaum eine Vorstellung davon, welche Informationen über sie generiert und gespeichert werden, und wie es zu bestimmten Entscheidungen kommt. Das führt in die Richtung einer Gesellschaft, in der mächtige Organisationen ohne Rechenschaftspflichten einzigartige Einblicke und Informationen über Einzelpersonen, Gruppen und ganze Bevölkerungssegmente haben. Solche Informationen werden bereits heute genutzt, um Entscheidungen herbeizuführen, die uns als Verbraucherinnen und Verbraucher betreffen.
Was für Entscheidungen sind das?
Daten und Profile werden verwendet, um daraus Entscheidungen über Menschen und ihre Umgebung abzuleiten oder automatisch zu treffen. Ich sage „abzuleiten oder automatisch zu treffen“, weil ich denke, dass wir bei der Automatisierung differenzieren müssen. Auch wenn Daten voll automatisiert verarbeitet werden, ist diese Verarbeitung entscheidend von menschlichen Entscheidungen geprägt.
Es ist wichtig anzuerkennen, dass menschliches Entscheiden erheblich durch Profile vordefiniert, beeinflusst und geleitet werden kann, die vollständig automatisiert erstellt wurden. Viele Menschen geben Empfehlungen von automatisierten Systemen den Vorzug gegenüber anderslautenden Informationen, die ohne solche Verfahren erlangt wurden – selbst dann, wenn letztere korrekt sind.
Wo genau gibt es das?
Ein gutes Beispiel sind die automatisch erstellten Risikobewertungen, die in der Strafjustiz verwendet werden. Programme wie COMPAS errechnen einen Wert, der die Wahrscheinlichkeit vorhersagen soll, mit der eine angeklagte Person künftig ein Verbrechen begehen könnte. In den USA hat 2016 das höchste Gericht des Bundesstaats Wisconsin die Verwendung des Programms genehmigt.
Auch wenn die endgültige Entscheidung formal von einer Richterin oder einem Richter gefällt wird, kann die automatisch vom Programm errechnete Wahrscheinlichkeit ausschlaggebend sein. Das gilt vor allem, wenn sich die Richterinnen und Richter ausschließlich auf diese Informationen stützen oder sie nicht vor den Risiken gewarnt wurden. Zu diesen Risiken gehört etwa, dass die Software ungenaue, diskriminierende oder unfaire Entscheidungen generiert.
Vorschläge gegen Diskriminierung
Wie lassen sich diese Risiken Ihrer Ansicht nach vermeiden?
Wir von Privacy International haben kürzlich eine Stellungnahme dazu veröffentlicht. Wir schlagen vor, dass diejenigen, die Entscheidungen mit einer gewissen Bedeutung treffen, erkennen können müssen, ob ein Profil, das sie zum Entscheidungsfinden verwenden, akkurat, fair und nicht diskriminierend ist.
Das ist wichtig, damit gewährleistet wird, dass die Entscheidung auf wesentlicher menschlicher Mitwirkung beruht. Das setzt voraus, dass Entscheidungen regelmäßig überprüft werden und die prüfende Person auch das technische Verständnis dafür mitbringt, besonders was die Art und Weise betrifft, in der Profiling und automatisierte Entscheidungen zu Ungenauigkeiten und Ungerechtigkeiten führen können. Außerdem muss dann das System, das verwendet wird, ausreichend überprüfbar und interpretierbar sein.
Neue Regeln für Profiling
Wenn Personenprofile über mich angelegt werden, über die ich keine Kontrolle habe – gibt es Gesetze, die mich davor schützen?
Eine der Errungenschaften der Datenschutz-Grundverordnung, des neuen europäischen Datenschutzgesetzes, besteht darin, dass die Praxis des Profilings definiert wird. Profiling ist eine Datenverarbeitung, die darauf abzielt, persönliche Aspekte einer Person zu bewerten, zu analysieren oder vorherzusagen, etwa hinsichtlich ihrer Vorlieben, Interessen, Zuverlässigkeit, ihrer wirtschaftlichen Lage oder Gesundheit. Es werden also persönliche Profile erstellt, die aus Informationen bestehen, die Konsumenten nie über sich preisgegeben haben, sondern die sich aus Verhaltensmustern ableiten und vorhersagen lassen.
Das Gesetz führt neue Bestimmungen ein, um den Risiken zu begegnen, die sich aus der Erstellung von Profilen und der automatisierten Entscheidungsfindung ergeben. Allerdings werden die Anwendungsbereiche und Grenzen der Bestimmungen gerade heiß diskutiert. Das liegt einerseits an ungeschickten Formulierungen wichtiger Artikel in der Verordnung, andererseits an einem Mangel an Orientierungshilfen zur Interpretation der neuen Verordnung.
Wir werden sehen, wie diese lauten werden – etwa die der Artikel-29-Datenschutzgruppe. Das ist ein Gremium, aus den Datenschutzbehörden der EU-Staaten und EU-Institutionen. Außerdem werden wir natürlich beobachten, wie das Gesetz angewendet und durchgesetzt wird, nachdem es auch in Deutschland im Mai 2018 in Kraft getreten sein wird.
Oft sagen Unternehmen, dass meine Daten nur genutzt werden, um ein Produkt anzubieten oder eine Dienstleistung zu verbessern. Ist dann alles in Ordnung?
Absolut nicht. Meine größte Sorge ist immer eine schleichende Ausweitung von Funktionen. Mein Lieblingsbeispiel dafür ist eine Staubsaugerfirma. Ihr Chef hatte zunächst erklärt, dass das Unternehmen damit anfangen könnte, Grundrisse an Amazon, Apple und Google Alphabet zu verkaufen, die auf den Bewegungen der autonomen Staubsauger in den Wohnungen der Kunden beruhen. Wenn wir leistungsstarke Sensoren, Mikrofone und Kameras zu Hause haben, ist eine erweiterte Datensammlung oft mit einem einfachen Update möglich. Das verändert das Machtverhältnis zwischen Herstellern und Geräteinhabern von Grund auf. Das Zuhause ist die nächste Eroberung der Datenindustrie.
Wenn das so ist, wem dienen vernetzte Geräte und Sprachassistenten dann neben mir noch alles?
Wir sollten die Technologie als solche nicht damit vermischen, wie sie genutzt wird. Momentan habe ich den Eindruck, dass viele Geräte günstig verkauft werden, weil das eigentliche Geschäftsmodell die Auswertung der Daten ist, die sie generieren. Früher haben wir gesagt: Wenn du nicht für das Produkt bezahlst, bist du selbst das Produkt. Jetzt zahlen wir mittlerweile, aber sind an manchen Stellen dennoch das Produkt, das etwa an Werbetreibende vermarktet wird. Das muss aber nicht so sein.
Macht es denn einen Unterschied, ob in meinem vernetzten Zuhause Daten über mich anfallen, wenn schon mein Smartphone ganz viele Daten über mich erhebt und teilweise weitergibt?
Die kurze Antwort ist: Ja, das macht einen Unterschied. Anhand immer mehr, selbst scheinbar banal alltäglicher Daten lassen sich immer invasivere Muster und Zusammenhänge erkennen. Wie oft sind wir zu Hause? Wohnen wir alleine und schlafen wir jede Nacht dort? Gehen wir vielleicht fremd? Sind wir neurotisch oder depressiv?
Ich kann verstehen, dass manche Menschen resignieren, aber es ist wichtig, diesem Gefühl auf den Grund zu gehen. Die meisten Menschen wissen, dass Technologieunternehmen und zahllose Dritte detaillierte Profile von uns erstellen, aber die Angst bleibt diffus. Zwar gibt es schon jetzt ein sogenanntes Auskunftsrecht, also das Recht, eine Kopie der von Unternehmen verarbeiteten personenbezogenen Daten zu erhalten. In der Praxis ist das jedoch oft schwierig. Um meine Daten anzufragen, muss ich zunächst einmal wissen, wer meine Daten überhaupt verarbeitet, und das sind bereits für eine einzelne Person oft tausende Firmen.
Was in den Daten steckt, die vernetzte Hausgeräte sammeln, ist uns häufig gar nicht bewusst. Wir sollten die Datensammlungen in einem größeren Zusammenhang betrachten, so Frederike Kaltheuner von der Organisation Privacy International im Interview.
Unternehmen werten diverse Daten über Verbraucherinnen und Verbraucher aus. Die meisten wissen aber nicht, wie das genau funktioniert. Worum geht es hier?
Wir beobachten, dass immer mehr Menschen sich Sorgen darüber machen, auf welche Weise Unternehmen ihre Daten verarbeiten, weil wir als Einzelne die Kontrolle darüber völlig verloren haben. Es gibt einen schwerwiegenden Mangel an Vertrauen in die Bereitschaft von Unternehmen, ihre Kunden zu schützen.
Es ist zwar ein gutes Zeichen, dass die Menschen sich betroffen fühlen, aber das durchschnittliche technische Verständnis ist sehr gering. Es geht dabei um die Beobachtung des Verhaltens (Tracking), das Anlegen von Personenprofilen (Profiling) und automatisierte Entscheidungsprozesse, die daran ansetzen.
Die meisten Menschen denken bei Privatsphäre an die explizite Preisgabe von Informationen wie etwa den Wohnort oder daran, was sie in den sozialen Medien posten. Unsere Geräte und die Dienste, die wir nutzen, sammeln allerdings ständig große Datenmengen und generieren Informationen über uns, selbst wenn wir dazu aktiv gar nichts beitragen.
Was bedeutet das für uns als Verbraucherinnen und Verbraucher?
Unsere Vorlieben und Abneigungen werden heute in einem Ausmaß digital gespeichert, verarbeitet und verwertet, das bis vor wenigen Jahren undenkbar war. Die Technologie, die wir nutzen, wird immer allgegenwärtiger, kleiner, leistungsstärker und dadurch immer mehr in unseren Alltag eingebunden. Das Ausmaß, in dem unser Verhalten online wie auch offline massive Datenspuren generiert, und wie viele sensible Informationen daraus abgeleitet und teilweise vorausgesagt werden können, übersteigt die Erwartungen.
Ein undurchsichtiges Ökosystem der Daten
Wofür werden unsere Daten verwendet?
Der größte Treiber hinter der umfassenden Datenaufzeichnung und Profilbildung ist noch immer die Werbeindustrie und das damit einhergehende Tracking der Nutzerinnen und Nutzer. Hinter den werbegetriebenen Produkten und Dienstleistungen – also hinter jeder App, die wir nutzen, hinter jedem personalisierten Streaming-Anbieter – steckt ein hochkomplexes und undurchsichtiges Ökosystem aus Unternehmen, von denen die meisten Menschen noch nie etwas gehört haben.
Dieses Ökosystem wird immer häufiger auch von Organisationen und Institutionen genutzt, die gar nichts mit Werbung zu tun haben. Das reicht von Risikobewertungen durch Versicherungen und Gesundheitsdienstleister bis hin zu Personalentscheidungen, Polizeiermittlungen und der Informationsgewinnung durch heimische und ausländische Geheimdienste.
Entscheidungen über Verbraucherinnen und Verbraucher
Mit Blick auf unser Privatleben ist das beunruhigend, denn Einzelpersonen haben kaum eine Vorstellung davon, welche Informationen über sie generiert und gespeichert werden, und wie es zu bestimmten Entscheidungen kommt. Das führt in die Richtung einer Gesellschaft, in der mächtige Organisationen ohne Rechenschaftspflichten einzigartige Einblicke und Informationen über Einzelpersonen, Gruppen und ganze Bevölkerungssegmente haben. Solche Informationen werden bereits heute genutzt, um Entscheidungen herbeizuführen, die uns als Verbraucherinnen und Verbraucher betreffen.
Was für Entscheidungen sind das?
Daten und Profile werden verwendet, um daraus Entscheidungen über Menschen und ihre Umgebung abzuleiten oder automatisch zu treffen. Ich sage „abzuleiten oder automatisch zu treffen“, weil ich denke, dass wir bei der Automatisierung differenzieren müssen. Auch wenn Daten voll automatisiert verarbeitet werden, ist diese Verarbeitung entscheidend von menschlichen Entscheidungen geprägt.
Es ist wichtig anzuerkennen, dass menschliches Entscheiden erheblich durch Profile vordefiniert, beeinflusst und geleitet werden kann, die vollständig automatisiert erstellt wurden. Viele Menschen geben Empfehlungen von automatisierten Systemen den Vorzug gegenüber anderslautenden Informationen, die ohne solche Verfahren erlangt wurden – selbst dann, wenn letztere korrekt sind.
Wo genau gibt es das?
Ein gutes Beispiel sind die automatisch erstellten Risikobewertungen, die in der Strafjustiz verwendet werden. Programme wie COMPAS errechnen einen Wert, der die Wahrscheinlichkeit vorhersagen soll, mit der eine angeklagte Person künftig ein Verbrechen begehen könnte. In den USA hat 2016 das höchste Gericht des Bundesstaats Wisconsin die Verwendung des Programms genehmigt.
Auch wenn die endgültige Entscheidung formal von einer Richterin oder einem Richter gefällt wird, kann die automatisch vom Programm errechnete Wahrscheinlichkeit ausschlaggebend sein. Das gilt vor allem, wenn sich die Richterinnen und Richter ausschließlich auf diese Informationen stützen oder sie nicht vor den Risiken gewarnt wurden. Zu diesen Risiken gehört etwa, dass die Software ungenaue, diskriminierende oder unfaire Entscheidungen generiert.
Vorschläge gegen Diskriminierung
Wie lassen sich diese Risiken Ihrer Ansicht nach vermeiden?
Wir von Privacy International haben kürzlich eine Stellungnahme dazu veröffentlicht. Wir schlagen vor, dass diejenigen, die Entscheidungen mit einer gewissen Bedeutung treffen, erkennen können müssen, ob ein Profil, das sie zum Entscheidungsfinden verwenden, akkurat, fair und nicht diskriminierend ist.
Das ist wichtig, damit gewährleistet wird, dass die Entscheidung auf wesentlicher menschlicher Mitwirkung beruht. Das setzt voraus, dass Entscheidungen regelmäßig überprüft werden und die prüfende Person auch das technische Verständnis dafür mitbringt, besonders was die Art und Weise betrifft, in der Profiling und automatisierte Entscheidungen zu Ungenauigkeiten und Ungerechtigkeiten führen können. Außerdem muss dann das System, das verwendet wird, ausreichend überprüfbar und interpretierbar sein.
Neue Regeln für Profiling
Wenn Personenprofile über mich angelegt werden, über die ich keine Kontrolle habe – gibt es Gesetze, die mich davor schützen?
Eine der Errungenschaften der Datenschutz-Grundverordnung, des neuen europäischen Datenschutzgesetzes, besteht darin, dass die Praxis des Profilings definiert wird. Profiling ist eine Datenverarbeitung, die darauf abzielt, persönliche Aspekte einer Person zu bewerten, zu analysieren oder vorherzusagen, etwa hinsichtlich ihrer Vorlieben, Interessen, Zuverlässigkeit, ihrer wirtschaftlichen Lage oder Gesundheit. Es werden also persönliche Profile erstellt, die aus Informationen bestehen, die Konsumenten nie über sich preisgegeben haben, sondern die sich aus Verhaltensmustern ableiten und vorhersagen lassen.
Das Gesetz führt neue Bestimmungen ein, um den Risiken zu begegnen, die sich aus der Erstellung von Profilen und der automatisierten Entscheidungsfindung ergeben. Allerdings werden die Anwendungsbereiche und Grenzen der Bestimmungen gerade heiß diskutiert. Das liegt einerseits an ungeschickten Formulierungen wichtiger Artikel in der Verordnung, andererseits an einem Mangel an Orientierungshilfen zur Interpretation der neuen Verordnung.
Wir werden sehen, wie diese lauten werden – etwa die der Artikel-29-Datenschutzgruppe. Das ist ein Gremium, aus den Datenschutzbehörden der EU-Staaten und EU-Institutionen. Außerdem werden wir natürlich beobachten, wie das Gesetz angewendet und durchgesetzt wird, nachdem es auch in Deutschland im Mai 2018 in Kraft getreten sein wird.
Oft sagen Unternehmen, dass meine Daten nur genutzt werden, um ein Produkt anzubieten oder eine Dienstleistung zu verbessern. Ist dann alles in Ordnung?
Absolut nicht. Meine größte Sorge ist immer eine schleichende Ausweitung von Funktionen. Mein Lieblingsbeispiel dafür ist eine Staubsaugerfirma. Ihr Chef hatte zunächst erklärt, dass das Unternehmen damit anfangen könnte, Grundrisse an Amazon, Apple und Google Alphabet zu verkaufen, die auf den Bewegungen der autonomen Staubsauger in den Wohnungen der Kunden beruhen. Wenn wir leistungsstarke Sensoren, Mikrofone und Kameras zu Hause haben, ist eine erweiterte Datensammlung oft mit einem einfachen Update möglich. Das verändert das Machtverhältnis zwischen Herstellern und Geräteinhabern von Grund auf. Das Zuhause ist die nächste Eroberung der Datenindustrie.
Wenn das so ist, wem dienen vernetzte Geräte und Sprachassistenten dann neben mir noch alles?
Wir sollten die Technologie als solche nicht damit vermischen, wie sie genutzt wird. Momentan habe ich den Eindruck, dass viele Geräte günstig verkauft werden, weil das eigentliche Geschäftsmodell die Auswertung der Daten ist, die sie generieren. Früher haben wir gesagt: Wenn du nicht für das Produkt bezahlst, bist du selbst das Produkt. Jetzt zahlen wir mittlerweile, aber sind an manchen Stellen dennoch das Produkt, das etwa an Werbetreibende vermarktet wird. Das muss aber nicht so sein.
Macht es denn einen Unterschied, ob in meinem vernetzten Zuhause Daten über mich anfallen, wenn schon mein Smartphone ganz viele Daten über mich erhebt und teilweise weitergibt?
Die kurze Antwort ist: Ja, das macht einen Unterschied. Anhand immer mehr, selbst scheinbar banal alltäglicher Daten lassen sich immer invasivere Muster und Zusammenhänge erkennen. Wie oft sind wir zu Hause? Wohnen wir alleine und schlafen wir jede Nacht dort? Gehen wir vielleicht fremd? Sind wir neurotisch oder depressiv?
Ich kann verstehen, dass manche Menschen resignieren, aber es ist wichtig, diesem Gefühl auf den Grund zu gehen. Die meisten Menschen wissen, dass Technologieunternehmen und zahllose Dritte detaillierte Profile von uns erstellen, aber die Angst bleibt diffus. Zwar gibt es schon jetzt ein sogenanntes Auskunftsrecht, also das Recht, eine Kopie der von Unternehmen verarbeiteten personenbezogenen Daten zu erhalten. In der Praxis ist das jedoch oft schwierig. Um meine Daten anzufragen, muss ich zunächst einmal wissen, wer meine Daten überhaupt verarbeitet, und das sind bereits für eine einzelne Person oft tausende Firmen.