Sie heißen Alexa, Siri und Cortana, nur Google tanzt mit der schlichten Bezeichnung Google Assistant etwas aus der Reihe. Einmal in der Wohnung aufgestellt und eingerichtet, befinden sie sich in permanenter Lauschbereitschaft. Durch irrtümliche Aktivierung können auch privateste Gespräche beim Anbieter landen. Von Christa Scharaditsch
Dass digitale Assistenten keineswegs harmlos sind, zeigt eine aktuelle Studie von Arbeiterkammer und dem Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW). „Apples Siri, Amazons Alexa, Googles Assistant und Cortana von Microsoft sind oft auf dem Handy mit dabei oder lauschen in den Wohnungen mit. Die Anbieter sammeln Sprachprofile, geben beispielsweise Standortdaten weiter, die Zwecke jenseits der Diensterfüllung bleiben dank vager Datenschutzerklärungen meist im Verborgenen – das ist vielen nicht bewusst, vor allem Kindern nicht“, warnt AK Konsumentenschützerin Daniela Zimmer.
Die Jagd auf Kundendaten
Was machen die Sprachassistenten eigentlich mit den vielen erfassten Daten? Im Regelfall gehen die Befehle an die Server der Unternehmen. Nach der Aktivierung mittels Stichwort übertragen die Geräte ungefilterte Aufnahmen inklusive Hintergrundgeräuschen in ihre jeweilige Cloud – zentralisierte, oft weit entfernte Serverstrukturen mit riesigen Kapazitäten. Dort werden sie gespeichert, automatisch analysiert und verarbeitet. Dann wird das Ergebnis an das Eingabegerät zurückgesendet. Die einzelnen Datenschutzerklärungen der Anbieter begründen meist nur allgemein, zu welchem Zweck sie Nutzerdaten erfassen, und nennen etwa die Bereitstellung und die laufende Verbesserung ihrer Dienste. Eine weitere unbekannte Komponente ist, wie lange die Daten gespeichert werden. Jegliche Kundeninformationen haben ja für die Unternehmen einen unschätzbaren Wert. Somit ist es auch nicht verwunderlich, dass die smarten Assistenten auch darauf abzielen, möglichst viel über die Nutzer und ihre Gewohnheiten sowie ihre Persönlichkeit zu lernen. „Der Wettbewerb um den Zugang zu Kunden wird härter“, erklärt Co-Studienautor Krieger-Lamina vom Institut für Technikfolgen-Abschätzung (ITA) der ÖAW „Der Onlinehandel analysiert Klicks – Sprachassistenten und ihre Drittentwickler Tonaufzeichnungen: Gespräche nach Inhalten, Absichten und Sprachmustern.“
Sexismus-Problem bei smarten Assistenten
Sprachassistenten haben fast immer die Stimme einer jungen Frau – die Gründe dafür sind unterschiedlich. Zuerst einmal empfinden viele Menschen weibliche Stimmen als angenehm, mitfühlend und hilfsbereit. Eine weitere Theorie ist, dass sich durch diese Wohlfühlatmosphäre auch der „Überwachungscharakter“ der Geräte etwas kaschieren lässt. Man blendet als Nutzer aus, dass es sich in Wirklichkeit um eine künstliche Intelligenz und große Datenmengen handelt. Doch wenn Sprachassistenten fast ausschließlich als weiblich imaginiert werden, könnte das veraltete Rollenklischees wieder aufbrechen und sich im schlimmsten Fall negativ auf die Gesellschaft auswirken. Ein ebenso gewichtiger Grund ist, dass die Entwickler von Sprachassistenten überwiegend Männer sind. Das Magazin Wired nahm 2018 die KI-Entwicklerteams großer Tech-Konzerne unter die Lupe und stellte eine enorme Ungleichheit fest. In der Regel waren dort nur zehn bis 15 Prozent Frauen.
Sprachassistenten sicher nutzen
Um Alexa, Siri & Co sicherer zu nutzen gibt die Arbeiterkammer einige Tipps und Tricks. Ganz allgemein sollte man sich bewusstmachen: je öfter Assistenten genutzt werden, umso mehr Daten sind im Umlauf. Damit steigt auch die Gefahr, dass sich sensible Daten darunter befinden. Daher gilt: Sprachunterstützung nur dann, wenn Anwendungen dadurch wirklich komfortabler und einfacher nutzbar werden. Ganz oben auf der Sicherheitsskala steht, keine sensiblen Daten wie Kreditkarten- oder Kontonummern laut aussprechen, wenn ein elektronischer Butler aktiviert ist. Außerdem wird empfohlen, die Sprach-Butler bei Verlassen des Hauses abzuschalten. Von der Platzierung neben geöffneten Fenstern und Türen ist ebenso abzuraten, um ungewollte Zugriffe oder Missbrauch zu verhindern. Kinder sollten grundsätzlich nicht mit Sprachassistenten alleine gelassen werden und Bestellungen sollten sicherheitshalber mit einem Code abgesichert werden. Zuletzt ist es immer gut, Daten zu löschen, die nicht auf externen Servern gespeichert werden sollen. Die Studie in voller Länge finden Sie hier.