Abschlussarbeiten im Media Lab | 15.03.2023

Datenschutz-Training für den Umgang mit Sprachassistenten

Bei Diskussionen über Sprachassistenten dauert es nicht lange, bis das Thema Datenschutz auftaucht. Audiodaten gelten als besonders schützenswert. Unser Gastautor hat in seiner Bachelorarbeit ein Training zur Förderung der Privacy-Awareness entwickelt und untersucht.

Die Verwendung von Sprachassistenten wie Alexa, Siri oder Google Nest gehört in vielen Haushalten längst zum Alltag. Allerdings stehen einige Hersteller aufgrund von Datenschutzproblematiken immer wieder in der Kritik. Verbraucher, aber auch Unternehmen, die ihren Mitarbeitern Home-Office ermöglichen, sind besorgt über die Datensammlung und -verarbeitung durch die Geräte. Denn durch die permanente Aufzeichnung von Audiodaten und Übertragung von Sprachbefehlen mit teilweise sensiblen Informationen können Sprachassistenten ein potenzielles Sicherheitsrisiko darstellen. Aus Gründen des Datenschutzes oder Geschäftsgeheimnissen verbieten viele Unternehmen daher inzwischen die Verwendung von Sprachassistenten während der Arbeitszeiten.

Warum sind Sprachdaten überhaupt besonders schützenswert?

Audioaufzeichnungen enthalten oft intime Details über uns - teilweise explizit formuliert, aber auch indirekt über die Eigenschaften unserer Stimme. Wenn wir mit einem Sprachassistenten sprechen, zeichnet dieser unsere Worte auf und analysiert sie, um unsere Absicht hinter der Interaktion zu verstehen. Die Analyse umfasst neben dem Inhalt auch beispielsweise unsere Sprachmuster, Vorlieben und Gewohnheiten. Diese Daten können - je nach Einstellungen - für Personalisierungen oder das Ausspielen von Werbung verwendet werden. Sollten Dritte Zugriff auf die Aufzeichnungen bekommen, können sie die Audiodaten im schlimmsten Fall für Identitätsdiebstahl verwenden. Zum Schutz von Sprachdaten müssen wir uns also bewusst sein, welche Daten wir preisgeben und wie diese verwendet werden. Erste Leitlinien zum Umgang mit virtuellen Sprachassistenten hat der Europäische Datenschutzausschuss bereits 2021 veröffentlicht.

Die Entwicklung unserer Privacy-Awareness-Maßnahme

Um das Bewusstsein für Datenschutz und einen verantwortungsvollen Umgang mit digitalen Medien zu schärfen, haben meine Betreuer und ich im Rahmen meiner Bachelorarbeit ein Training zur Förderung der Privacy-Awareness im Umgang mit Sprachassistenten entwickelt.

Um eine möglichst hohe Relevanz und Motivation bei den Lernenden zu erzeugen, vermittelt ein Sprachassistent selbst die Aufklärung. Die Themen: “Geschäftsmodelle digitaler Konzerne”, “Konsequenzen der Nutzung von Sprachassistenten und Datenpreisgabe”, sowie “Der besondere Wert von Sprachdaten”. Vor und nach dem inhaltlichen Teil stellt der Sprachassistent jeweils neun immer sensibler werdende Fragen.

Für die Umsetzung entwickelte ich einen Conversational Agent für Google Assistant auf der Conversational AI Plattform BOTfriends X. Diesen habe ich sowohl für die Funktionsweise als Chatbot, als auch als Sprachassistent optimiert. Somit ist ein Vergleich zwischen den zwei Modalitäten (Text vs. Sprache) möglich. Außerdem erstellte ich zwei Versionen, um zusätzlich den Effekt der Anthropomorphisierung, also Vermenschlichung, zu untersuchen.

Weniger Datenpreisgabe nach dem Training

Mit Hilfe unseres Experiments können wir zeigen, dass die Auseinandersetzung mit dem Thema Datenschutz bei Sprachassistenten dazu führt, dass nach dem Training signifikant weniger Daten von den Nutzern preisgegeben werden als zuvor. Bei sehr sensiblen Fragen können wir die größte Reduktion feststellen. Überraschend ist allerdings, dass es keinen Unterschied macht, ob das Training in Form eines Chatbots oder Sprachassistenten stattfindet. In beiden Modalitäten gaben die Studienteilnehmer nach dem Privacy-Awareness-Training signifikant weniger Daten preis, obwohl sich der Lerninhalt primär auf Sprachassistenten bezieht.

Zusätzlich zur Datenpreisgabe haben wir nach dem Training das vermittelte Wissen abgefragt und Transferaufgaben zum Inhalt gestellt. Der Lernerfolg in Bezug auf die Behaltensleistung (etwa 22 von 25 Fragen richtig beantwortet) und die Transferleistung (etwa 20 von 25 Fragen richtig beantwortet) unterschieden sich in allen Gruppen nicht signifikant voneinander. Das heißt: In unserem Experiment spielte es für die Ergebnisse einer unmittelbaren Wissensabfrage keine Rolle, welche Modalität der Conversational Agent im Training hatte, und es war egal, ob er menschlich dargestellt wurde oder nicht. Zur Einordnung: Das Ergebnis könnte mit veränderten Merkmalen des Conversational Agents anders ausfallen. Also weiterforschen!

Sollten wir jetzt Sprachassistenten im Arbeitskontext verbieten?

Auch wenn die Nutzung von Sprachassistenten zunächst praktisch erscheint, sollten wir die damit verbundenen Risiken nicht unterschätzen. Mit Security- und Privacy-Awareness Maßnahmen, wie dem vorgestellten Datenschutz-Training, können Nutzer ihr Bewusstsein für einen sicheren Umgang mit den eigenen Daten stärken und damit ihre Medienkompetenz steigern. Das Training kann als Grundlage für einen verantwortungsbewussten und reflektierten Umgang mit den Geräten dienen. Wie Unternehmen den Umgang mit Sprachassistenten im Home-Office handhaben wollen, entscheiden sie am Ende selbst. Es lohnt sich allerdings, Maßnahmen zu etablieren, um neuen Datenschutz-Risiken zeitnah präventiv entgegenzuwirken.

Mehr Informationen zur digitalen Interaktionskompetenz und eine wissenschaftliche Auseinandersetzung mit sprachbasierten interaktiven Systemen gibt es von der MOTIV-Projektgruppe an der Universität Würzburg. Sie forscht und arbeitet im Auftrag des Bayerischen Forschungsinstitut für Digitale Transformation.

Abschließend noch ein kleiner Denkanstoß: Auch ohne Smart-Speaker haben wir zu Hause meist ein Mikrofon mit Internetverbindung in unserer direkten Nähe: Auf allen modernen Smartphones ist inzwischen ein Sprachassistent installiert. Ist die konkrete Sorge vor Smart-Speakern dann überhaupt noch berechtigt oder sollten wir den Fokus beim Thema Privacy-Awareness lieber erweitern und auf ein tieferes Verständnis mit nachhaltiger Aufklärung setzen?

Tobias hat nun das Förderprogramm für Abschlussarbeiten durchlaufen. Du hast auch ein spannendes Thema? Melde dich bei uns!

Ein Artikel von

Tobias Haase

Tobias Haase studiert inzwischen an der Universität Würzburg im neu geschaffenen Master-Studiengang „Psychologie digitaler Medien“. Er beschäftigt sich mit Fragestellungen rund um digitale Bildung, automatisierte Kommunikation und mentale Gesundheit in der Webvideo-Branche. Einblicke in sein Studium teilt er auf seinem YouTube Kanal „Bildungsbucht“ und auf Spotify unter „Medienkommunikation – Der Podcast“.

Newsletter

Alles, was ihr zu Startups und Medieninnovation wissen müsst, gibts regelmäßig in unserem Newsletter!

Abonnieren