Studie über Smart Speaker

Bei diesen Wörtern lauschen Alexa, Siri und Co. versehentlich mit

Veröffentlicht: 01.07.2020 | Geschrieben von: Markus Gärtner | Letzte Aktualisierung: 01.07.2020
Test Smart Speaker

Die menschliche Sprache ist ein Fest der Vielfalt: Manche Wörter klingen dabei so ähnlich, dass sie bei Mensch – und Maschine – zu Verwirrung führen können. Das betrifft auch die Smart Speaker von Amazon, Apple und Microsoft. Denn wie eine Studie der Ruhr-Uni Bochum jetzt herausfand, starten die vermeintlich smarten Geräte manchmal auch aus Versehen, weil sie den Nutzer falsch verstehen. Fetzen aus Privatgesprächen landen so bei den Unternehmen.

Alexa, Siri und Cortana hören „Game of Thrones“ und „Das Traumschiff“

Ein Forscherteam der Ruhr-Uni Bochum und des Bochumer Max-Planck-Instituts für Cybersicherheit und Schutz der Privatsphäre hat elf Smart Speaker getestet, darunter die weithin bekannten Modelle von Apple, Google und Amazon, aber auch solche von der Telekom und den chinesischen Firmen Xiaomi, Tencent und Baidu. Getestet wurden die Lautsprecher auf Deutsch, Englisch und Chinesisch – unter anderem mit TV-Serien wie „Game of Thrones“, „Das Traumschiff“, „Die Simpsons“, „House of Cards“ und „Tatort“, aber auch Nachrichten sowie speziellen Tondatenbanken, die extra zum Training von derartigen Sprachassistenten verwendet werden.

Das Ergebnis: Nach zwei sich etwas unterscheidenden Testreihen sprangen die Geräte insgesamt über 900 Mal versehentlich an, weil Alexa, Siri und Co. das falsche Wort verstanden haben. Beispiele: Siri ließ sich auf Deutsch durch den Begriff „Daiquiri“ täuschen, Alexa ging bei dem englischen „unacceptable“ und „election“ an, Googles Assistentin reagierte statt auf „Google“ fälschlicherweise auf „OK, cool“. Auf Deutsch machte Amazons Alexa die meisten Fehler. Das Phänomen ist nicht neu: Auch andere Tests von US-Forschern haben bereits auf die Verständnisprobleme der Sprach-Assistenten hingewiesen.

Falsche Worterkennung bei Smart Speakern: „Aus Privacy-Sicht bedenklich“

„Aus Privacy-Sicht ist das natürlich bedenklich, weil teils sehr private Unterhaltungen bei Fremden landen können“, sagt Professor Thorsten Holz vom Lehrstuhl für Systemsicherheit. „Aus Engineering-Sicht ist das Vorgehen hingegen nachvollziehbar, denn die Systeme können nur mithilfe solcher Daten verbessert werden. Die Hersteller müssen einen Spagat zwischen Datenschutz und technischer Optimierung schaffen.“

Der Hamburger Datenschutzbeauftragte Johannes Caspar will die Unternehmen mehr in die Pflicht nehmen. „Man muss vom Hersteller erwarten, dass er die Verbraucher im datenschutzrechtlichen Sinne aufklärt und darauf hinweist, dass es eben ein entsprechendes Risiko der Privatsphäre ist“, erklärte Casper auf tagesschau.de.

Den gesamten Aufbau der Studie sowie Videos mit Beispiele kann man unter https://unacceptable-privacy.github.io/ sehen.

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.