Möchtest du dieses Thema von deiner Themenliste wirklich entfernen?
Uni BochumForscher untersuchen Alexa, Siri & Co. − und erleben böse Überraschung
Bochum – Millionen haben sie bei sich in den eigene vier Wänden und können sich einen Alltag ohne sie kaum mehr vorstellen: Sprachassistenten wie Alexa von Amazon oder Siri, zu finden etwa auf iPhones, beantworten Fragen zum Wetter, spielen Musik ab oder lesen die Nachrichten vor. Doch dabei helfen sie nicht nur.
Forscher der Ruhr-Uni Bochum entdeckten, dass Sprachassistenten nicht nur bei Kommandos wie „Hey Siri” reagieren
Wenn die Geräte reagieren, schneiden sie das Gesagte mit
Die gespeicherten Gespräche landen bei den Herstellern
„Tatort” und die Nachrichten: Sprachassistenten reagierten über Tausend mal versehentlich
Eine böse Überraschung erlebten Forscher der Bochumer Ruhr-Uni und des Bochumer Max-Planck-Instituts, als sie die Sprachassistenten unter anderem der Tech-Giganten Google, Amazon, Microsoft und Apple untersuchten.
Der Aufbau des Experiments: Die IT-Experten spielten den Assistenten stundenlang Serien wie „Modern Family”, „Tatort” oder die Nachrichten vor.
Sprachassistenten von Google, Apple oder Amazon: Tausende Fehlaktivierungen
Sie fanden heraus: Bei über Tausend gesprochenen Wörtern und Sequenzen sprangen die digitalen Helfer ungewollt an.
Siri ließ sich zum Beispiel von dem Wort „Daiquiri” aktivieren, obwohl es nur bei „Hey, Siri” anspringen und Kommandos erfüllen sollte.
Das Amazon-Pendant Alexa reagierte auf englische Begriffe wie „unacceptable” und „election”, auf Deutsch wurde es unter anderem durch „Am Sonntag” ungewollt eingeschaltet. „Die Geräte sind mit Absicht etwas liberal programmiert, weil sie ihre Menschen verstehen können sollen. Sie springen also eher einmal zu viel als zu wenig an”, erklärt Professorin Dorothea Kolossa von der Ruhr-Uni.
Aktivierung wider Willen: Das machen die Assistenten mit unseren Daten
Das problematische dabei, dass die Sprachassistenten sich auch bei Wörtern aktivieren, bei denen sie eigentlich aus bleiben sollten: Sobald das Gerät läuft, schneidet es das Gesagte mit.
Selbst, wenn die Geräte merken, dass es sich um ein falsches Aktivierungswort handelt, laden sie kurze Sprachsequenzen in eine Cloud des Herstellers hoch.
Heimliche Zuhörer: Alexa, Siri und Co schneiden Gespräche mit
Aus Datenschützersicht ist dieses Vorgehen bedenklich: Die Übermittlung der Gespräche findet teils statt, ohne dass die Nutzer das überhaupt bemerken. Es besteht aber die Möglichkeit, die gespeicherten Gespräche bei den Unternehmen abzufragen und einzusehen, was Google, Apple oder Amazon über uns wissen.
Wer trotzdem seine Probleme damit hat, dass persönliche Gespräche ungewollt bei großen Firmen landen, sollte wohl auf die Assistenten verzichten. Nachrichten und den Wetterbericht kann man schließlich immer noch im Radio hören. (mas)