Der Amazon Echo Dot ist ein Lautsprecher, der auf den Namen "Alexa" hört und als Sprach-Schnittstelle zu Amazon-Produkten fungiert. Über den Amazon Echo Dot lassen sich Waren bestellen und Geräte im Haushalt steuern. © dpa / picture alliance
  • Von Sanja Sever-Silajdzic
  • 11.05.2018 um 12:40
artikel drucken artikel drucken
lesedauer Lesedauer: ca. 01:15 Min

Mithilfe von für das menschliche Ohr nicht wahrnehmbaren Signalen können Forscher digitale Assistenten wie Alexa, Siri und Co. steuern – ohne dass es die Nutzer mitbekommen.

Smarte Sprachassistenten erfreuen sich großer Beliebtheit. Gesteuert durch simple Zurufe erledigen Siri, Alexa und Googles Assistent alltägliche Aufgaben – sie spielen einen gewünschten Song, rufen beliebige Personen an oder dimmen das Licht. Doch wie die New York Times berichtet, können die kleinen Helfer heimliche Befehle empfangen – und dadurch möglicherweise von Fremden gesteuert werden.

Manipulierte Spracherkennung

Die Forscher in China und in den USA beschäftigen sich seit zwei Jahren mit den Sicherheitsrisiken der smarten Sprachassistenten. So waren sie in der Lage, heimliche Befehle an diese zu übermitteln. Für das menschliche Ohr nicht wahrnehmbare Signale wurden teils in Musik oder Hörbüchern versteckt. „Spracherkennungsdienste übersetzen in der Regel alle Töne in Buchstaben und stellen im Anschluss Wörter und Phrasen zusammen“, erklärt die New York Times. „Indem Forscher kleine Änderungen an Audiodateien vornahmen, konnten sie den Klang für Spracherkennungsdienste manipulieren und mit anderen Tönen ersetzen, die von den Geräten anders interpretiert wurden – während sie für Menschen nicht wahrnehmbar waren.“

Bedenkliche Sicherheitslücke

Die Vernetzung der smarten Lautsprecher mit Smartphones und Smart-Home-Geräten könnte den Hackern eine Reihe von Angriffen ermöglichen. Sie könnten beispielsweise die Haustür entsperren oder die Außenrolladen hochfahren, ohne dass die Nutzer das mitbekommen. Amazon und Google betonen zwar die ständige Verbesserung von Sicherheitsvorkehrungen, die solche Vorfälle verhindern sollen. Und laut Apple können heimliche Befehle nur mit entsperrten iPhones oder iPads durchgeführt werden. Doch die Forscher betonen, dass es derzeit „notorisch einfach ist, diese zu manipulieren“.

Nicholas Carlini, einer der Forscher der Universität Berkeley in Kalifornien, vermutet laut New York Times, dass es nur eine Frage der Zeit ist, bevor Hacker die von den Forschern angewendeten Techniken für sich entdecken. Davor warnt er in seinem Artikel „Cocain Noodles“ – diese Phrase wird oft als „Ok, Google“ missverstanden. Carlini und seine Kollegen wollen zeigen, dass solche Attacken möglich sind – und „hoffen, dass diese dann repariert werden“.

autorAutor
Sanja

Sanja Sever-Silajdzic

Sanja Sever-Silajdzic ist seit November 2016 Content- und Projekt-Managerin bei Pfefferminzia. Davor absolvierte die Diplom-Journalistin ein Volontariat bei Pfefferminzia und Public Imaging.

kommentare

Hinterlasse eine Antwort

kommentare

Hinterlasse eine Antwort