Sicherheitslücken bei Siri und Alexa

Wissenschaftler können geheime Audioanweisungen, die Menschen nicht hören, an Apples Siri, Amazons Alexa und Googles Assistant senden. Die Sprachassistenten könnten so heimlich Fotos der Nutzer machen, Textnachrichten versenden oder gar die Haustür öffnen. So können Sprachassistenten und vernetzte Häuser ein weiteres Einfallstor für kriminelle Hacker werden.

Forscher aus China und den USA konnten in Labortests die Sprachassistenten auf Smartphones und intelligenten Lautsprechern heimlich aktivieren und so Telefonnummern wählen oder Websites öffnen, berichtet die New York Times.

Die neue Angriffsmethode sind manipulierte Audiodateien, Musikstücke oder gesprochenen Text. Während der Nutzer beispielsweise der Musik seiner Lieblingsband lauscht oder sich ein spannendes Hörbuch anhört, kann über manipulierte MP3-Dateien oder Filme ein Angriff erfolgen. Auch aus der Ferne, etwa über Radiosendungen und Werbespots könnten die Sprachassistenten auf fremden Befehl hin online einkaufen oder die Haustür entsperren.

Die Forscher der kalifornischen Universität Berkley konnten den Befehl „Ok Google, öffne evil.com“ in einer Aufnahme des gesprochenen Satzes (Ohne den Datensatz ist der Artikel unbrauchbar) verbergen. Während ein Mensch bloß einen Song oder ein Hörbuch hört, vernehmen Alexa, Siri oder der Google Assistent geheime Anweisungen wie zum Beispiel etwas zur Einkaufsliste hinzuzufügen oder das Garagentor zu öffnen.

Verwiesen wird dabei auch auf die Studie der Forscher der Princeton Universität und der chinesischen Zhejian Universität aus dem vergangenen Jahr, in dem ebenfalls vor Delphin-Attacken gewarnt wird. Hier kamen aber Ultra-Schallsensoren zum Einsatz, von denen die Signale aus an das in der Nähe befindliche Gerät gesendet werden müssen, daher auch der Name “Delphin-Attacke“. In dem Beispiel dort wird beschrieben, wie durch ein nicht hörbares Signal der persönliche Assistent aktiviert wird und zunächst den Befehl erhält, keinerlei Sprachausgaben mehr tätigen zu dürfen. Dadurch soll verhindert werden, dass der Besitzer des Geräts den Verlust der Kontrolle bemerkt. Anschließend ist es dann möglich Telefongespräche zu führen oder die auf dem Gerät befindlichen Informationen und Bilder abzuschöpfen.

Ein weitere Sicherheitslücke: Smartphones können so eingerichtet werden, dass sie an vermeintlich sicheren Orten wie zu Hause oder in der Nähe der eigenen Smartwatch automatisch entsperrt bleiben. Das ist praktisch, erleichtert aber auch Angriffe.

Laut den Forschern gibt es bislang keine Beweise dafür, dass ihre Manipulationstechniken das Labor verlassen haben. Es sei aber nur eine Frage der Zeit, bis jemand damit beginne, sie für kriminelle Aktivitäten auszunutzen. Für Kriminelle oder Geheimdienste gibt es momentan viel leichtere Wege, um ihre Opfer anzugreifen.
Nicholas Carlini, der an der University of California in Berkeley forscht, hat einen der ersten wissenschaftlichen Artikel zu derartigen Attacken verfasst, den er mit der Phrase “Cocaine Noodles” titelte – sie wird oftmals als “Ok, Google” missverstanden. “Wir wollen zeigen, dass solche Attacken möglich sind – und hoffen, dass andere Menschen das dann reparieren“, so Carlini

Amazon, Google und Apple versicherten derweil, dass solche Angriffe per Sprache bei ihren Geräten nicht möglich seien. Apples Homepod etwa führt möglicherweise heikle Befehle wie das Öffnen eines smarten Türschlosses nicht aus. Googles Assistant soll auf unhörbare Sprachkommandos nicht reagieren. Google wie Amazon lassen ihre Sprachassistenten bestimmte Befehle nicht ausführen, wenn diese nicht die Nutzerstimme erkennen.

Quelle: Beitragsbild NikonD 3300, thx! (CC0 1.0)

 

Ein Kommentar

  1. ImTheOneWhoKnocks sagt:

    Ist doch eh lange klar, dass diese SmartHome-Assistenten alle unsicher und Spionage-Geräte sind. Wer hat denn was anderes erwartet?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.