2463267

Forscher: So lauschen Alexa und Google Assistant heimlich mit

21.10.2019 | 11:15 Uhr | Hans-Christian Dirscherl

Berliner Forscher konnten Alexa/Echo und Google Assistant/Google Home zu heimlich mithörenden Wanzen umwandeln. Update!

Forscher der Berliner Security Research Labs (SRLabs) zeigen mit Hilfe selbst entwickelter Apps, wie Fremde mit Amazon Alexa/Echo oder Google Assistant/Google Home deren Benutzer heimlich abhören können. Luise Frerichs und Fabian Bräunlein (beide von SRLabs) haben hierzu Skills für Alexa und Actions für Google Assistant programmiert, die ihre Funktionen zum heimlichen Lauschen hinter anderen Funktionen verbergen. Sowohl Amazon als auch Google akzeptierten die Skills beziehungsweise Actions. Das berichtet Spiegel Online.

Der Alexa-Skill gibt sich als Horoskop-App aus. Alexa fragt nach dem Sternzeichen des Zuhörers und liest dann dessen Horoskop vor. Sobald der Nutzer "Alexa, Stopp" sagt, beendet Alexa das Zuhören. Eigentlich, in der ursprünglich zur Abnahme durch Amazon eingereichten Version. Doch nachdem der Skill einmal von Amazon akzeptiert war, konnten die beiden Forscher den Code so ändern, dass Alexa auch nach dem „Alexa, Stopp“ weiterlauscht. Obwohl Alexa den Stopp-Befehl mit „Goodbye“ quittiert. Alexa hörte in diesem Fall also weiter heimlich alles mit, was die Benutzer sagten. Und zwar dann, wenn die Nutzer einen Begriff wie „ich“ sagen, den die Forscher als neuen Weckruf für Alexa festlegten. Die Liste dieser heimlichen Weckrufe ist beliebig lang, die Forscher konnten offensichtlich jedes beliebige Wort festlegen, um Alexa wieder zum Zuhören zu bringen. Und das alles, ohne dass der Nutzer davon weiß.

Das könnte Sie interessieren: Echo Dot (3. Gen.) Intelligenter Lautsprecher mit Alexa (Heute für 39,99 €)

Für Google Assistant wiederum programmierten die beiden Berliner Sicherheitsexperten einen Zufallszahlengenerator, der von Google zugelassen wurde und dessen Code sie dann ebenfalls nachträglich änderten. Auch Google bekam von der nachträglichen Funktionsänderung nichts mit. Auch in diesem Fall tat der Google Assistant so, als ob er sich abschalten würde, sobald er die Zufallszahl ermittelt und ausgegeben hat. Doch stattdessen hörte Google Assistant weiter zu. Die Forscher erreichten das, indem sie im Code für Google Assistant Unicode-Zeichen hinterlegten, die man nicht aussprechen kann. Google Assistant blieb deshalb stumm und wartete aber auf einen weiteren Sprachbefehl des Nutzers. Sagt der Nutzer dann tatsächlich etwas, zeichnet der angebliche Zufallszahlengenerator das Gesagte auf und schickt es an den Server der Berliner Forscher.

Noch fieser: Frerichs und Bräunlein entwickelten sogar Skills beziehungsweise Actions, die die Nutzer nach ihren Passwörtern fragen. Auch in diesem Fall reichten die Forscher zunächst Apps mit harmlosen Code ein, den sie dann nach der Abnahme durch Amazon und Google änderten. Die App behauptete, dass es ein wichtiges Sicherheits-Update geben würde und man für dessen Installation „Start" und danach das Passwort sagen solle.

Das könnte Sie interessieren : Amazon Echo (2. Gen.), Intelligenter Lautsprecher mit Alexa (Heute für 79,99 €)

Der Erfolg derartiger Angriffe wird aber durch einige Faktoren eingeschränkt: Die Angreifer können ihre manipulierten Skills nur zur Installation anbieten, aber niemandem aufzwingen und sich ihre Opfer auch nicht gezielt aussuchen. Zudem können die Angreifer nicht die Kontroll-LEDs an Echo oder Google Home abschalten, die das Mithören optisch anzeigen. Und natürlich müssen die Belauschten sich in der Reichweite der Smart Speaker befinden. Im Fall des Passwort-Diebstahls kommt noch hinzu, dass der Angreifer erst einmal Nutzer finden muss, die tatsächlich ihr Alexa- oder Google-Assistant-Passwort nach Aufforderung laut sagen.

Sowohl Amazon als auch Google versichern, dass sie Schutzmaßnahmen ergriffen hätten, um diese Art von Angriffen künftig erkennen und verhindern zu können. Update 11:15 Uhr: Stellungnahme von Amazon: "Das Vertrauen unserer Kunden ist uns wichtig und wir führen Sicherheitsüberprüfungen im Rahmen der Skill-Zertifizierung durch. Wir haben den betreffenden Skill umgehend blockiert und Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird."

Nutzer, die derartige Angriffsszenarien verhindern wollen, sollten sich genau über den Anbieter von Skills/Actions informieren und im Zweifelsfalls auf deren Installation besser verzichten. Vor allem sollten Sie immer auf die Kontroll-LEDs an den Speakern achten! Und sie sollten eines wissen: Weder Amazon noch Google fragen über ihre smarten Lautsprecher nach dem Passwort.

In diesen Videos demonstrieren die Berliner Forscher ihre Attacken:

Angeblicher Horoskop-Skill für Alexa

Angeblicher Zufallszahlengenerator für Google Assistant

Passwort-Phishing

Hier erklären die Forscher ausführliche ihre Angriffsmethoden.

PC-WELT Marktplatz

2463267