Stasi 2.0

Auch Google-Mitarbeiter hören Assistant-Gespräche ab

Nicht nur Amazon gibt seinen Mitar­beitern Alexa-Aufzeich­nungen der Nutzer zum Anhören und Abtippen. Auch Google-Mitar­beiter erhalten derar­tige Aufzeich­nungen - mit teils sehr privatem Inhalt.
Von

Google bewirbt die Nutzung des Assistant im Schlafzimmer - und genau da hört er auch unerlaubt mit. Google bewirbt die Nutzung des Assistant im Schlafzimmer - und genau da hört er auch unerlaubt mit.
Bild: Google
Erschre­ckend, aber nicht wirk­lich verwun­derlich, waren die Nach­richten darüber, dass Amazon-Mitar­beiter Alexa-Sprach­befehle abhören und dass die Aufnahmen unbe­grenzt gespei­chert werden. Sogar Straf­verfolger fordern mitt­lerweile Zugriff auf diese Daten.

Die Welt musste nicht lange darauf warten, bis auch Google mit seinem Google Assi­stant derar­tige Prak­tiken einge­stehen würde. Nun ist es soweit: Ein belgi­sches Magazin berichtet ausführ­lich darüber, wie Google-Mitar­beiter selbst priva­teste Sprach­aufzeich­nungen von Nutzern zum Anhören erhalten haben.

Mehr als 1000 Aufnahmen abge­hört

Das Magazin VRT NWS berichtet darüber, dass die Mitar­beiter von Google syste­matisch Audio­dateien abhören, die von den Smart-Spea­kern von Google Home und der Smart­phone-App von Google Assi­stant aufge­zeichnet wurden. Welt­weit sollen die Google-Mitar­beiter diese Audio­dateien zu dem Zweck abhören, die Such­funk­tion von Google zu verbes­sern. VRT NWS konnte nach eigenen Angaben mehr als tausend Aufnahmen anhören.

Die meisten dieser Aufzeich­nungen wurden bewusst gemacht, der Kunde hat Google Assi­stant also aktiv ange­spro­chen. Doch Google hört sich auch Gespräche an, die niemals hätten aufge­zeichnet werden dürfen. Einige davon enthalten sogar vertrau­liche Infor­mationen. Nicht allen Kunden ist bekannt, dass alles, was sie ihren Google Smart Spea­kern und ihrem Google Assi­stant sagen, aufge­zeichnet und gespei­chert wird. Dies ist jedoch in den Nutzungs­bedin­gungen von Google klar ange­geben. Google-Mitar­beiter können darüber hinaus Auszüge aus diesen Aufzeich­nungen anhören - und das ist den Nutzern sicher­lich nicht bewusst, weil Google es in seinen Nutzungs­bedin­gungen nicht erwähnt.

Ein Auftrags­mitar­beiter von Google hat offenbar sehr viele Audio­dateien an VRT NWS weiter­gegeben. In diesen Aufnahmen konnten die Jour­nalisten Adressen und andere sensible Infor­mationen deut­lich hören. Dies machte es recht einfach, die betei­ligten Personen zu finden und sie mit den Audio­aufnahmen zu konfron­tieren.

Pikante Inhalte: Sex, Gewalt, Berufs­geheim­nisse

Google bewirbt die Nutzung des Assistant im Schlafzimmer - und genau da hört er auch unerlaubt mit. Google bewirbt die Nutzung des Assistant im Schlafzimmer - und genau da hört er auch unerlaubt mit.
Bild: Google
Um zu vermeiden, dass Auszüge auto­matisch mit einem Benutzer verknüpft werden, werden die Aufnahmen vor der Weiter­gabe an die Analysten von den Benut­zer­infor­mationen getrennt. Google löscht den Benut­zernamen und ersetzt ihn durch eine anonyme Seri­ennummer. Offenbar war es jedoch recht einfach, anhand der Aufnahmen die Iden­tität eines Menschen heraus­zufinden.

Sobald jemand in der Nähe ein Wort ausspricht, das ein wenig wie "Okay Google" klingt, beginnt Google Home mit der Aufnahme. Das führt auch zu Aufnahmen aus Schlaf­zimmern mit Gesprä­chen eindeu­tigen Inhalts zwischen Part­nern, aber auch Konver­sationen zwischen Eltern und Kindern waren darunter. Es soll auch Fälle gegeben haben, wo die Google-Mitar­beiter eindeu­tige Fälle von häus­licher Gewalt anhören mussten.

Es stellt sich auch die Frage, was passiert, wenn ein Google Assi­stant in der Nähe eines Berufs­geheimnis-Trägers unbe­obachtet mitlauscht. Insbe­sondere bei Ärzten, Juristen, Pastoren und Seel­sorgern könnte dies unge­ahnte Folgen haben, weil sie damit mögli­cher­weise unbe­merkt gegen ihre Schwei­gepflicht verstoßen hätten.

Google reagiert auf die Vorwürfe

Nachdem Google zu diesem Thema lange geschwiegen hatte, hat das Unter­nehmen in einem Blogein­trag nun erst­mals Details zur Analyse der Sprach­aufnahmen weiter­gegeben.

Im Rahmen der Arbeit zur Entwick­lung von Sprach­tech­nolo­gien für mehr Spra­chen würde Google tatsäch­lich mit Sprach­experten auf der ganzen Welt zusam­menar­beiten, die die Nuancen und Akzente einer bestimmten Sprache verstehen. Diese Sprach­experten würden "eine kleine Reihe von Abfragen" über­prüfen und tran­skri­bieren, damit Google diese Spra­chen "besser verstehen" könne. Dies sei ein kriti­scher Teil des Prozesses zur Erstel­lung von Sprach­tech­nolo­gien und für die Erstel­lung von Produkten wie Google Assi­stant erfor­derlich.

Google ändert nichts an der Technik, verfolgt nur die "undichte Stelle"

Google habe nun erfahren, dass "einer dieser Sprach­prüfer" gegen die Daten­schutz­richt­linien verstoßen habe, indem er vertrau­liche nieder­ländi­sche Audio­daten weiter­gegeben habe. Die haus­eigenen Sicher­heits- und Daten­schutz-Reak­tions­teams seien zu diesem Thema akti­viert worden, würden ermit­teln und weitere Maßnahmen ergreifen. Google wolle eine voll­stän­dige Über­prüfung der Sicher­heits­vorkeh­rungen in diesem Bereich durch­führen, um zu verhin­dern, dass sich ein solches Fehl­verhalten erneut ereignet.

Google wende eine "breite Palette von Schutz­maßnahmen" an, um die Privat­sphäre der Benutzer während des gesamten Über­prüfungs­prozesses zu schützen. Sprach­experten würden nur etwa 0,2 Prozent aller Audio-Snip­pets über­prüfen. Audio-Snip­pets würden im Rahmen des Über­prüfungs­prozesses nicht mit Benut­zerkonten verknüpft, und Über­prüfer würden ange­wiesen, Hinter­grund­gespräche oder andere Geräu­sche nicht zu tran­skri­bieren und nur Snip­pets zu tran­skri­bieren, die an Google gerichtet sind.

In seltenen Fällen sei es bei Geräten mit inte­griertem Google-Assis­tenten zu einem soge­nannten "falschen Akzep­tieren" gekommen. Dies bedeutet, dass im Hinter­grund Geräu­sche oder Wörter aufge­treten sind, die von der Soft­ware als Hotword inter­pretiert wurden (z. B. "Ok Google"). Google habe eine Reihe von Sicher­heits­vorkeh­rungen getroffen, um zu verhin­dern, dass bei Kunden zu Hause derar­tige "Falsch­annahmen" auftreten. Die Kunden könnten das Spei­chern von Audio­daten in ihrem Google-Konto voll­ständig deak­tivieren oder fest­legen, dass Daten alle drei oder 18 Monate auto­matisch gelöscht werden.

Mehr zum Thema Google Assistant