„Aktivierungswort“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Beispiele: Sonos One, Move und Beam als Beispiele für Geräte mit Alexa und Google Assistant hinzugefügt
Herausforderungen und Problembereiche: Abschnitt „Angriffsszenarien“ eingeführt; Abschnitt „Attacke per Laserstrahl“ hinzugefügt
Zeile 42: Zeile 42:
Wie bei einem klassischen [[Mehrbenutzersystem]] kann es gewünscht sein, dass das Sprachassistenzsystem verschiedene Benutzer (als Individuum) unterscheiden kann, um ihnen [[Personalisierung (Informationstechnik)|personalisierte]] Dienste anzubieten. Dann muss es den [[Sprecherauthentifizierung|Benutzer identifizieren]] können, z. B. anhand seiner [[Menschliche Stimme|Stimme]], des Aktivierungsworts oder anderer Parameter. Beispiel: Wenn Benutzer ''A'' den Assistenten anweist, einen Termin zu notieren, dann soll dieser Termin im persönlichen Kalender dieses Benutzers ''A'' eingetragen werden und nicht im Kalender eines anderen Benutzers ''B'' landen.
Wie bei einem klassischen [[Mehrbenutzersystem]] kann es gewünscht sein, dass das Sprachassistenzsystem verschiedene Benutzer (als Individuum) unterscheiden kann, um ihnen [[Personalisierung (Informationstechnik)|personalisierte]] Dienste anzubieten. Dann muss es den [[Sprecherauthentifizierung|Benutzer identifizieren]] können, z. B. anhand seiner [[Menschliche Stimme|Stimme]], des Aktivierungsworts oder anderer Parameter. Beispiel: Wenn Benutzer ''A'' den Assistenten anweist, einen Termin zu notieren, dann soll dieser Termin im persönlichen Kalender dieses Benutzers ''A'' eingetragen werden und nicht im Kalender eines anderen Benutzers ''B'' landen.


=== Audio Injection ===
=== Angriffsszenarien ===
==== Audio Injection ====
{{Hauptartikel|Audio Injection}}
{{Hauptartikel|Audio Injection}}
Sprachassistenzsysteme können durch [[Audio Injection]] angegriffen und missbraucht werden.
Sprachassistenzsysteme können durch [[Audio Injection]] angegriffen und missbraucht werden.

==== Attacke per Laserstrahl ====
Durch direktes Bestrahlen des Mikrofons mit einem [[Laser]]strahl kann es Angreifern gelingen, Sprachassistenzsysteme zu befehligen&nbsp;– ihnen also „Lichtbefehle“ zu erteilen. Dazu wird der Laserstrahl derart in seiner [[Lichtintensität]] [[Modulation (Technik)|moduliert]], dass er im Mikrofon sehr ähnliche [[Elektrisches Signal|elektrische Signale]] induziert, wie sie sich normalerweise durch die echten Sprachbefehle ergeben würden. So können das Aktivierungswort und zudem auszuführende Befehle unhörbar und auch aus zig Metern Entfernung an das Sprachassistenzsystem übermittelt werden. Insbesondere anfällig für diese Art von Attacke sind Systeme mit [[Mikrosystem (Technik)#Mikrofone|MEMS-Mikrofon]]en, da sie die Eigenschaft haben, nicht nur Schall, sondern auch [[Licht]], das direkt auf sie gerichtet ist, in elektrische Signale umzuwandeln.<ref>{{Internetquelle |autor=Dennis Schirrmacher |url=https://heise.de/-4579025 |titel=Sicherheitsforscher befehligen Alexa, Siri & Co. via Laserstrahl |hrsg=[[heise online]] |datum=2019-11-06 |abruf=2019-11-09}}</ref><ref>{{Internetquelle |autor=Takeshi Sugawara, Benjamin Cyr, Sara Rampazzi, Daniel Genkin, Kevin Fu |url=https://lightcommands.com/ |titel=Light Commands: Laser-Based Audio Injection on Voice-Controllable Systems |datum=2019 |abruf=2019-11-09 |sprache=en}}</ref>


== Beispiele ==
== Beispiele ==

Version vom 9. November 2019, 13:38 Uhr

Ein Aktivierungswort (englisch hotword), gelegentlich auch Aufwachwort oder Aufwachbefehl genannt, ist ein Wort, das – wenn es vom Benutzer ausgesprochen wird – dazu dient, einen Sprachassistenten zu aktivieren, um dann mit ihm – meist verbal und akustisch in (annähernd) natürlicher Sprache – zu interagieren.[1][2] Ein Aktivierungswort ist also ein spezieller Sprachbefehl im Zusammenhang mit Sprachsteuerung, der einen Sprachassistenten zwecks weiterer Konversation aktiviert. Anstelle eines einzelnen Worts kann auch eine Phrase (z. B. häufig in Form einer Anrede) als Aktivierungswort dienen.

Das Aktivierungswort kann – je nach Sprachassistenzsystem – entweder

  • fix vorgegeben,[3][4][5]
  • aus einer Liste von fix vorgegebenen Aktivierungswörtern auswählbar oder[6][7]
  • vom Benutzer individuell frei vorgebbar sein.[8]

Manche Systeme können nicht nur mit einem einzigen Aktivierungswort, sondern mit mehreren verschiedenen Aktivierungswörtern aktiviert werden. Dies können zum Beispiel Geräte sein, die nicht nur einen, sondern mehrere verschiedene Sprachassistenten integriert haben.[9]

Funktionsablauf

Das Aktivierungswort wird vom Benutzer so ausgesprochen, dass es von den Mikrofonen des Endgeräts des Sprachassistenzsystems empfangen wird. Erkennt das System das Aktivierungswort, gibt es dem Benutzer üblicherweise eine entsprechende Rückmeldung, dass es nun aktiv (also interaktionsbereit) ist. Der Benutzer kann dann seine eigentliche Konversation mit dem Assistenten beginnen und ihm beispielsweise eine Frage stellen oder einen Befehl erteilen.[1][10]

Die zum Erkennen des Aktivierungsworts nötige Rechenleistung wird offline, also lokal vom Endgerät erbracht. Erst die eigentliche Interaktion läuft bei vielen Sprachassistenten online, also per Internetverbindung über Server des jeweiligen Assistenten-Anbieters. Diese Server leisten dann die Spracherkennung für das Erkennen des Benutzerwunschs und die Sprachsynthese für die sprachliche Antwort des Systems an den Benutzer.[1][10] Es gibt auch Systeme, die rein offline arbeiten und somit keine Internetverbindung benötigen.[8][11][1]

Je nach Sprachassistenzsystem oder dessen Konfiguration horchen die Mikrofone des Endgeräts entweder permanent auf das Aktivierungswort, oder es werden die Mikrofone erst nach einer manuellen Aktivierung, z. B. per Tastendruck, aktiviert. Im letztgenannten Fall entfällt das Aktivierungswort, da es hier durch die manuelle Aktivierung ersetzt wird.[7][3][5]

Herausforderungen und Problembereiche

Ideales Sprachassistenzsystem

Ein ideales Sprachassistenzsystem erkennt einerseits sein Aktivierungswort stets einwandfrei. Andererseits aktiviert es sich (abgesehen von der manuellen Aktivierung) nie ohne sein Aktivierungswort.

Nichtaktivierung: Nichterkennung des Aktivierungsworts

Im praktischen Einsatz kann es – je nach Aussprache des Benutzers oder Geräuschkulisse rund um die Mikrofone – vorkommen, dass das Sprachassistenzsystem das Aktivierungswort nicht als solches erkennt.

Der Benutzer ist dann gefordert, einen neuerlichen Versuch zu unternehmen. Das Aktivierungswort deutlicher oder lauter auszusprechen, zielgerichteter in Richtung der Mikrofone zu sprechen und für eine ruhigere Umgebung mit weniger Störgeräuschen zu sorgen, erhöhen die Chancen auf eine korrekte Erkennung.

Alternativ kann der Benutzer, sofern es das System unterstützt, auf dessen manuelle Aktivierung ausweichen.

Fehlaktivierung: Aktivierung trotz nicht gesprochenen Aktivierungsworts

Auch der umgekehrte Fall kann in der Praxis auftreten, nämlich, dass das Sprachassistenzsystem nicht nur (korrekterweise) auf das Aktivierungswort, sondern auch fälschlicherweise auf ähnlich klingende Wörter oder (andere) Geräusche reagiert und sich aktiviert. Dies kann z. B. durch Musik oder sich untereinander unterhaltende Personen ausgelöst werden. Eine solche Fehlaktivierung kann bei Online-Systemen Probleme beispielsweise hinsichtlich Privatsphäre oder Datenschutz nach sich ziehen, weil dann Gesprochenes oder Umgebungsgeräusche unvermutet und unabsichtlich auf den Servern des Anbieters landen.

Um Fehlaktivierungen zu vermeiden, ist es – sofern es das Sprachassistenzsystem zulässt – im Rahmen eines systematischen Vorgehens ratsam, das Aktivierungswort so zu wählen, dass dieses Aktivierungswort sowie auch ähnlich klingende Wörter in der Alltagssprache des Benutzers möglichst nicht vorkommen.

Unterscheidung verschiedener Benutzer

Benutzerunabhängigkeit

Je nach Anwendungsfall kann es gewünscht sein, dass sich das Sprachassistenzsystem von verschiedenen Benutzern gleichermaßen aktivieren lässt. Dann muss es das Aktivierungswort trotz unterschiedlicher Dialekte, Stimmlagen, Sprechtempi oder Wortbetonungen erkennen.

Unterscheidung von Benutzer-Rollen

Im Gegensatz dazu kann es in anderen Szenarien gewünscht sein, dass sich das Sprachassistenzsystem nur von bestimmten Benutzern aktivieren lässt und von allen anderen nicht. Beispielsweise kann es sinnvoll sein, die Aktivierung nur dem Fahrer eines Fahrzeugs zu erlauben, den Mitfahrenden jedoch nicht. Eine Sprecherauthentifizierung, also die Erkennung des Individuums, ist dazu unter Umständen nicht nötig; es kann ausreichend sein, wenn das System die Rolle des Sprechers, beispielsweise anhand seiner Sitzposition, ermittelt und dadurch den Aktivierungsberechtigten, im Beispiel also den Fahrer, als solchen erkennt. Ein Sprachassistenzsystem, das Sprecher zwar nicht identifizieren, jedoch deren Rollen unterscheiden kann, kann den Benutzern unterschiedliche Dienste anbieten, die an deren Rollen geknüpft sind. Zum Beispiel können Fahrer und Beifahrer anhand ihrer Sitzposition unterschieden werden, ohne sie hierfür identifizieren zu müssen, indem der Assistent auswertet, von welcher Seite das Aktivierungswort bzw. der Schall primär kommt; und der Beifahrer darf nur einen eingeschränkten Funktionsumfang des Assistenten nutzen.[12]

Unterscheidung von Benutzer-Individuen

Wie bei einem klassischen Mehrbenutzersystem kann es gewünscht sein, dass das Sprachassistenzsystem verschiedene Benutzer (als Individuum) unterscheiden kann, um ihnen personalisierte Dienste anzubieten. Dann muss es den Benutzer identifizieren können, z. B. anhand seiner Stimme, des Aktivierungsworts oder anderer Parameter. Beispiel: Wenn Benutzer A den Assistenten anweist, einen Termin zu notieren, dann soll dieser Termin im persönlichen Kalender dieses Benutzers A eingetragen werden und nicht im Kalender eines anderen Benutzers B landen.

Angriffsszenarien

Audio Injection

Sprachassistenzsysteme können durch Audio Injection angegriffen und missbraucht werden.

Attacke per Laserstrahl

Durch direktes Bestrahlen des Mikrofons mit einem Laserstrahl kann es Angreifern gelingen, Sprachassistenzsysteme zu befehligen – ihnen also „Lichtbefehle“ zu erteilen. Dazu wird der Laserstrahl derart in seiner Lichtintensität moduliert, dass er im Mikrofon sehr ähnliche elektrische Signale induziert, wie sie sich normalerweise durch die echten Sprachbefehle ergeben würden. So können das Aktivierungswort und zudem auszuführende Befehle unhörbar und auch aus zig Metern Entfernung an das Sprachassistenzsystem übermittelt werden. Insbesondere anfällig für diese Art von Attacke sind Systeme mit MEMS-Mikrofonen, da sie die Eigenschaft haben, nicht nur Schall, sondern auch Licht, das direkt auf sie gerichtet ist, in elektrische Signale umzuwandeln.[13][14]

Beispiele

Beispiele für Sprachassistenten und deren Aktivierungswörter sowie für Geräte, die diese Assistenten nutzen können, sind:

Sprachassistenten und Aktivierungswörter
Sprachassistent Anbieter Aktivierungswort Beispiele für nutzende Geräte
Alexa Amazon
  • „Alexa“
  • „Amazon“[15][16]
  • „Computer“
  • „Echo“[6]
Google Assistant Google
  • „Hey, Google“
  • „Okay, Google“[7]
Siri Apple
  • „Hey, Siri“[3]
Bixby Samsung
Cortana Microsoft
  • „Hey, Cortana“[4]
Hallo Magenta Deutsche Telekom
  • „Hallo Magenta“[9]
  • „Hey Magenta“
  • „Hi Magenta“
Voice Mate LG Electronics (nur per Tastendruck)[24]
  • bestimmte LG-Fernsteher mit webOS
Volkswagen (vw.os)
Intelligent Personal Assistant BMW
  • „Hey, BMW“
  • (weitere individualisierbar)[26]
MBUX Mercedes-Benz
  • „Hey, Mercedes“[27]
Jasper Open-Source-GitHub-Projekt
Snips Snips
  • „Hey, Snips“
  • (weitere individualisierbar)[8]

Siehe auch

Einzelnachweise

  1. a b c d Sven Hansen, Nico Jurran, Stefan Porteck: Sprachassistenten durchdringen den Alltag. heise online, 13. September 2019, abgerufen am 23. September 2019.
  2. Axel Kannenberg: Googles Sprachassistent: Mitarbeiter hören und bewerten Audioaufnahmen. heise online, 11. Juli 2019, abgerufen am 23. September 2019.
  3. a b c Siri auf allen Apple-Geräten verwenden. Apple, 6. Mai 2019, abgerufen am 22. September 2019.
  4. a b Was ist Cortana? Microsoft, 21. Mai 2019, abgerufen am 22. September 2019.
  5. a b c Bixby: Die 4 Wege mit Bixby zu sprechen. Abgerufen am 24. September 2019.
  6. a b Häufige Fragen. Amazon, abgerufen am 23. September 2019.
  7. a b c Turn "OK Google" (hotword) on or off - Pixel Slate Help. Google, abgerufen am 23. September 2019 (englisch).
  8. a b c Snips | Voice AI Platform. Abgerufen am 22. September 2019 (englisch).
  9. a b c Hallo Magenta: Der Telekom Smart Speaker | Telekom. Telekom Deutschland, abgerufen am 30. September 2019.
  10. a b Datenschutzportal für Alexa. Amazon, abgerufen am 23. September 2019.
  11. a b Jasper | Control everything with your voice. Abgerufen am 22. September 2019 (englisch).
  12. a b VW ID.3 | Erster Check | Sitzprobe | Display | Bedienung – 163 Grad im Volkswagen ID.3 auf der IAA. Abgerufen am 24. September 2019.
  13. Dennis Schirrmacher: Sicherheitsforscher befehligen Alexa, Siri & Co. via Laserstrahl. heise online, 6. November 2019, abgerufen am 9. November 2019.
  14. Takeshi Sugawara, Benjamin Cyr, Sara Rampazzi, Daniel Genkin, Kevin Fu: Light Commands: Laser-Based Audio Injection on Voice-Controllable Systems. 2019, abgerufen am 9. November 2019 (englisch).
  15. Hilfe: Aktivierungswort ändern. Amazon, abgerufen am 22. September 2019.
  16. Hilfe: Verwenden Sie Alexa auf Ihrem Fire Tablet. Amazon, abgerufen am 22. September 2019.
  17. Denise Bergert: Microsoft: Alexa Xbox Skill kommt nach Deutschland. heise online, 9. Juli 2019, abgerufen am 30. September 2019.
  18. a b Setup, Installation und Steuerung. Sonos, abgerufen am 15. Oktober 2019.
  19. Alexa auf Sonos. Sonos, abgerufen am 15. Oktober 2019.
  20. a b Bernd Mewes: Xbox: Microsoft erweitert Sprachsteuerung mit Google Assistant. heise online, 27. September 2019, abgerufen am 30. September 2019.
  21. Google Assistant auf Sonos. Sonos, abgerufen am 15. Oktober 2019.
  22. Geräte, die "Hey Siri" unterstützen. Apple, 6. September 2019, abgerufen am 11. Oktober 2019.
  23. Bixby | Apps & Services. Samsung, abgerufen am 24. September 2019.
  24. [LG webOS TV] Verwendung der Spracherkennung. In: FAQ's. LG Electronics, 21. Juli 2015, abgerufen am 11. Oktober 2019.
  25. VW ID.3 Multimedia, HUD mit augmented reality und Displays – IAA Live. Abgerufen am 30. September 2019.
  26. Der BMW Intelligent Personal Assistant heute und morgen. In: AutoFrey. 15. Januar 2019, abgerufen am 22. September 2019.
  27. André Berton: MBUX Voice Assistant: Versteht dich von selbst. Daimler AG, 28. Dezember 2018, abgerufen am 22. September 2019.