• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Smartspeaker: Gadget soll für mehr Privatsphäre sorgen

Nun, "brauchen" ist relativ. ;)

Aber es ist schon ganz geil, das, was früher nur als Science Fiction auf der Enterprise vorhanden war, jetzt auch im realen Leben haben zu können:
Dort konnte man ja auch den Bordcomputer nach Informationen fragen und der hat einen dann Ergebnisse "vorgelesen".

Ich hab einen Google Home. Nutzen tu ich das hauptsächlich als Tee-Timer, Wecker, Wetteransage, Einkaufszettel und zur Lichtsteuerung.


Oder einfach mal "Setze <X> auf die Einkaufsliste" sagen und schon hast du das auf deinem Smartphone gespeichert.


Na, da wäre ich mir nicht ganz so sicher. Bei Google Home istz es jedenfalls so: kein WLAN (oder sonstige INet Verbindung), kein Google Home. Dann gibt's nur ne Ansage, wo/wie man die WLan Verbindung konfigurieren kann.

Im Protokoll (das man bei Google einsehen kann), finden sich nur die erkannten Sprachbefehle. Aber das heißt ja nicht, daß nicht doch mehr gesendet wird ...

OK wenn man sich sicher sein könnte das mit dem Datenschutz kein Schindluder getrieben wird, ist es bestimmt eine nette Spielerei. Ich glaube den "Computer" (darauf würde wohl wie bei vielen anderen das Gerät bei mir "hören") aus Enterprise hätte jeder gern :)
 
Nicht wirklich, wenn man bedenkt was heute alles die Leitungen rauf und runter gejagt wird da wäre eine Textdatei von ein paar MB ein Witz.

Die gesamte Spracherkennung, Interpretation des Inhalts und die Reaktion darauf, läuft nur über die Cloud. Offline hat man nicht sehr viel mehr als ein dummes Gerät mit Mikrofon und Lautsprechern. Es kann auf das Aufwachwort reagieren, eingehende Geräusche optimieren und Musik abspielen.
Das macht die Hardware günstiger, und die Weiterentwicklung wahrscheinlich einfacher und schneller.

Ein paar KB an Text mag man leicht übersehen (aber selbst das wäre mit Sicherheit schon jemandem aufgefallen), aber Soundfiles verursachen schon deutlich mehr Traffic.

Amazon stellt die Alexa Voice Services übrigens frei zur Verfügung. Hier gibt es Entwicklerinfos, hier den C++ Source Code und hier sogar eine komplette Anleitung um sich mit nem Rasberry Pi eine eigene Alexa aufzubauen.

Was genau in der Cloud passiert wird wohl Amazons Geheimnis bleiben, aber die Schnittstelle im Haus scheint sehr umfangreich dokumentiert zu sein. Unstimmigkeiten wären sicher schon längst aufgefallen.

Persönlich habe ich trotzdem deutlich mehr Vertrauen in Siri (und deutlich weniger in Google). ;)


/edit: laut dem Rasberry Tutorial ist die „Wake Word Engine“ ein separat laufender Prozess, und der Service stammt nicht von Amazon selbst. Dafür gibt es verschiedene Anbieter. Erst wenn der das Go gibt, geht Alexa in die Cloud. Jedenfalls in der Theorie, prüfen kann ich das nicht.
 
Zuletzt bearbeitet:
"Dies öffnet theoretisch auch die Tür für Angeber"

Smart Speaker, der Schwanzvergleich des kleinen Mannes.... Schon armselig wenn man Apple nicht das Geld in den Rachen schmeißen kann.
 
Zurück