das problem ist bisher die schnelle Auswertung der Daten. das ist derzeit das Problem bei android. die Auswertung erfolgt leider nicht im Gerät, sondern es ist eine Datenverbindung nötig (die aufgezeichnete Sprache wird also zu google gesendet , dort ausgewertet udn die ermittelten Befehle zurückgesendet)
Ja Und? Das ist bei Apples Siri doch exakt genauso - es wird aufgezeichnet, die Tondaei an einen Apple-Server geschickt und der sendet dann das Ergebniss bzw. die Befehle zurück. Weswegen auch Siri nur mit Datenverbindung läuft, und auch richtig nur mit 3G - bei reinem GRPS klappt es meistens gar nicht oder dauert ewig. Wo ist da also der Unterschied zu Android? Es gibt keinen.
Und anders gehts auch nicht: Kein normales Consumergerät, schon gar kein Mobilfunkprozessor, wäre auch nur ansatzweise leistungsmäßig in der Lage, diese Interpretationen die hier durchzuführen sind zu erledigen. Genau an diesem Ansatz sind früher auch alle Spracherkennungssysteme gescheitert - hier ist viel zu viel Rechenpower nötig wenn das vernünftig funkionieren soll. Erst mit der Idee, das von einem leistungsfähigem Großrechner machen zu lassen und das Ergebniss übers Internet zu vermitteln ist vernünftige Spracherkennung überhaupt möglich geworden. Und zwar sogar ohne dass das System erst an die eigene Sprache trainiert werden muss.