Wie schon viel zu viele Leute darauf hingewiesen haben, war Apples Veranstaltung heute Morgen eine kleine Enttäuschung – als Spektakel. 16 Monate sind eine lange Zeit, um auf eine inkrementelle Hardware-Verbesserung zu warten, die das iPhone 4S zweifellos ist. Aber es gab eine Ankündigung inmitten all der Zusammenfassung der iOS 5- und iCloud-Funktionen, die für jeden, der sich für die Zukunft der Interaktionen interessiert, ungeheuer aufregend hätte sein sollen: Sirius, der sprachaktivierte Assistent exklusiv für das iPhone 4S.
Wie immer, wenn Apple eine große Technologie (in diesem Fall E-Concierge-Dienste) einführt, freuen sich die Kritiker um darauf hinzuweisen, dass Cupertino zu spät zur Party kommt (können Sie glauben, dass sie mehr als 5 Jahre gebraucht haben, um auf die Treo?!). Konkret nennen sie Siri a Aufholjagd passen Google-Sprachaktionen Technologie, die seit über einem Jahr auf Android verfügbar ist. Nachdem ich Voice Actions seit einiger Zeit verwendet habe, kann ich bestätigen, dass dies nur halb wahr ist. Von Feature zu Feature sieht Siri auch wie ich aus. Aber aus Erfahrungssicht ist das ganz anders. Die Umsetzung bei Google erfolgt wie gewohnt prozessorientiert. Es überrascht nicht, dass Apple menschlich und freundlich ist. Und deshalb hat Siri das Potenzial, revolutionär zu sein.
Bevor wir weitermachen, nehmen Sie sich eine Minute Zeit, um zu sehen, wie die beiden Unternehmen ihre jeweiligen Produkte präsentieren:Apfel
Was fällt dir auf? Oberflächlich betrachtet besteht der größte Unterschied darin, dass Google betont, dass es sich bei dem, mit dem Sie sprechen, um ein Stück Technologie handelt. Ihre Befehle haben eine einheitliche Struktur, der sie folgen müssen. Sagen Sie zum Beispiel: „Rufen Sie an“
Oder nehmen Sie etwas deutlich Geradlinigeres und Funktionaleres: das Wetter. Bei Google Voice Actions sprechen Sie, als würden Sie eine Google-Suche diktieren: „Wetter San Francisco Okt. 7”. Und dann zeigt es die Google-Suchergebnisse an, die auf einer Webseite erscheinen. Das ist alles. Auf Siri sagt man: „Wie wird das Wetter, wenn ich in San Francisco bin? Wie wäre es mit Napa.“ Und die App reagiert ziemlich natürlich und zeigt gleichzeitig die Informationen, über die sie spricht, in visueller Form an.
Aus funktionaler Sicht ist dies identisch. Aus erfahrungstechnischer Sicht liegen da Welten. Google möchte Ihre Stimme in Tastatur und Maus verwandeln. Apple möchte, dass Sie eine andere Art von Beziehung zu Ihrem Telefon haben, die Ihren Beziehungen zu Menschen sehr ähnlich sieht.
Das hat gute Gründe. Praktisch jeder, der Siri verwenden könnte, hat Erfahrung mit (schrecklicher) Spracherkennungssoftware, einschließlich Apple Voice Control, dem unfähigen Tool, das in iOS 3 enthalten ist war im Grunde Google Voice Actions, außer dass es sehr ungenau war (insbesondere zum Erkennen indischer Namen) und nur in der Lage war, Anrufe zu tätigen und abzuspielen Musik. Ich denke, man kann mit Sicherheit sagen, dass die meisten unserer Erfahrungen viel aussehen so was. Apple hat sich entschieden, Siri weniger wie eine typische Spracherkennung und mehr wie einen hilfreichen menschlichen Assistenten reagieren zu lassen, teilweise um einige unserer negativen Assoziationen mit der zugrunde liegenden Technologie zu vermeiden.
Es ist ein guter Ansatz. Sag mir, das Startup, das Mike McCue vor Flipboard gegründet hat und eine Microsoft-Technologie, die zumindest teilweise für die Stimme verantwortlich zu sein scheint Seite der Magie von Kinect, verwendet menschlich klingende Sprachschnittstellen mit Pausen und vollständigen Sätzen, um die Warteschlangen beim Kundenservice deutlich zu reduzieren abscheulich. Diese Art von Leistung kann jetzt nahezu in Echtzeit auf einem Telefon verarbeitet werden.
Das macht mich so begeistert von Siri – es ist keine Verbesserung gegenüber der miesen Verbraucher-Spracherkennung, der wir alle in den letzten zehn Jahren ausgesetzt waren. Wir nehmen Technologie und Intelligenz, für die früher kräftige Hardware erforderlich war, in unsere Hände. Es ist das Wissensnavigator. Schließlich.