Tento týden bylo hodně napsáno ve zprávách o Siriho údajném pro-life sklonu. V podstatě se spousta lidí naštvala, protože Siri nemohla najít místní potratovou kliniku, přestože si tak potratové kliniky ve skutečnosti neříkají. Apple popřel, že by to Siri měl jakýkoli pro-life v každém případě říká, že místo toho byla služba v „beta“ verzi.
Co se tedy vlastně stalo? Apple se právě naučil svou první lekci o vyhledávání: jste zodpovědní za informace, které lidé mají očekávání, že se zobrazí, se ve vyhledávacím dotazu nezobrazí, i když tyto informace souvisejí pouze s tangenciálně aktuální slova v dotazu. Je to bolest hlavy, se kterou se Google potýká téměř deset let.
Danny Sullivan u v Vyhledávač Land vysvětluje:
Za prvé, Siri sama na nic nemá odpovědi. Tomu říkáme „meta vyhledávač“, což je služba, která odesílá váš dotaz dalším vyhledávačům.
Siri je chytrý meta vyhledávač, který se snaží vyhledávat věci, i když jste možná neřekli přesná slova potřebná k provedení vašeho hledání. Například se učilo chápat, že zuby souvisejí se zubními lékaři, takže když řeknete „bolí mě zub“, ví, že vyhledat zubaře.
Bohužel to samé z něj také dělá neuvěřitelně hloupý vyhledávač. Pokud nenajde spojení, má tendenci vůbec nehledat.
Když jsem hledal kondomy, Siri pochopil, že jde o věci prodávané v obchodech s drogami. Proto se to vrátilo s tím seznamem drogerií. Ví, že kondomy = drogerie.
Neví, že plán B je obchodní značka nouzového antikoncepčního léku. Podobně, i když ví, že Tylenol je droga, a tak mi dává shody pro obchody s drogami, neví, že acetaminofen je chemický název Tylenol. V důsledku toho nic nedostanu:
Jinými slovy, Siri má něco jako záhadný problém v údolí. Je to jen tak chytré jako vyhledávače, se kterými je spojeno jako Wolfram Alpha a Yelp, ale protože rozpoznávání hlasu je tak dobré a způsob, jakým s vámi Siri komunikuje, je tak živý, že to lidé očekávají tak jako chytrý jako člověk... i když jím není.
Takže když Apple říká „Siri je beta“, myslí to vážně. Stejně jako to musel udělat Google, Apple se musí učit ze zkušeností a naprogramovat Siri, aby pochopil, jaké výsledky bude dávat na věci jako „Byl jsem znásilněn“ nebo „Chci si koupit nějaké kaučuky“. Dej tomu čas, a bude, ale jen proto, že Apple nevyřešil všechny možné otázky, které si uživatelé mohou Siri položit, ještě neznamená, že mají sekeru, kterou mohou brousit proti různým filozofiím, vyznáním, rasám a náboženství.