Proč Siri nemůže najít potratové kliniky

Tento týden bylo hodně napsáno ve zprávách o Siriho údajném pro-life sklonu. V podstatě se spousta lidí naštvala, protože Siri nemohla najít místní potratovou kliniku, přestože si tak potratové kliniky ve skutečnosti neříkají. Apple popřel, že by to Siri měl jakýkoli pro-life v každém případě říká, že místo toho byla služba v „beta“ verzi.

Co se tedy vlastně stalo? Apple se právě naučil svou první lekci o vyhledávání: jste zodpovědní za informace, které lidé mají očekávání, že se zobrazí, se ve vyhledávacím dotazu nezobrazí, i když tyto informace souvisejí pouze s tangenciálně aktuální slova v dotazu. Je to bolest hlavy, se kterou se Google potýká téměř deset let.

Danny Sullivan u v Vyhledávač Land vysvětluje:

Za prvé, Siri sama na nic nemá odpovědi. Tomu říkáme „meta vyhledávač“, což je služba, která odesílá váš dotaz dalším vyhledávačům.

Siri je chytrý meta vyhledávač, který se snaží vyhledávat věci, i když jste možná neřekli přesná slova potřebná k provedení vašeho hledání. Například se učilo chápat, že zuby souvisejí se zubními lékaři, takže když řeknete „bolí mě zub“, ví, že vyhledat zubaře.

Bohužel to samé z něj také dělá neuvěřitelně hloupý vyhledávač. Pokud nenajde spojení, má tendenci vůbec nehledat.

Když jsem hledal kondomy, Siri pochopil, že jde o věci prodávané v obchodech s drogami. Proto se to vrátilo s tím seznamem drogerií. Ví, že kondomy = drogerie.

Neví, že plán B je obchodní značka nouzového antikoncepčního léku. Podobně, i když ví, že Tylenol je droga, a tak mi dává shody pro obchody s drogami, neví, že acetaminofen je chemický název Tylenol. V důsledku toho nic nedostanu:

Jinými slovy, Siri má něco jako záhadný problém v údolí. Je to jen tak chytré jako vyhledávače, se kterými je spojeno jako Wolfram Alpha a Yelp, ale protože rozpoznávání hlasu je tak dobré a způsob, jakým s vámi Siri komunikuje, je tak živý, že to lidé očekávají tak jako chytrý jako člověk... i když jím není.

Takže když Apple říká „Siri je beta“, myslí to vážně. Stejně jako to musel udělat Google, Apple se musí učit ze zkušeností a naprogramovat Siri, aby pochopil, jaké výsledky bude dávat na věci jako „Byl jsem znásilněn“ nebo „Chci si koupit nějaké kaučuky“. Dej tomu čas, a bude, ale jen proto, že Apple nevyřešil všechny možné otázky, které si uživatelé mohou Siri položit, ještě neznamená, že mají sekeru, kterou mohou brousit proti různým filozofiím, vyznáním, rasám a náboženství.

Poslední příspěvek na blogu

| Kult Mac
September 10, 2021

Trump a Tim Cook hovoří tváří v tvář, aby hovořili o obchodní politice USATim Cook a Donald Trump na jednom ze svých dřívějších setkání.Foto: Bílý ...

| Kult Mac
September 10, 2021

Trump „má obavy“ z francouzských zákonů zaměřených na Apple a další technologické gigantyTrump se obává, že by francouzské daňové zákony mohly pošk...

| Kult Mac
September 10, 2021

Francie nechá Apple, ostatní technologické giganty odečíst digitální daňDaňové doklady společnosti Apple ve Francii budou odpočitatelné.Ilustrace: ...