Warum Siri keine Abtreibungskliniken finden kann

Diese Woche wurde in den Nachrichten viel über Siris angebliche Pro-Life-Neigungen gemacht. Im Wesentlichen hat sich ein Haufen Leute aufgeregt, weil Siri keine Abtreibungsklinik vor Ort finden konnte, obwohl Abtreibungskliniken sich selbst nicht so nennen. Apple bestritt, dass Siri irgendein pro-life irgendwelche Neigungen und sagten stattdessen, dass sich der Dienst in der "Beta" befand.

Was ist also wirklich passiert? Nun, Apple hat gerade seine erste Lektion über die Suche gelernt: Sie werden verantwortlich gemacht, wenn die Informationen die Leute sind zu erwarten, wird in einer Suchanfrage nicht angezeigt, auch wenn diese Informationen nur tangential mit der tatsächlich Wörter in der Abfrage. Es ist ein Kopfschmerz, mit dem sich Google seit fast einem Jahrzehnt beschäftigt.

Danny Sullivan bei Suchmaschinenland erklärt:

Erstens hat Siri selbst keine Antworten auf alles. Wir nennen es eine "Meta-Suchmaschine", ein Dienst, der Ihre Anfrage an andere Suchmaschinen weiterleitet.

Siri ist eine intelligente Metasuchmaschine, die versucht, nach Dingen zu suchen, auch wenn Sie möglicherweise nicht die genauen Wörter gesagt haben, die Sie für Ihre Suche benötigen. Zum Beispiel wurde ihm beigebracht zu verstehen, dass Zähne mit Zahnärzten verwandt sind. Wenn Sie also sagen „mein Zahn tut weh“, weiß es, nach Zahnärzten zu suchen.

Leider macht es das gleiche auch zu einer unglaublich dummen Suchmaschine. Wenn es keine Verbindung findet, neigt es dazu, überhaupt nicht zu suchen.

Als ich nach Kondomen suchte, verstand Siri, dass diese in Drogerien verkauft werden. Deshalb kam es mit dieser Auflistung von Drogerien zurück. Sie wissen, dass Kondome = Drogerien sind.

Es ist nicht bekannt, dass Plan B der Markenname eines Notfallverhütungsmittels ist. Auch wenn es weiß, dass Tylenol ein Medikament ist und mir Streichhölzer für Drogerien gibt, weiß es nicht, dass Paracetamol der chemische Name von Tylenol ist. Als Ergebnis bekomme ich nichts:

Mit anderen Worten, Siri hat so etwas wie ein unheimliches Talproblem. Es ist nur so schlau wie die Suchmaschinen, mit denen es verlinkt ist, wie Wolfram Alpha und Yelp, aber weil die Die Spracherkennung ist so gut und die Art und Weise, wie Siri mit dir interagiert, ist so lebensecht, dass die Leute es von ihr erwarten wie Clever als Person… auch wenn sie keine ist.

Wenn Apple also sagt "Siri ist eine Beta", meinen sie es auch. Genau wie Google muss Apple aus Erfahrung lernen und Siri programmieren, um zu verstehen, welche Ergebnisse für Dinge wie "Ich wurde vergewaltigt" oder "Ich möchte ein paar Gummis kaufen" liefern. Gib der Sache Zeit, und das wird es, aber nur weil Apple nicht alle möglichen Fragen herausgefunden hat, die Benutzer Siri stellen können, heißt das nicht, dass sie eine Axt haben, um gegen verschiedene Philosophien, Glaubensbekenntnisse, Rassen und Religionen.

Neuester Blogbeitrag

Microsoft stoppt Aprilscherze
October 21, 2021

Microsoft stoppt AprilscherzeEin früherer Streich von Microsoft hat MS-DOS auf Mobilgeräten wiederbelebt.Foto: MicrosoftMicrosoft hat Mitarbeitern ...

Dummes Rendering: 'Mac Air' ist flach wie ein Pfannkuchen
October 21, 2021

Dummes Rendering: ‚Mac Air‘ ist flach wie ein PfannkuchenWir wollen glauben.Sicher, wir werden morgen eine Menge lustiger Dinge im Internet sehen, ...

Tesla gewinnt Aprilscherz mit Apple Watch-Parodie
October 21, 2021

Tesla gewinnt Aprilscherz mit Apple Watch-ParodieLOL. Foto: TeslaAprilscherz ist der Tag, an dem viele Technologieunternehmen gefälschte Produkte a...