Siri, befolgst du die drei Gesetze der Robotik? Wie viele andere dumme Fragen hat es jemand bei Apple mühsam vorweggenommen. Ich vergesse die ersten drei, zwitschere die Antwort, aber es gibt eine vierte: 'Eine intelligente Maschine muss zuerst überlegen, was sich mehr lohnt: die gegebene Aufgabe auszuführen oder stattdessen einen Ausweg zu finden'.
Haha! Stellen Sie sich das Treffen vor, bei dem sie das geschrieben haben! Das Problem ist, es ist nicht wirklich ein Witz, oder? Das ist ihre eigentliche Entwicklungsaufgabe.
Siri kann viele einfache Dinge tun, wie Summen, Überprüfen der Wettervorhersage und Versenden von E-Mails. Fordern Sie etwas Härteres und es pariert entweder, ich bin mir nicht sicher, ob ich es verstehe, oder führt einfach eine Websuche nach dem durch, was Sie gesagt haben. Nun, hoppla. Singularität ahoi.
Siehe verwandte Zehn Dinge, die Apple getötet hat und warum es richtig war Apple iPhone 6s Test: Ein solides Telefon, auch Jahre nach seiner Veröffentlichung
Der Aufstieg von Do-It-All-Bots – darunter Amazons Alexa, Googles kommender Assistant und sogar ein Rivale von Siris ursprünglichem Entwickler namens Viv – wirft ein unangenehmes Rampenlicht auf den körperlosen Concierge von iOS. Wenn es, wie gemunkelt, als Tentpole-Feature von OS X 10.12 Sensemilla* angekündigt wird, können wir nur hoffen, dass ein Quantensprung in Sachen Intelligenz in der Pipeline ist. Weil es vielleicht einige Witzeleien hat, aber Siri hat es nicht geschafft, weise zu sein.
Eine Richtung
Aber es funktioniert. Meist. Wenn Sie wie ein BBC-Ansager sprechen.
Es ist großartig, dass es eine Technologie gibt, um Sprache in Text umzuwandeln. Nicht so toll, dass die Technologie anscheinend nicht in Ihr Telefon passt, also muss es in North Carolina sitzen und Ihr Datenvolumen aufbrauchen. Aber es funktioniert. Meist. Wenn Sie wie ein BBC-Ansager sprechen.
Dann kann dieser Text nach Schlüsselwörtern durchsucht werden, um sie in eine der Informationsquellen von Siri einzufügen, darunter Apple Maps, Wolfram Alpha, Wikipedia und Microsoft Bing. (Glücklicherweise können Sie Bing in Einstellungen | Safari | Suchmaschine gegen eine echte Suchmaschine austauschen. Allerdings nicht, indem Sie Siri fragen. Das wäre zu einfach.)
Aber die Art und Weise, wie Siri diese Quellen verwendet, ist alles andere als clever. Wenn ich Maps öffne und „Whickham“ in das Suchfeld eintippe, findet es korrekt eine Liste mit Orten in Whickham, einer kleinen Stadt in der Nähe meines Wohnortes. Darunter befindet sich der generische Eintrag für Whickham selbst, der auf der Apple-Karte direkt neben dem Wort 'Whickham' markiert ist. Der Schriftsatz ist übrigens schön.
Ich sollte den Schriftsatz beim Autofahren nicht wirklich bewundern, also sage ich stattdessen: Hey Siri, navigiere nach Whickham. Blitzschnell findet Siri High Wycombe, Buckinghamshire. Das ist das andere Ende Englands. Es fragt mich nicht, ob dies der Wycombe ist, den ich meinte; es beginnt einfach, eine Route zu zeichnen.
(Das ist nicht so dumm wie es nur geht. Wenn ich nach dem Weg nach 'Washington' frage, einer anderen Stadt in Tyne and Wear, bietet es mir Olympia, WA, 4.600 Meilen entfernt. Es ist nicht einmal das wahrscheinlich falscheste Washington.)
uxstyle für windows 10
Nein, Siri, Whickham, W-H-I-C-K-H-A-M.
Nun gibt es einen ganz offensichtlichen Weg, diese Verwirrung zu lösen: Sie würden das Wort ausbuchstabieren. Also versuche ich: Nein, Siri, Whickham, W-H-I-C-K-H-A-M. Es hört dies sehr gut und gibt sofort bekannt, dass es keine passenden Orte finden kann. Wohlgemerkt sofort – kein Weggehen, um Quellen zu überprüfen. Nur nein. Denken Sie daran, Whickham ist genau dort in Apple Maps, der gleichen Engine, die es verwendet, um mir High Wycombe zu zeigen.
Die einzige Möglichkeit, nach Whickham zu gelangen, besteht darin, mir einen Straßennamen dort (Front Street) zu merken und danach zu fragen, und dann über eine andere Möglichkeit nachzudenken, danach zu fragen, nachdem Siri mir die falsche Front Street zeigt und wiederum keine Alternativen bietet. Um die Verletzung noch schlimmer zu machen, wurde die Front Street ausgewählt, die meinem aktuellen Standort am nächsten liegt. Offensichtlich.
Ordner aus Bibliothek entfernen Windows 10
Entschuldigung, ich folge nicht
Andere Arten von Abfragen werden mit ähnlicher Dummheit behandelt. Siri, was ist der Unterschied zwischen Deutschlands BIP und Italiens? Kein Problem – es geht und bekommt die richtige Antwort von Wolfram Alpha. Dann versuche ich eine Folgefrage. Früher war Siri bei Folgefragen blöd, aber nachdem die Google Voice Search herausgekommen war, hat sie ihre Ideen auf den Kopf gestellt und sie erfüllt. Sie können jetzt fragen: Wie wird das Wetter am Montag? und hinzufügen Wie wäre es mit Dienstag? und es ist gut. Oder bewölkt.
Also folge ich: Wie wäre es mit Frankreich? Es verwechselt Frankreich als Freunde. Von all den Worten, die ich hätte sagen können, trägt die Tatsache, dass ich gerade zwei andere europäische Staaten genannt habe, anscheinend kein Gewicht auf die Möglichkeit, dass ich Frankreich meinte. Weltführende interaktive KI, Leute.
Ich habe einen 88-jährigen Verwandten, der sehr gehörlos ist. Wenn Sie etwas wiederholen, was sie falsch verstanden hat, errät sie ein anderes Wort. Sie mag sich immer noch irren, aber sie errät das gleiche Wort nicht noch einmal, denn warum hättest du es wiederholt? Ich wiederhole. Wie wäre es mit Frankreich? drei Mal. Dreimal kehrt Siri zurück Wie wäre es mit Freunden? Interessante Frage, Adam, antwortet sie strahlend.
Irgendwann finde ich heraus, dass ich Frankreich mit einem noblen Akzent sagen muss (ich bin im Norden, also reimt sich Frankreich auf Hosen). Siri kommt mit der Telefonnummer von Elizabeth France CBE zurück, die sich in meinen Kontakten befindet, als sie noch Datenschutzbeauftragte war. Denn offensichtlich meinte ich eine zufällige Person, in deren Büro ich zuletzt vor 14 Jahren angerufen habe, nicht das Land. (Das Land, das an die beiden anderen Länder angrenzt, die ich gerade erwähnt habe.) Und ich bezeichne Leute oft nur mit ihrem Nachnamen. Das ist total ein Ding. Siri, was ist mit Carruthers?
Müll in
Die Art von Logik, die hier fehlt, sollte nicht schwer sein. Es ist in mancher Hinsicht schon da. Du kannst sagen – aus heiterem Himmel, à propos de rien – Hey Siri, Ivy ist meine Schwester. Nachdem Sie überprüft haben, welchen Efeu Sie meinen, wenn Sie mehr als einen in Ihren Kontakten haben, wird Siri fragen: OK, möchten Sie, dass ich mich daran erinnere, dass Efeu Ihre Schwester ist? Sagen Sie Ja, und in Zukunft können Sie meine Schwester anrufen sagen, um diesen Kontakt anzurufen.
Familienbeziehungen haben Standard-Interdependenzen, also können Sie natürlich dann weiter angeben, dass Oliver Ivys Sohn ist, und anschließend Siri, SMS an meinen Neffen sagen, um diesem Kontakt eine Nachricht zu senden. Es ist keine Raketenwissenschaft, aber es ist eine nette… Moment mal. Siri macht eine Websuche nach Oliver und ist Ivys Sohn. So weit kann es gar nicht kommen.
Am ärgerlichsten an Siri ist, dass es für ein System, das zum Zuhören entwickelt wurde, ein so schlechter Zuhörer ist.
Am ärgerlichsten an Siri ist, dass es für ein System, das zum Zuhören entwickelt wurde, ein so schlechter Zuhörer ist. Und das ist mehr als nur ein Bug. Die ungerechtfertigte Unbekümmertheit, die flache Weigerung, über seine eigene Unwissenheit nachzudenken, sind unausweichlich symptomatisch für die Hybris im Silicon Valley.
Die menschliche Sprache und die Absichten dahinter zu verstehen, ist selbst für den Menschen eine enorme Herausforderung. Als Redner stolpern wir über unsere Worte; als Zuhörer interpretieren wir sie falsch. In den meisten Gesprächen wird sanft um Klärung oder das Auflösen von Mehrdeutigkeiten gebeten.
Doch Siri wird nichts davon haben. Bei all seiner Konversation durchsucht es nur unsere Eingabe nach den gleichen bellenden Befehlen, die wir in einem Menü finden könnten. Entweder weiß es, was wir wollen, oder es versteht keine passiv-aggressive Art, ungültige Eingaben zu sagen. Dazwischen liegt nichts.
Das ist so Bay Area, sagen die Leute jetzt, wenn ein überprivilegierter Tech-Mogul mit einer allzu vereinfachten Lösung für das falsche Problem in ein komplexes menschliches Problem gerät. Wir könnten genauso gut sagen: Das ist so Siri.
*Beweise dann, dass wir falsch liegen
WEITER LESEN: Die zehn Dinge, die Apple getötet hat – und warum es richtig war