In den Filmen hört man niemals Roboter sagen "Huh?"
Trotz all seiner Besorgnis wurde "Star Wars" C-3PO nie verwirrt. Sonny, der entscheidende Nicht-Mensch in "I, Robot", war vielleicht verwirrt darüber, was er war, aber er schien keine Probleme damit zu haben, Will Smith zu verstehen.
Im wirklichen Leben kämpfen Maschinen jedoch immer noch heftig mit der menschlichen Sprache. Sicher, Siri kann Fragen beantworten, wenn er genügend Wörter in einer bestimmten Abfrage erkennt. Aber einen Roboter auffordern, etwas zu tun, was er nicht programmiert hat, Schritt für Schritt? Nun, viel Glück damit.
Ein Teil des Problems ist, dass wir als Menschen nicht sehr genau sprechen. Wenn wir miteinander reden, müssen wir es normalerweise nicht sein. Bitten Sie einen Roboter, „etwas Wasser aufzuheizen“, und die entsprechende Antwort wäre „Was?“ - es sei denn, er hätte gelernt, die lange Reihe von Fragen im Zusammenhang mit dieser scheinbar einfachen Handlung zu verarbeiten. Darunter: Was ist Wasser? Wo bekommst du das her? In was kannst du es setzen? Was bedeutet "Aufheizen"? Welches andere Objekt benötigen Sie dazu? Ist die Quelle in diesem Raum?
Jetzt haben sich Forscher der Cornell University jedoch der Herausforderung gestellt, einen Roboter so auszubilden, dass er das, was nicht gesagt wird - oder die Mehrdeutigkeit des Gesagten - interpretiert. Sie nennen das Projekt Tell Me Dave, eine Anspielung auf HAL, den Computer mit der beruhigenden Stimme und den paranoiden Tendenzen im Film "2001: A Space Odyssey".
Ihr Roboter, der mit einer 3D-Kamera ausgestattet ist, wurde so programmiert, dass er Objekte mit ihren Fähigkeiten verknüpft. Zum Beispiel weiß es, dass eine Tasse etwas ist, mit dem man Wasser halten, trinken oder Wasser in etwas anderes gießen kann. Ein Ofen ist etwas, das Dinge erhitzen kann, aber auch etwas, auf das man Dinge stellen kann. Informatiker bezeichnen die Schulungstechnik als Grundlage - sie helfen Robotern, Wörter mit Objekten und Handlungen in der realen Welt zu verbinden.
„Worte haben für einen Roboter nur dann eine Bedeutung, wenn sie auf Handlungen beruhen“, erklärt Ashutosh Saxena, Leiter des Teams von Tell Me Dave. Der Roboter des Projekts, sagt er, habe gelernt, verschiedene Sätze zuzuordnen, wie zum Beispiel "aufheben" oder "anheben" für dieselbe Aktion.
Dies ist ein großer Fortschritt in der Mensch-Roboter-Kommunikation, wenn man bedenkt, auf wie viele verschiedene Arten wir eine einfache Aufgabe beschreiben können.
"Alle Roboter, wie die in der industriellen Fertigung, selbstfahrende Autos oder assistierende Roboter, müssen mit Menschen interagieren und ihre ungenaue Sprache interpretieren", sagte er. "In der Lage zu sein, die Bedeutung von Wörtern aus ihrem Umweltkontext herauszufinden, wäre für alle diese Roboter sofort nützlich."
Eine Gruppe Anstrengung
Saxena hat sich zusammen mit den Doktoranden Dipendra Misra und Jaeyong Sung dem Crowdsourcing zugewandt, um so viele verschiedene Varianten der englischen Sprache wie möglich zu sammeln.
Besucher der Tell Me Dave-Website werden gebeten, einen virtuellen Roboter anzuweisen, eine bestimmte Aufgabe zu erledigen, z. B. "Ramen herstellen". Da die meisten Leute dazu neigen, unterschiedliche Befehle zu erteilen, wenn sie den Roboter durch den Prozess führen, war es dem Team möglich Sammeln Sie ein umfangreiches Vokabular, das sich auf denselben Prozessschritt bezieht.
Diese Befehle, die mit unterschiedlichen Akzenten aufgezeichnet wurden, sind gespeicherten Videosimulationen verschiedener Aufgaben zugeordnet. Selbst wenn die Sätze unterschiedlich sind - „Bring den Topf zum Herd“ statt „stell den Topf auf den Herd“ -, kann die Tell Me Dave-Maschine die Wahrscheinlichkeit einer Übereinstimmung mit etwas berechnen, das sie zuvor gehört hat.
Zu diesem Zeitpunkt erledigt der Tell Me Dave-Roboter die angeforderten Aufgaben in fast zwei Dritteln der Zeit. Dies schließt Fälle ein, in denen Objekte an verschiedene Orte im Raum bewegt werden oder der Roboter in einem anderen Raum arbeitet. Manchmal ist der Roboter jedoch immer noch ahnungslos: Als man ihm sagte, er solle warten, bis das Eis weich geworden sei, „konnte er nicht herausfinden, was zu tun ist“, sagt Saxena.
Dennoch ist es viel besser geworden, nicht spezifizierte Schritte auszufüllen. Als der Roboter beispielsweise angewiesen wurde, „das Wasser im Topf zu erhitzen“, stellte er fest, dass er den Topf zuerst zum Wasserhahn tragen und mit Wasser füllen musste. Er weiß auch, dass er, wenn er angewiesen wird, etwas zu erhitzen, entweder den Herd oder die Mikrowelle benutzen kann, je nachdem, was verfügbar ist.
Laut Saxena muss das Robotertraining von Tell Me Dave verbessert werden, bevor es in der Praxis eingesetzt werden kann. 64 Prozent der Zeit in der Lage zu sein, Anweisungen zu befolgen, ist nicht gut genug, zumal die Menschen 90 Prozent der Zeit verstehen, was ihnen gesagt wird.
Saxena und sein Team werden nächste Woche auf der Robotics Science and Systems Conference an der University of California, Berkeley, ihre Algorithmen für das Training von Robotern vorstellen und zeigen, wie sie den Prozess durch Crowdsourcing erweitert haben. Ähnliche Forschungen werden an der University of Washington durchgeführt.
Es ist keine Frage, dass Roboter die Algorithmen beherrschen werden - es ist nur eine Frage, wann dies den Sprung vom Labor zum Markt schaffen wird. Nächstes Jahr? Unwahrscheinlich. Aber in einem Jahrzehnt, in dem sich große Unternehmen auf neue Märkte wie selbstfahrende Autos konzentrieren, ist es durchaus möglich, dass wir Robotern wie Tell Me Dave den Startschuss für das Abendessen geben können.Sag was?
Hier sind die neuesten Nachrichten über die Erforschung der Kommunikation mit und durch Roboter:
- Was ist die Geste für „Sorge dafür, dass mein Sitz warm ist“ ?: Mercedes-Benz möchte das erste große Autounternehmen sein, das möglicherweise bereits 2020 mit dem Verkauf von fahrerlosen Autos beginnt. Die Ingenieure haben begonnen, gemeinsam mit Robotik-Experten Wege zu entwickeln, um dies zu erreichen Menschen, die mit ihren Fahrzeugen kommunizieren Eine Methode, die viel Aufmerksamkeit erregt, ist die Verwendung der Handzeichen, die die Sensoren eines Autos erfassen könnten. Experten sagen, dass Sie mit der richtigen Geste Ihr geparktes Auto anrufen könnten, um Sie abzuholen.
- Endlich Helferroboter für Mechaniker: Bei Audi werden Roboterhelfer in Kürze an die Mechaniker des Unternehmens in der ganzen Welt ausgeliefert. Die Roboter werden mit 3D-Kameras ausgestattet, die von einem externen Spezialisten gesteuert werden, der die Leute, die tatsächlich an den Autos arbeiten, durch schwierige Reparaturen führen kann.
- Siri schlauer machen: Laut einem Bericht von Wired hat Apple damit begonnen, erstklassige Spracherkennungsexperten einzustellen, um sich auf das Konzept neuronaler Netze zu konzentrieren, Maschinen Wörter lernen zu lassen, indem sie Verbindungen aufbauen und die Funktionsweise von Neuronen im menschlichen Gehirn nachahmen.
- Roboter muss zur Kunstausstellung fahren: Später in diesem Monat wird ein Roboter per Anhalter durch Kanada fahren. Es heißt HitchBOT und wurde als eine Kombination aus Kunstprojekt und sozialem Experiment beschrieben. Das Ziel ist zu sehen, ob HitchBOT es von Halifax zu einer Galerie im ganzen Land in British Columbia schafft. Es wird nicht in der Lage sein, sich selbst zu bewegen, aber es wird mit einem Mikrofon und einer Kamera ausgestattet sein, mit denen es Bewegung und Sprache erkennen kann. Es wird auch in der Lage sein, Fragen über eine aus Wikipedia stammende Datenbank zu beantworten.