https://frosthead.com

Wie das Verstehen von Tieren uns helfen kann, das Beste aus künstlicher Intelligenz zu machen

Täglich tauchen unzählige Schlagzeilen aus unzähligen Quellen auf der ganzen Welt auf, die sowohl vor schlimmen Folgen warnen als auch utopische Zukünfte versprechen - alles dank künstlicher Intelligenz. KI „verändert den Arbeitsplatz“, schreibt das Wall Street Journal, während das Fortune-Magazin uns mitteilt, dass wir uns einer „KI-Revolution“ gegenübersehen, die „unser Leben verändern wird“. Aber wir verstehen nicht wirklich, wie die Interaktion mit KI aussehen wird - oder wie es sein soll.

Es stellt sich jedoch heraus, dass wir bereits ein Konzept haben, das wir verwenden können, wenn wir über KI nachdenken: So denken wir über Tiere. Als ehemaliger Tiertrainer (wenn auch nur kurz), der jetzt untersucht, wie Menschen mit KI umgehen, weiß ich, dass Tiere und Tiertraining uns eine Menge darüber beibringen können, wie wir jetzt und in der KI über künstliche Intelligenz nachdenken, mit ihnen umgehen und mit ihnen interagieren sollten Zukunft.

Die Verwendung tierischer Analogien kann normalen Menschen helfen, viele der komplexen Aspekte der künstlichen Intelligenz zu verstehen. Es kann uns auch dabei helfen, darüber nachzudenken, wie wir diesen Systemen am besten neue Fähigkeiten beibringen und, was vielleicht am wichtigsten ist, wie wir ihre Grenzen richtig einschätzen können, selbst wenn wir die neuen Möglichkeiten von AI feiern.

Einschränkungen betrachten

Die KI-Expertin Maggie Boden erklärt: „Künstliche Intelligenz versucht, Computer dazu zu bringen, die Dinge zu tun, die der Verstand tun kann.“ KI-Forscher arbeiten daran, Computern beizubringen, zu überlegen, wahrzunehmen, zu planen, sich zu bewegen und Assoziationen herzustellen. AI kann Muster in großen Datenmengen erkennen, die Wahrscheinlichkeit des Eintretens eines Ereignisses vorhersagen, eine Route planen, den Sitzungsplan einer Person verwalten und sogar Kriegsspielszenarien spielen.

Viele dieser Fähigkeiten sind an sich nicht überraschend: Natürlich kann ein Roboter um einen Raum rollen und nicht mit irgendetwas kollidieren. Aber irgendwie wirkt die KI magischer, wenn der Computer diese Fähigkeiten zusammenfügt, um Aufgaben zu erledigen.

Nehmen Sie zum Beispiel autonome Autos. Die Ursprünge des fahrerlosen Autos liegen in einem Projekt der Defense Advanced Research Project Agency aus den 1980er Jahren mit dem Namen Autonomous Land Vehicle. Ziel des Projekts war es, die Erforschung von Bildverarbeitung, Wahrnehmung, Planung und Robotersteuerung zu fördern. Im Jahr 2004 wurde die ALV-Aktion zur ersten großen Herausforderung für selbstfahrende Autos. Jetzt, mehr als 30 Jahre nach Beginn der Bemühungen, befinden wir uns auf dem zivilen Markt am Abgrund autonomer oder selbstfahrender Autos. In den Anfangsjahren hielten nur wenige Menschen eine solche Leistung für unmöglich: Computer konnten nicht fahren!

Doch wie wir gesehen haben, können sie. Die Fähigkeiten autonomer Autos sind für uns relativ leicht zu verstehen. Aber wir haben Mühe, ihre Grenzen zu verstehen. Nach dem tödlichen Tesla-Crash von 2015, bei dem die Autopilot-Funktion des Autos keine Überfahrt eines Sattelzuges auf die Fahrspur bemerkte, scheinen nur noch wenige zu begreifen, wie schwer der Autopilot von Tesla tatsächlich ist. Während das Unternehmen und seine Software von der National Highway Traffic Safety Administration von Fahrlässigkeit befreit wurden, bleibt unklar, ob Kunden wirklich verstehen, was das Auto kann und was nicht.

Was wäre, wenn den Tesla-Besitzern nicht gesagt würde, dass sie eine Beta-Version eines Autopiloten fahren, sondern ein halbautonomes Auto mit der mentalen Äquivalenz eines Wurms? Die sogenannte "Intelligenz", die "volle Selbstfahrfähigkeit" bietet, ist in Wirklichkeit ein riesiger Computer, der Objekte ziemlich gut erkennt und vermeidet, Objekte in Bildern erkennt und nur begrenzt plant. Dies könnte die Sichtweise der Besitzer dahingehend verändern, wie viel das Auto wirklich ohne menschliche Eingaben oder Kontrolle auskommen könnte.

Was ist es?

Technologen versuchen oft, KI anhand ihres Aufbaus zu erklären. Nehmen Sie zum Beispiel die Fortschritte, die beim tiefen Lernen erzielt wurden. Dies ist eine Technik, die mehrschichtige Netzwerke verwendet, um zu lernen, wie eine Aufgabe ausgeführt wird. Die Netzwerke müssen riesige Mengen an Informationen verarbeiten. Aufgrund des Volumens der von ihnen benötigten Daten, der Komplexität der Assoziationen und Algorithmen in den Netzwerken ist es den Menschen jedoch oft unklar, wie sie lernen, was sie tun. Diese Systeme können bei einer bestimmten Aufgabe sehr gut werden, aber wir verstehen sie nicht wirklich.

Anstatt KI als etwas Übermenschliches oder Außerirdisches zu betrachten, ist es einfacher, sie mit Tieren, intelligenten Nichtmenschen, die wir trainieren, zu vergleichen.

Wenn ich zum Beispiel das verstärkte Lernen nutzen würde, um einen Hund zum Sitzen zu erziehen, würde ich den Hund loben und ihm Leckereien geben, wenn er auf Befehl sitzt. Im Laufe der Zeit lernte er, den Befehl mit dem Verhalten des Leckerli zu verknüpfen.

Das Training eines KI-Systems kann sehr ähnlich sein. Beim vertieften Lernen bauen menschliche Designer ein System auf, stellen sich vor, was sie lernen möchten, geben ihm Informationen, beobachten seine Aktionen und geben ihm Feedback (wie zum Beispiel Lob), wenn sie sehen, was sie wollen. Im Wesentlichen können wir das KI-System so behandeln, wie wir Tiere behandeln, die wir trainieren.

Die Analogie funktioniert auch auf einer tieferen Ebene. Ich erwarte nicht, dass der sitzende Hund komplexe Konzepte wie „Liebe“ oder „gut“ versteht. Ich erwarte, dass er ein Verhalten lernt. So wie wir Hunde zum Sitzen, Bleiben und Überrollen bringen können, können wir KI-Systeme dazu bringen, Autos auf öffentlichen Straßen zu bewegen. Es ist jedoch zu viel zu erwarten, dass das Auto die ethischen Probleme „löst“, die bei Fahrnotfällen auftreten können.

Auch Forschern helfen

Die Vorstellung, dass KI ein trainierbares Tier ist, ist nicht nur nützlich, um es der Öffentlichkeit zu erklären. Es ist auch hilfreich für die Forscher und Ingenieure, die die Technologie bauen. Wenn ein KI-Gelehrter versucht, einem System eine neue Fähigkeit beizubringen, kann es hilfreich sein, den Prozess aus der Perspektive eines Tiertrainers zu betrachten, um mögliche Probleme oder Komplikationen zu identifizieren.

Wenn ich zum Beispiel versuche, meinem Hund das Sitzen beizubringen, und jedes Mal, wenn ich sage, dass der Summer zum Ofen ertönt, beginnt mein Hund, das Sitzen nicht nur mit meinem Befehl, sondern auch mit dem Geräusch des zu verbinden Backofensummer. Im Wesentlichen wird der Summer zu einem weiteren Signal, das den Hund zum Sitzen auffordert, was als „unbeabsichtigte Verstärkung“ bezeichnet wird. Wenn wir in KI-Systemen nach unbeabsichtigten Verstärkungen oder Signalen suchen, die nicht richtig funktionieren, wissen wir nicht nur besser, was los ist falsch, sondern auch, welche spezifische Umschulung am effektivsten sein wird.

Dazu müssen wir verstehen, welche Botschaften wir während des KI-Trainings geben und was die KI möglicherweise in der Umgebung beobachtet. Der Backofensummer ist ein einfaches Beispiel; in der realen Welt wird es viel komplizierter sein.

Bevor wir unsere KI-Oberherren willkommen heißen und unser Leben und unsere Arbeit an Roboter übergeben, sollten wir innehalten und über die Art von Intelligenz nachdenken, die wir erschaffen. Sie sind sehr gut darin, bestimmte Aktionen oder Aufgaben auszuführen, können aber keine Konzepte verstehen und wissen nichts. Wenn Sie also daran denken, Tausende für ein neues Tesla-Auto auszusondern, denken Sie daran, dass die Autopilot-Funktion wirklich nur ein sehr schneller und sexy Wurm ist. Möchten Sie wirklich einem Wurm die Kontrolle über Ihr Leben und das Ihrer Lieben geben? Wahrscheinlich nicht, also lass deine Hände am Lenkrad und schlafe nicht ein.


Dieser Artikel wurde ursprünglich auf The Conversation veröffentlicht. Die Unterhaltung

Heather Roff, Senior Research Fellow, Abteilung für Politik und internationale Beziehungen, Universität Oxford; Wissenschaftlicher Mitarbeiter, Global Security Initiative, Arizona State University

Wie das Verstehen von Tieren uns helfen kann, das Beste aus künstlicher Intelligenz zu machen