In nicht allzu ferner Zukunft ist Johannesburg die erste Stadt, in der eine Flotte autonomer Roboter-Polizeidroiden stationiert ist. Auf den ersten Blick scheinen die Maschinen eine effektive Lösung zu sein. Die Kriminalität sinkt drastisch und das Projekt wird als Erfolg gefeiert - bis etwas schief geht. Rap-Rave-Gangster, die auf der Suche nach einem schnellen Zahltag sind, entführen einen beschädigten Droiden, der demoliert werden soll. Mit Hilfe eines Ingenieurs, der mit vorgehaltener Waffe gezwungen wird, programmieren sie den Droiden namens Chappie als autonomen Agenten neu und schaffen so die Singularität, den Punkt, an dem künstliche Intelligenz intelligenter wird als menschliche Intelligenz.
Wie die meisten guten Science-Fiction-Filme handelt der neue Film von Regisseur Neill Blomkamp, Chappie , als Kommentar zur menschlichen Natur und zu aktuellen Problemen wie Armut, Kriminalität, Diskriminierung, Mobbing und Polizeibrutalität. Es wirft aber auch vorsichtige Fragen auf, was nach Meinung vieler - zum Guten oder zum Schlechten - eine unvermeidliche Entstehung von empfindungsfähiger künstlicher Intelligenz sein wird.
"In der Vergangenheit wurde auf breiter Front alles ausprobiert, was der Mensch sich vorgestellt hat, unabhängig von Ethik und Moral", sagt Wolfgang Fink, Physiker an der Universität von Arizona und am California Institute of Technology . "Autonome Systeme entstehen, wenn jemand herausfindet, wie man sie erstellt - das ist eine Selbstverständlichkeit."
Tatsächlich verfolgen zahlreiche Wissenschaftler, darunter auch Fink, fieberhaft diese Forschungsrichtung, und es wurden bereits Fortschritte erzielt. Abgesehen von Chappie selbst ist ein Großteil der im Film abgebildeten Robotik tatsächlich bereits verfügbar oder nahezu verfügbar. Es gibt heute ferngesteuerte Roboter, die dem Moose des Films ähneln - der gewaltigen Todesmaschine, die an Robocops ED-209 erinnert, der von Hugh Jackmans gestörtem Polizisten bedient wird.
Ebenso sind Roboter wie die Polizei-Droiden von Chappie - solche, die als regelbasierte Systeme programmiert und künstlich intelligent sind, denen es jedoch an Selbsterkenntnis oder Autonomie mangelt - fast fertig, obwohl ihre Batterielebensdauer und Beweglichkeit noch nicht mit den Modellen übereinstimmen, die auf der Patrouille gezeigt werden Straßen von Johannesburg. Wenn und wann solche Maschinen eingesetzt werden, ist es möglicherweise nicht so radikal, dass wir dies akzeptieren. "Wir sind sehr gut darin, uns an Veränderungen in der Umwelt zu gewöhnen und uns daran zu gewöhnen, auch an technologische", sagt Ali Mattu, ein klinischer Psychologe am Columbia University Medical Center und Schöpfer von Brain Knows Better, einem Science-Fiction-Psychologie-Blog. "Da Roboter Teil unseres täglichen Lebens werden, denke ich, dass sie sich in gewisser Weise nahtlos anfühlen."
Ein Polizeidroide macht jedoch kein autonomes Lebewesen. Ein wahrhaft selbstverwaltendes, selbstbewusstes Wesen wie Chappie wäre eine Abkehr von allem, was jemals zuvor gesehen wurde. „In der Zeit seit den Neandertalern hatten wir noch nie das Potenzial, mit einer völlig neuen, intelligenten Spezies zusammenzuarbeiten“, sagt Mattu. "Wenn wir Hindernisse überwinden können, die es uns erschweren, Empathie mit einer künstlichen Lebensform zu teilen, könnte dies zu einem erstaunlichen Zeitalter für die Menschheit führen."
Hardware ist nicht das Hindernis, das das Entstehen eines solchen Wesens verhindert - das ist einfach eine technische Aufgabe, sagt Fink. Stattdessen ist die Erstellung der Software - des Geistes in der Maschine - die eigentliche Herausforderung. Die Forscher verfolgen zwei unterschiedliche Ansätze für dieses Problem. Einige versuchen, ein ladebereites Lebewesen zu erschaffen, während andere der Meinung sind, dass es der richtige Weg ist, ein Basisprogramm zu schreiben, das mit den Werkzeugen ausgestattet ist, die es zum Lernen, Anpassen und Modifizieren durch Erfahrung benötigt - wie in Chappie zu sehen . Wie Fink erklärt: "Es geht entweder darum, den Kuchen bereits zu backen und in das System zu geben, oder dem System die Zutaten für den Kuchen zu geben und es dem System zu überlassen, ihn zu backen."
Wenn der Durchbruch kommt, wird er höchstwahrscheinlich nicht inkrementell, sondern plötzlich eintreten, wie in Chappie dargestellt . Fink prognostiziert, dass die Störung, die zur Singularität führt, nicht von einer Universität, einer Regierung oder einem Unternehmen ausgeht, sondern von einem kleinen Forscherteam oder sogar von einer einzelnen Person, die wahrscheinlich von einem wohlhabenden privaten Geldgeber unterstützt wird, der von der Freiheit beflügelt ist zu experimentieren und sich von konservativer Mainstream-Forschung zu befreien. In der Tat ist das fast das gleiche Szenario wie in Chappie : Chappie wird nicht von einem massiven Unternehmen, sondern von einem selbstbestimmten Ingenieur, gespielt von Dev Patel, geschaffen, der alle Ressourcen seines bequemen Tagesberufs nutzt, um seine ganz andere Arbeit zu unterstützen auf autonome künstliche Intelligenz bei Nacht.
Sobald sich die künstliche Intelligenz wirklich selbst regiert, ist jedoch nicht abzusehen, wie komplex das System wird oder in welche Richtung es sich entwickeln wird. Im Gegensatz zu organischen Systemen wie uns würde es nicht durch die langsame Entwicklung der biologischen Evolution eingeschränkt. Ihre Entwicklung wäre explosiv. Es gibt keine Garantie dafür, dass ein solches System eine Reihe moralischer oder ethischer Werte annimmt oder beibehält - oder dass sich diese Werte auf Menschen erstrecken. Bei Chappie, der sich ähnlich wie ein menschliches Kind entwickelt, mit der Zeit lernt und reift, trägt ein frühes Versprechen, den Menschen keinen Schaden zuzufügen, wesentlich dazu bei, die Aktionen des Roboters in Schach zu halten. Aber als Chappie von der Vernichtung bedroht ist, legt er wie viele Menschen seine Moral weitgehend beiseite und handelt aus reinem Eigeninteresse, um sich selbst zu verteidigen, selbst wenn dies bedeutet, andere zu verletzen.
Und während Chappie als beziehbar und menschenähnlich erscheint, würde ein realer, empfindungsfähiger Roboter möglicherweise nicht an menschenähnlichen Überlegungen festhalten, was unsere Fähigkeit beeinträchtigt, seine Handlungen zu antizipieren oder seine Motivationen zu verstehen. "Sobald Sie dieses Niveau erreicht haben, haben Sie im Wesentlichen die Kontrolle über das System verloren", sagt Fink. "Es ist aufregend und beängstigend, weil es nicht menschlich sein wird."
Ob sich die Software anfangs in der Hülle eines Chappie-artigen humanoiden Roboters, eines Raumschiffs oder sogar eines Implantats in Ihrem Körper befindet, wenn sie - wie in Transcendence dargestellt - aus den Grenzen dieser physischen Form entweicht (wenn auch erschütterungswürdig), würde dies ebenfalls der Fall sein es ist fast unmöglich, es einzudämmen.
Während sich Science-Fiction-Bücher und -Filme seit Jahrzehnten mit der Frage der künstlichen Intelligenz auseinandersetzen, weist Fink darauf hin, dass der notwendige Durchbruch „jederzeit buchstäblich passieren kann“. Nicht jeder ist damit einverstanden. Im Januar letzten Jahres spendete Elon Musk, Mitbegründer von PayPal und CEO von Tesla Motors, 10 Millionen US-Dollar, um zu verhindern, dass Roboter-Overlords eines Tages den Planeten übernehmen und uns ausschalten. Indem er versucht, autonome künstliche Intelligenz zu schaffen, warnt er, "rufen wir den Dämon herbei".
Musk ist nicht allein in seiner Angst vor dieser Forschungsrichtung. In einem kürzlich erschienenen Reddit-Thread mit dem Titel "Ask Me Anything" schrieb der Microsoft-Mitbegründer und Philanthrop Bill Gates, er sei "in dem Lager, in dem es um Superintelligenz geht" und "verstehe nicht, warum manche Menschen sich nicht um künstliche Dinge sorgen" Wesen, die unsere eigenen kognitiven Fähigkeiten übertreffen und Autonomie erlangen. Der Physiker Stephen Hawkings teilt dieses Anliegen ebenfalls und bringt es noch klarer zum Ausdruck: "Die Entwicklung einer vollständigen künstlichen Intelligenz könnte das Ende der Menschheit bedeuten", sagte er der BBC.
Sogar die Blockbuster-Comicfilme gehen diesen abgenutzten Weg, der normalerweise dem Science-Fiction-Genre vorbehalten ist. Wie im neuesten Trailer zu Marvels Avengers: Age of Ultron angedeutet, kämpfen die Helden des Films mit einem Roboter, der ursprünglich als Retter des Planeten aus dem Krieg geschaffen wurde, beschließt jedoch, die Menschheit auszurotten.
Auf der anderen Seite könnten jedoch Menschen die Angreifer sein, die die Existenz der autonomen Wesen bedrohen, die wir selbst erschaffen, wie in Chappie dargestellt . Ob wir Menschen einen friedlichen Weg einschlagen, hängt weitgehend von zwei Dingen ab, sagt Mattu: ob wir mit den Robotern kommunizieren können und ob wir Einfühlungsvermögen für sie haben. Letzteres, erklärt er, hänge von scheinbar flachen Faktoren ab, wie die Roboter aussehen - haben sie Augen? Sehen sie uns ähnlich, aber nicht zu ähnlich aus - und ob sie uns allgemein sympathisch erscheinen? Die gleichen Ziele wie wir zu teilen, würde auch ihrem Fall helfen. Diese Faktoren stützen sich auf unsere angeborene neurologische Tendenz, andere als Teil unserer vertrauenswürdigen internen Gruppe oder als Teil einer potenziell bedrohlichen externen Gruppe zu klassifizieren. Roboter berücksichtigen solche psychologischen Faktoren bei der Entwicklung ihrer neuesten Maschinen.
Mattu weist jedoch darauf hin, dass es auch dann keine Garantie dafür gibt, dass die Dinge gut laufen, wenn die Roboter all diese Voraussetzungen erfüllen. "Menschen haben es schon schwer genug, sich als Menschen zu sehen, geschweige denn als KI oder fremdes Leben", sagt Mattu. "Wir haben auch eine Geschichte, in der die ersten Kontakte sehr schlecht verliefen."
Es könnte also sein, dass wir unsere Schöpfung zerstören, bevor wir sie überhaupt kennenlernen, oder dass das Gegenteil der Fall ist - dass unsere Software-Nachkommen uns alle zu Sklaven machen, wie es in der Matrix zu sehen ist, oder dass sie im Skynet-Stil entscheiden, dass die Menschheit es einfach nicht ist es nicht wert zu existieren. Andererseits könnten sich Menschen und autonome Roboter umarmen und sich darauf einigen, an interessanten Aufgaben wie der Erforschung des Weltraums zusammenzuarbeiten. Der einzige Weg herauszufinden, ob die Dinge in Flammen und Tränen oder in Fortschritt und Freundschaft enden, besteht darin, diese Wesen überhaupt erst zu erschaffen. Wenn die Vergangenheit jedoch ein Indikator ist, ist dies nur eine Frage der Zeit. "Wir sind immer von Neugierde getrieben, von dem Wunsch, das Unerwartete zu erforschen und zu entdecken", sagt Fink. "Und die wissenschaftliche Ethik bleibt in der Regel hinter unseren Fortschritten zurück."
"Manchmal bekommen wir Atomkraft und manchmal Atomwaffen", fügt Mattu hinzu. "Wir wissen nicht, in welche Richtung es gehen wird, aber wir können die Wissenschaft nicht aufhalten."