https://frosthead.com

Was passiert, wenn künstliche Intelligenz uns anmacht?

Künstliche Intelligenz hat seit R2-D2 einen langen Weg zurückgelegt. Heutzutage wären die meisten Jahrtausende ohne intelligente GPS-Systeme verloren. Roboter navigieren bereits auf Schlachtfeldern, und Drohnen liefern möglicherweise bald Amazon-Pakete an unsere Haustüren.

Siri kann komplizierte Gleichungen lösen und Ihnen sagen, wie man Reis kocht. Sie hat sogar bewiesen, dass sie Fragen mit Sinn für Humor beantworten kann.

Alle diese Fortschritte hängen jedoch davon ab, dass ein Benutzer die KI-Richtung vorgibt. Was würde passieren, wenn GPS-Geräte entschieden, dass sie nicht zur Reinigung gehen wollten, oder schlimmer noch, Siri entschied, dass sie klüger werden könnte, wenn Sie nicht da wären?

Unsere letzte Erfindung: Künstliche Intelligenz und das Ende der menschlichen Ära. "> Unsere letzte Erfindung: Künstliche Intelligenz und das Ende der menschlichen Ära. ">" Bevor wir den Planeten mit superintelligenten Maschinen teilen, müssen wir eine Wissenschaft entwickeln, um sie zu verstehen. Andernfalls übernehmen sie die Kontrolle ", sagt der Autor James Barrat über sein neues Buch Our Final Invention: Künstliche Intelligenz und das Ende der menschlichen Ära . (Mit freundlicher Genehmigung von James Barrat)

Dies sind nur die zahmsten Ergebnisse, die James Barrat, Autor und Dokumentarfilmer, in seinem neuen Buch Our Final Invention: Künstliche Intelligenz und das Ende der menschlichen Ära prognostiziert.

In Kürze, so Barrat, wird künstliche Intelligenz - von Siri über Drohnen bis hin zu Data Mining-Systemen - aufhören, nach Upgrades für Menschen Ausschau zu halten und selbst nach Verbesserungen zu suchen. Und anders als die R2-D2s und HALs der Science-Fiction wird die KI unserer Zukunft nicht unbedingt freundlich sein, sagt er: Sie könnten tatsächlich das sein, was uns zerstört.

Kannst du kurz deine große Idee erklären?

In diesem Jahrhundert werden Wissenschaftler Maschinen mit einer Intelligenz entwickeln, die unserer eigenen entspricht und diese übertrifft. Aber bevor wir den Planeten mit superintelligenten Maschinen teilen, müssen wir eine Wissenschaft entwickeln, um sie zu verstehen. Andernfalls übernehmen sie die Kontrolle. Und nein, das ist keine Science-Fiction.

Wissenschaftler haben bereits Maschinen entwickelt, die beim Schachspiel besser sind als Menschen, Jeopardy!, Navigation, Data Mining, Suche, Theorembeweis und unzählige andere Aufgaben. Schließlich werden Maschinen geschaffen, die in der KI-Forschung besser sind als Menschen

Zu diesem Zeitpunkt können sie ihre eigenen Fähigkeiten sehr schnell verbessern. Diese sich selbst verbessernden Maschinen werden die Ziele verfolgen, mit denen sie geschaffen wurden, sei es Weltraumforschung, Schach spielen oder Aktien pflücken. Um erfolgreich zu sein, werden sie Ressourcen suchen und verbrauchen, sei es Energie oder Geld. Sie werden versuchen, die Fehlermodi zu vermeiden, wie das Ausschalten oder Herausziehen des Netzsteckers. Kurz gesagt, sie werden Laufwerke entwickeln, einschließlich Selbstschutz und Ressourcenbeschaffung - Laufwerke, die unseren sehr ähnlich sind. Sie werden nicht zögern zu betteln, zu leihen, zu stehlen und noch schlimmer zu bekommen, was sie brauchen.

Wie sind Sie auf dieses Thema aufmerksam geworden?

Ich bin Dokumentarfilmer. Im Jahr 2000 interviewte ich den Erfinder Ray Kurzweil, den Robotiker Rodney Brooks und die Science-Fiction-Legende Arthur C. Clarke für einen DC-Film über die Entstehung des Romans und des Films, 2001: A Space Odyssey. Die Interviews beschäftigten sich mit der Idee des Hal 9000 und mit böswilligen Computern. Kurzweil's Bücher haben die KI-Zukunft als eine entzückende "Singularität" dargestellt, eine Periode, in der die technologischen Fortschritte die Fähigkeit der Menschen übertreffen, sie zu verstehen. Er erwartete jedoch nur gute Dinge, die aus der KI hervorgingen und stark genug waren, um die menschliche Intelligenz zu übertreffen. Er sagt voraus, dass wir in der Lage sein werden, die Zellen unseres Körpers neu zu programmieren, um Krankheiten und Altern zu besiegen. Wir werden mit Nanobots, die mehr Sauerstoff liefern als rote Blutkörperchen, eine super Ausdauer entwickeln. Wir werden unser Gehirn mit Computerimplantaten aufladen, damit wir superintelligent werden. Und wir werden unser Gehirn auf ein haltbareres Medium portieren als unsere derzeitige "Wetware" und für immer leben, wenn wir wollen. Brooks war optimistisch und bestand darauf, dass KI-verstärkte Roboter Verbündete und keine Bedrohungen sein würden.

Der zum Autor gewordene Wissenschaftler Clarke war dagegen pessimistisch. Er sagte mir, die Intelligenz werde siegen und die Menschen würden wahrscheinlich mit superintelligenten Maschinen ums Überleben kämpfen. Er war sich nicht sicher, was passieren würde, wenn wir den Planeten mit superintelligenten Maschinen teilen würden, aber er hielt es für einen Kampf für die Menschheit, dass wir nicht gewinnen würden.

Das widersprach allem, was ich über KI gedacht hatte, und ich begann, Experten für künstliche Intelligenz zu befragen.

Welche Beweise haben Sie für Ihre Idee?

Fortgeschrittene künstliche Intelligenz ist eine Technologie mit doppeltem Verwendungszweck wie die Kernspaltung, die großen Nutzen oder großen Schaden anrichten kann. Wir sehen gerade erst den Schaden.

Der NSA-Datenschutzskandal kam zustande, weil die NSA hoch entwickelte Data-Mining-Tools entwickelte. Die Agentur nutzte ihre Macht, um die Metadaten von Millionen von Telefonanrufen und das gesamte Internet auszuloten - kritisch alle E-Mails. Verführt von der Macht der Data-Mining-KI, missbrauchte eine Behörde, die mit dem Schutz der Verfassung betraut war, diese stattdessen. Sie entwickelten Werkzeuge, die zu mächtig waren, um sie verantwortungsbewusst einzusetzen.

Heute braut sich ein weiterer ethischer Kampf darum, völlig autonome Killerdrohnen und Schlachtfeldroboter herzustellen, die von fortgeschrittener KI angetrieben werden - Menschenkiller ohne Menschen auf dem Laufenden. Es braut sich zwischen dem Verteidigungsministerium und den Drohnen- und Roboterherstellern zusammen, die vom Verteidigungsministerium bezahlt werden, und Menschen, die es für tollkühn und unmoralisch halten, intelligente Tötungsmaschinen zu bauen. Die Befürworter autonomer Drohnen und Schlachtfeldroboter argumentieren, dass sie moralischer sind - das heißt, weniger emotional, zielgenauer und disziplinierter als menschliche Akteure. Diejenigen, die es ablehnen, Menschen aus dem Verkehr zu ziehen, schauen sich die miserable Vergangenheit der Drohnen an, in der Zivilisten getötet wurden, und die Beteiligung an extralegalen Attentaten. Wer schultert das moralische Verschulden, wenn ein Roboter tötet? Die Roboterhersteller, die Roboterbenutzer oder niemand? Denken Sie nicht an die technischen Hürden, Freund und Feind zu unterscheiden.

Langfristig, wie Experten in meinem Buch argumentieren , wird die KI , die sich der Intelligenz auf menschlicher Ebene nähert, nicht leicht zu kontrollieren sein. Leider impliziert Superintelligenz keine Barmherzigkeit. Der AI-Theoretiker Eliezer Yudkowsky vom MIRI (Machine Intelligence Research Institute) sagt: „Die AI liebt dich nicht und hasst dich auch nicht, aber sie besteht aus Atomen, die sie für etwas anderes verwenden kann.“ Wenn die Ethik dies nicht kann in eine Maschine eingebaut werden, dann werden wir superintelligente Psychopathen erschaffen, Kreaturen ohne moralischen Kompass, und wir werden nicht lange ihre Meister sein.

Was ist neu an deinem Denken?

So unterschiedliche Personen und Gruppen wie der amerikanische Informatiker Bill Joy und MIRI haben lange davor gewarnt, dass wir uns vor Maschinen fürchten müssen, deren Intelligenz unsere eigene in den Schatten stellt. In unserer abschließenden Erfindung argumentiere ich, dass KI auch auf dem Entwicklungsweg zur Intelligenz auf menschlicher Ebene missbraucht wird. Zwischen heute und dem Tag, an dem Wissenschaftler Intelligenz auf menschlicher Ebene entwickeln, treten KI-bezogene Fehler und kriminelle Anwendungen auf.

Warum wurde nicht mehr getan, oder was wird getan, um AI davon abzuhalten, sich gegen uns zu wenden?

Es gibt nicht einen Grund, aber viele. Einige Experten glauben nicht, dass wir nah genug sind, um künstliche Intelligenz auf menschlicher Ebene zu schaffen und uns darüber hinaus um ihre Risiken zu kümmern. Viele KI-Macher erhalten Verträge mit der Defense Advanced Research Projects Agency (DARPA) und möchten keine Themen ansprechen, die sie für politisch halten. Die Normalitätsverzerrung ist eine kognitive Verzerrung, die Menschen daran hindert, auf Katastrophen und Katastrophen im Entstehen zu reagieren - das ist definitiv ein Teil davon. Aber viele KI-Macher tun etwas. Informieren Sie sich bei den Wissenschaftlern, die MIRI beraten. Und wenn die Gefahren der fortgeschrittenen KI in den Mainstream-Dialog eintreten, werden noch viel mehr Menschen involviert sein.

Können Sie einen Moment beschreiben, in dem Sie wussten, dass dies groß ist?

Wir Menschen steuern die Zukunft nicht, weil wir die schnellsten oder stärksten Kreaturen auf dem Planeten sind, sondern weil wir die klügsten sind. Wenn wir den Planeten mit Kreaturen teilen, die klüger sind als wir, steuern sie die Zukunft. Als ich diese Idee verstand, hatte ich das Gefühl, über die wichtigste Frage unserer Zeit zu schreiben.

Jeder große Denker hat Vorgänger, deren Arbeit für seine Entdeckung entscheidend war. Wer hat dir die Grundlage gegeben, um deine Idee zu verwirklichen?

Die Grundlagen der KI-Risikoanalyse wurden vom Mathematiker IJ Good, dem Science-Fiction-Autor Vernor Vinge und anderen, einschließlich des KI-Entwicklers Steve Omohundro, entwickelt. Heute sind MIRI und Oxfords Future of Humanity Institute fast allein, um dieses Problem anzugehen. Unsere abschließende Erfindung hat ungefähr 30 Seiten mit Endnoten, in denen diese Denker gewürdigt werden.

Was war der Höhepunkt bei der Erforschung und Entwicklung Ihrer Idee? Und der Tiefpunkt?

Die Höhepunkte waren das Schreiben von Our Final Invention und mein ständiger Dialog mit KI-Machern und Theoretikern. Personen, die AI programmieren, sind sich der Sicherheitsprobleme bewusst und möchten bei der Entwicklung von Sicherheitsvorkehrungen helfen. Zum Beispiel arbeitet MIRI an der Schaffung einer „freundlichen“ KI

Der Informatiker und Theoretiker Steve Omohundro hat einen "Gerüst" -Ansatz befürwortet, bei dem nachweislich sichere KI dazu beiträgt, die nächste Generation von KI aufzubauen, um sicherzustellen, dass sie auch sicher ist. Dann macht diese KI dasselbe und so weiter. Ich denke, dass eine öffentlich-private Partnerschaft geschaffen werden muss, um KI-Macher zusammenzubringen, um Ideen zur Sicherheit auszutauschen - so wie die Internationale Atomenergie-Organisation, aber in Partnerschaft mit Unternehmen. Die Tiefpunkte? Die Erkenntnis, dass die beste und fortschrittlichste KI-Technologie zur Herstellung von Waffen verwendet wird. Und diese Waffen werden sich irgendwann gegen uns wenden.

Welche zwei oder drei Personen versuchen am ehesten, Ihre Argumentation zu widerlegen? Warum?

Erfinder Ray Kurzweil ist der Hauptapologe für fortschrittliche Technologien. In meinen beiden Interviews mit ihm behauptete er, dass wir durch kognitive Verbesserungen mit den KI-Technologien verschmelzen würden. Kurzweil und Menschen, die allgemein als Transhumanisten und Singularitaristen bezeichnet werden, denken, dass sich mit uns KI und letztendlich künstliche allgemeine Intelligenz und darüber hinaus entwickeln werden. Zum Beispiel werden Computerimplantate die Geschwindigkeit und die allgemeinen Fähigkeiten unseres Gehirns verbessern. Schließlich werden wir die Technologie entwickeln, um unsere Intelligenz und unser Bewusstsein in Computer zu transportieren. Dann wird Superintelligenz zumindest teilweise menschlich sein, was theoretisch sicherstellen würde, dass Superintelligenz „sicher“ ist.

Aus vielen Gründen bin ich kein Fan dieser Sichtweise. Das Problem ist, dass wir Menschen nicht zuverlässig sicher sind und es unwahrscheinlich ist, dass dies bei überintelligenten Menschen der Fall ist. Wir haben keine Ahnung, was mit der Ethik eines Menschen geschieht, nachdem seine Intelligenz gestärkt wurde. Wir haben eine biologische Grundlage für Aggressionen, die Maschinen fehlen. Superintelligenz könnte durchaus ein Aggressionsmultiplikator sein.

Wer wird am meisten von dieser Idee betroffen sein?

Jeder auf dem Planeten hat vor der ungeregelten Entwicklung superintelligenter Maschinen viel zu fürchten. Ein Geheimdienstwettlauf findet gerade statt. Das Erreichen von AGI ist für Google, IBM und viele kleinere Unternehmen wie Vicarious und Deep Thought sowie für DARPA, die NSA und Regierungen und Unternehmen im Ausland die Nummer eins. Profit ist die Hauptmotivation für dieses Rennen. Stellen Sie sich ein wahrscheinliches Ziel vor: ein virtuelles menschliches Gehirn zum Preis eines Computers. Es wäre das lukrativste Gut in der Geschichte. Stellen Sie sich Tausende von Promovierten vor, die rund um die Uhr in den Bereichen Pharmaentwicklung, Krebsforschung, Waffenentwicklung und vielem mehr arbeiten. Wer möchte diese Technologie nicht kaufen?

Inzwischen entwickeln 56 Nationen Schlachtfeldroboter, und der Antrieb besteht darin, sie und Drohnen autonom zu machen. Sie werden Maschinen sein, die töten, unbeaufsichtigt von Menschen. Verarmte Nationen werden am meisten von autonomen Drohnen und Schlachtfeldrobotern getroffen. Anfänglich werden sich nur reiche Länder autonome Kill Bots leisten können, so dass reiche Nationen diese Waffen gegen menschliche Soldaten aus verarmten Nationen einsetzen werden.

Wie könnte es das Leben verändern, wie wir es kennen?

Stellen Sie sich vor: In nur einem Jahrzehnt setzen ein halbes Dutzend Unternehmen und Nationen Computer ein, die mit der menschlichen Intelligenz mithalten oder diese übertreffen. Stellen Sie sich vor, was passiert, wenn diese Computer Experten in der Programmierung intelligenter Computer werden. Bald werden wir den Planeten mit Maschinen teilen, die tausend- oder millionenfach intelligenter sind als wir. Und währenddessen wird jede Generation dieser Technologie mit Waffen ausgerüstet. Nicht reguliert, wird es katastrophal sein.

Welche Fragen bleiben offen?

Lösungen. Die naheliegende Lösung wäre, den Maschinen einen moralischen Sinn zu geben, der sie das menschliche Leben und Eigentum schätzen lässt. Das Programmieren der Ethik in eine Maschine erweist sich jedoch als äußerst schwierig. Moralische Normen unterscheiden sich von Kultur zu Kultur, sie ändern sich im Laufe der Zeit und sie sind kontextbezogen. Wenn wir Menschen uns nicht darauf einigen können, wann das Leben beginnt, wie können wir dann einer Maschine befehlen, das Leben zu schützen? Wollen wir wirklich in Sicherheit sein oder wollen wir wirklich frei sein ? Wir können den ganzen Tag darüber diskutieren und keinen Konsens erzielen. Wie können wir das also programmieren?

Wie ich bereits erwähnt habe, müssen wir auch AI-Entwickler zusammenbringen. In den 1970er Jahren beschlossen rekombinante DNA-Forscher, die Forschung auszusetzen und sich zu einer Konferenz in Asilomar im kalifornischen Pacific Grove zu treffen. Sie entwickelten grundlegende Sicherheitsprotokolle wie "Verfolgen Sie nicht die DNA auf Ihren Schuhen", aus Angst, die Umwelt mit laufenden genetischen Arbeiten zu kontaminieren. Aufgrund der „Asilomar-Richtlinien“ profitiert die Welt von gentechnisch veränderten Pflanzen und die Gentherapie sieht vielversprechend aus. So weit wir wissen, wurden Unfälle vermieden. Es ist Zeit für eine Asilomar-Konferenz für KI

Was steht im Weg?

Ein enormer wirtschaftlicher Wind treibt die Entwicklung fortschrittlicher Intelligenz auf menschlicher Ebene zum Preis eines Computers an, der das heißeste Gut in der Geschichte sein wird. Google und IBM möchten ihre Geheimnisse weder der Öffentlichkeit noch der Konkurrenz mitteilen. Das Verteidigungsministerium will seine Labore nicht für China und Israel öffnen und umgekehrt. Das öffentliche Bewusstsein muss die Politik in Richtung Offenheit und öffentlich-private Partnerschaften treiben, um die Sicherheit zu gewährleisten.

Was kommt als nächstes für Sie?

Ich bin Dokumentarfilmer und denke natürlich über eine Filmversion von Our Final Invention nach .

Was passiert, wenn künstliche Intelligenz uns anmacht?