https://frosthead.com

Können Maschinen Moral lernen?

Als John Brennan, Präsident Obamas Wahl zum nächsten Vorsitzenden der CIA, gestern vor einem Senatsausschuss erschien, ersetzte eine Frage bei seiner Bestätigungsverhandlung alle anderen:

Wie werden die Entscheidungen getroffen, Killerdrohnen nach mutmaßlichen Terroristen zu schicken?

Das Wie und im Übrigen das Warum, um bestimmte Drohnenangriffe zu befehlen, bleibt weitgehend ein Rätsel, aber zumindest eines ist klar - die Entscheidungen werden von Menschen getroffen, die, so würde man hoffen, mit dem Gedanken zu kämpfen haben, eine tödliche Rakete zu senden in ein besetztes Gebäude.

Aber was wäre, wenn die Menschen nicht beteiligt wären? Was wäre, wenn eines Tages Entscheidungen über Leben und Tod Maschinen überlassen würden, die mit einer Vielzahl von Daten ausgestattet sind, aber auch ein Gefühl von Richtig und Falsch haben?

Moralisches Dilemma

Das ist nicht so weit hergeholt. Es wird nicht in naher Zukunft passieren, aber es steht außer Frage, dass die Fähigkeit, Moral zu lernen, ein zentraler Bestandteil ihrer Transformation ist, wenn Maschinen intelligenter und autonomer werden.

In der Tat kann das nicht so weit weg sein. Gary Marcus, der kürzlich in The New Yorker schrieb, stellte das Szenario eines fahrerlosen Autos von Google vor, bevor er eine Entscheidung in Sekundenbruchteilen treffen musste: „Ihr Auto rast mit einer Geschwindigkeit von 80 km / h über eine Brücke, wenn ein irrtümlicher Schulbus 40 unschuldige Kinder befördert kreuzt seinen Weg. Sollte Ihr Auto ausbrechen und möglicherweise das Leben des Besitzers (Sie) riskieren, um die Kinder zu retten, oder weiterfahren und alle 40 Kinder in Gefahr bringen? Wenn die Entscheidung in Millisekunden getroffen werden muss, muss der Computer den Anruf tätigen. “

Und was ist mit Roboterwaffen oder Soldaten? Wäre eine Drohne in der Lage zu lernen, nicht auf ein Haus zu schießen, wenn sie wüsste, dass auch unschuldige Zivilisten im Haus sind? Könnten Maschinen gelehrt werden, den internationalen Kriegsregeln zu folgen?

Ronald Arkin, Informatikprofessor und Roboterexperte an der Georgia Tech, ist davon überzeugt. Er hat Software entwickelt, die als "ethischer Gouverneur" bezeichnet wird und Maschinen in die Lage versetzt, zu entscheiden, wann ein Brand angebracht ist und wann nicht.

Arkin räumt ein, dass dies noch Jahrzehnte entfernt sein könnte, glaubt jedoch, dass Roboter eines Tages den menschlichen Soldaten sowohl physisch als auch ethisch überlegen sein könnten und nicht anfällig für das emotionale Trauma des Kampfes oder für Rachegelüste sind. Er stellt sich keine Allroboterarmee vor, sondern eine, in der Maschinen mit Menschen zusammenarbeiten und risikoreiche Aufgaben erledigen, die mit stressigen Sofortentscheidungen verbunden sind, beispielsweise das Räumen von Gebäuden.

Vorsicht vor Killerrobotern

Aber andere halten es für an der Zeit, diese Art des Denkens zu unterdrücken, bevor es zu weit geht. Ende letzten Jahres veröffentlichten Human Rights Watch und die Human Rights Clinic der Harvard Law School einen Bericht mit dem Titel "Die Menschlichkeit verlieren: Der Fall gegen Killerroboter", in dem die Regierungen aufgefordert wurden, alle autonomen Waffen zu verbieten, weil sie "die Zahl derer erhöhen" würden Gefahr des Todes oder der Verletzung von Zivilisten während eines bewaffneten Konflikts. “

Etwa zur gleichen Zeit kündigte eine Gruppe von Professoren der Universität Cambridge an, das so genannte Centre for the Study of Existential Risk zu eröffnen. Wenn es später in diesem Jahr eröffnet wird, drängt es auf ernsthafte wissenschaftliche Untersuchungen darüber, was passieren könnte, wenn Maschinen intelligenter werden als wir.

Die Gefahr, so Huw Price, einer der Mitbegründer des Zentrums, bestehe darin, dass wir uns eines Tages mit „Maschinen befassen könnten, die nicht böswillig sind, aber deren Interessen uns nicht einschließen“.

Die Kunst der Täuschung

Shades of Skynet, das System der künstlichen Intelligenz, aus dem ein Cyborg namens Arnold Schwarzenegger in den The Terminator- Filmen hervorgegangen ist. Vielleicht ist das immer Science-Fiction.

Aber bedenken Sie andere Forschungen, die Ronald Arkin derzeit im Rahmen von Projekten durchführt, die vom Verteidigungsministerium finanziert werden. Er und seine Kollegen haben untersucht, wie Tiere sich gegenseitig täuschen, mit dem Ziel, Robotern die Kunst der Täuschung beizubringen.

Zum Beispiel haben sie daran gearbeitet, Roboter so zu programmieren, dass sie bei Bedarf Stärke vortäuschen können, wie es Tiere oft tun. Und sie haben Maschinen unterrichtet, um das Verhalten von Kreaturen wie dem östlichen Grauhörnchen nachzuahmen. Eichhörnchen verstecken ihre Nüsse vor anderen Tieren, und wenn andere Eichhörnchen oder Raubtiere auftauchen, besuchen die grauen Eichhörnchen manchmal Orte, an denen sie Nüsse versteckten, um ihre Konkurrenten von der Strecke zu werfen. Roboter, die auf eine ähnliche Strategie programmiert sind, konnten die Wettbewerber verwirren und bremsen.

Es liege alles im Interesse, sagt Arkin, Maschinen zu entwickeln, die keine Bedrohung für den Menschen darstellen, sondern eine Bereicherung darstellen, insbesondere im hässlichen Kriegschaos. Der Schlüssel ist, sich jetzt darauf zu konzentrieren, Richtlinien für ein angemessenes Roboterverhalten festzulegen.

"Wenn Sie anfangen, diese Büchse der Pandora zu öffnen, was sollte mit dieser neuen Funktion geschehen?", Sagte er kürzlich in einem Interview. "Ich glaube, dass diese intelligenten Roboter möglicherweise weniger Verluste für Nicht-Kombattanten erleiden, aber wir müssen sehr vorsichtig sein, wie sie eingesetzt werden, und sie nicht einfach ohne entsprechende Bedenken ins Spiel bringen."

Nach Ansicht des New Yorker Schriftstellers Gary Marcus bieten ethisch fortschrittliche Maschinen über das Schlachtfeld hinaus ein großes Potenzial.

Der Gedanke, der mich am meisten verfolgt, ist, dass die menschliche Ethik selbst nur ein Work-in-Progress ist. Wir sind immer noch mit Situationen konfrontiert, für die wir keine gut entwickelten Codes haben (z. B. im Fall von assistiertem Selbstmord), und müssen nicht weit in die Vergangenheit schauen, um Fälle zu finden, in denen unsere eigenen Codes zweifelhaft waren oder schlimmer waren (z. B. Gesetze, die dies betrafen) erlaubte Sklaverei und Segregation).

Was wir wirklich wollen, sind Maschinen, die einen Schritt weiter gehen können und die nicht nur über die besten ethischen Grundsätze verfügen, die unsere besten zeitgenössischen Philosophen entwickeln können, sondern auch über die Möglichkeit, dass Maschinen ihren eigenen moralischen Fortschritt erzielen und sie frühzeitig über unsere eigenen Grenzen hinausbringen -einundzwanzigste Jahrhundert Idee der Moral. "

Maschinen marschieren weiter

Hier sind neuere Roboterentwicklungen:

  • Hmmmm, ethisch und hinterhältig: Forscher in Australien haben einen Roboter entwickelt, der sich nur bewegen kann, wenn es genug Hintergrundgeräusche gibt, um seinen Sound zu verbergen .
  • Was ist das für ein Summen? Britische Soldaten in Afghanistan haben damit begonnen, Überwachungsdrohnen einzusetzen, die in die Handflächen passen. Der kleine Roboter, der als Black Hornet Nano bezeichnet wird, ist nur 15 cm lang, hat jedoch eine Spionagekamera und kann mit voller Ladung 30 Minuten lang fliegen.
  • Kratzer auf der Oberfläche: Die NASA entwickelt einen Roboter namens RASSOR, der nur 100 Pfund wiegt, aber Mineralien auf dem Mond und anderen Planeten abbauen kann. Es kann sich auf unebenem Gelände und sogar über Hindernisse hinweg bewegen, indem es sich auf die Arme stützt.
  • Ah, Lust: Und hier ist eine frühe Valentinstagsgeschichte. Wissenschaftler der Universität Tokio benutzten eine männliche Motte, um einen Roboter anzutreiben. Tatsächlich benutzten sie seine Paarungsbewegungen, um das Gerät auf ein Objekt zu richten, das nach weiblichen Mottenpheromonen duftet.

Videobonus: Sie sind sich also nicht sicher, ob Sie einen 13 Fuß großen Roboter bedienen können? Kein Problem. Hier ist eine raffinierte Demo, die zeigt, wie einfach es sein kann. Ein fröhliches Modell zeigt Ihnen sogar, wie Sie die Funktion „Smile Shot“ bedienen. Du lächelst, es schießt BBs. Wie schwer ist das

Mehr von Smithsonian.com

Dieser Roboter ist ein besserer Vater als dein Vater

Roboter erhalten die menschliche Note

Können Maschinen Moral lernen?