Alan Turing, ein englischer Mathematiker, der im Zweiten Weltkrieg eine Schlüsselrolle als Codeknacker spielte, wird manchmal als Vater der Computerprogrammierung bezeichnet. Er ist berühmt dafür, einen Test für Computerintelligenz vorzuschlagen, der auf einem Gesellschaftsspiel basierte, in dem ein Fragesteller versuchte, das Geschlecht von zwei Personen hinter einem Vorhang zu bestimmen. Das Gesellschaftsspiel war einfach: Schriftliche Fragen und Antworten wurden hin und her gegeben, damit Tonfall und Stimmlage die Menschen hinter dem Vorhang nicht verraten. Turings vorgeschlagener Test tauscht eine der versteckten Personen gegen einen Computer aus. Das Spiel soll herausfinden, welcher Vorhang einen Menschen verbirgt und welche künstliche Intelligenz verbirgt.
Wir nennen dies jetzt den Turing-Test und er wird normalerweise auf einem Computer durch ein Gespräch mit einem Chatbot abgespielt. Im vergangenen Sommer hat ein Programm, das die Persönlichkeit des 13-jährigen ukrainischen Jungen "Eugene Goostman" nachahmt, 33 Prozent der Richter davon überzeugt, dass es sich um einen Menschen handelt, berichtet Dan Falk von Smithsonian .
Turing prognostizierte optimistisch, dass bis zum Jahr 2000 ein Computerprogramm 30 Prozent der Zeit betrügen würde. Aber bis jetzt haben die meisten Chatbots Mühe, wirklich "menschlich" zu klingen. Das diesjährige Kunststück wurde kritisiert, da Eugene seine Natur hinter den Fehlern verbergen kann, die ein Teenager, der kein perfektes Englisch spricht, machen könnte. Falk schreibt:
In einem meiner Gespräche im Jahr 2012 habe ich einen einfachen Witz geschrieben - und die Entität, mit der ich mich unterhielt, wechselte sofort das Thema zu Hamburgern. (Der Informatiker Scott Aaronson hatte kürzlich eine ähnliche Erfahrung, als er über die Website des Bots mit Eugene chattete. Aaronson fragte Eugene, wie viele Beine ein Kamel habe. Er antwortete: "Etwas zwischen 2 und 4. Vielleicht drei? :-))" Als Aaronson später fragte, wie viele Beine eine Ameise habe, hustete Eugene genau die gleiche Antwort, Dreifach-Smiley und so weiter.)
Wenn sich die Leute von einem Computer täuschen lassen, der Unsinn ausstößt - nicht gerade ein Zeichen von Intelligenz -, sollten wir uns wahrscheinlich einen besseren Weg einfallen lassen, um AI zu testen.
Lovelace schrieb 1843, dass Computer erst dann als intelligent angesehen werden können, wenn sie etwas Originelles schaffen, auf das sie nicht programmiert wurden, berichtet Jordan Pearson für Motherboard. Der Lovelace-Test wurde erstmals im Jahr 2001 vorgeschlagen, aber Mark Riedl, ein KI-Forscher, erklärt, dass dieser Test, wie ursprünglich geplant, auch nicht perfekt ist. "Ich bin nicht sicher, ob der Test tatsächlich funktioniert, da es sehr unwahrscheinlich ist, dass der Programmierer nicht herausfinden kann, wie seine KI etwas hervorgebracht hat", sagte er gegenüber New Scientist .
Sein Update, der Lovelace 2.0-Test, fordert den Computer einfach auf, etwas Originelles und Kreatives zu schaffen: eine Geschichte, ein Gedicht oder ein Bild. Er schreibt:
Wenn der Richter mit dem Ergebnis zufrieden ist, macht er eine weitere, schwierigere Anfrage. Dies geht so lange weiter, bis die KI beurteilt wird, dass sie eine Aufgabe nicht bestanden hat, oder der Richter ist überzeugt, dass sie ausreichende Intelligenz bewiesen hat. Die Mehrfachrunden bedeuten, dass Sie eine Punktzahl erhalten, anstatt zu bestehen oder nicht. Und wir können die verschiedenen Anfragen eines Richters aufzeichnen, damit sie gegen viele verschiedene KIs getestet werden können
Der Test dient eher als Vergleichsinstrument zwischen KI-Systemen, so der New Scientist . Aber zumindest scheint es so, als könne es nicht durch Tricks gebremst werden, wie es der Turing-Test kann. Ebenfalls erwähnenswert: Die Ästhetik der Schöpfung spielt keine Rolle. Schließlich können nicht alle lebenden, atmenden Menschen Meisterwerke malen. Aber die meisten können Pictionary spielen, betont Riedl.