Dieselbe Technologie, die Ihren gesprächigen mobilen Assistenten antreibt, könnte eines Tages eine Stimme für diejenigen bereitstellen, die die Fähigkeit zum Sprechen verloren haben. Wie Renae Reints für Fortune berichtet, haben Neurowissenschaftler der Columbia University vor kurzem große Fortschritte in Richtung dieses futuristischen Ziels gemacht, indem sie Gehirnströme zum ersten Mal erfolgreich in verständliche Sprache umgesetzt haben.
Die in Scientific Reports veröffentlichten Forschungsergebnisse des Teams beinhalten einen etwas unkonventionellen Ansatz. Anstatt Gedanken direkt zu verfolgen, um Sprache zu produzieren, zeichneten die Forscher neurologische Muster auf, die von Testpersonen erzeugt wurden, die anderen zuhörten. Diese Gehirnwellen wurden in einen Vocoder eingespeist - einen Algorithmus mit künstlicher Intelligenz, der Sprache synthetisiert - und dann in verständliche, wenn auch roboterhaft klingende Sprache umgewandelt, die die von den Teilnehmern gehörten Phrasen widerspiegelt.
"Unsere Stimmen helfen uns, eine Verbindung zu unseren Freunden, unserer Familie und der Welt um uns herum herzustellen. Deshalb ist es so verheerend, die Kraft der eigenen Stimme aufgrund von Verletzungen oder Krankheiten zu verlieren", sagt Studienautorin Nima Mesgarani, Ingenieurin im kolumbianischen Neurobiologie-Programm eine Erklärung. „Mit der heutigen Studie haben wir einen möglichen Weg, diese Kraft wiederherzustellen. Wir haben gezeigt, dass mit der richtigen Technologie die Gedanken dieser Leute von jedem Zuhörer entschlüsselt und verstanden werden können. “
Laut George Dvorsky von Gizmodo ist es erwähnenswert, dass Wissenschaftler noch nicht herausgefunden haben, wie interne Gedanken, auch als imaginäre Sprache bezeichnet, direkt in Wörter übersetzt werden können. In diesem idealen Szenario stellen sich Personen, die Sprachtechnologie verwenden, einfach vor, was sie sagen möchten, und warten dann, bis ein künstliches Stimmsystem diese Gedanken verbalisiert.
Der verstorbene britische Physiker Stephen Hawking verwendete eine rudimentäre Version der Sprachsynthesetechnologie, um mit anderen zu kommunizieren. Wie Nina Godlewski für Newsweek schreibt, wurde bei Hawking im Alter von 21 Jahren eine amyotrophe Lateralsklerose (ALS) diagnostiziert. Die Motoneuron-Krankheit beanspruchte schließlich seine Sprachfähigkeiten und zwang ihn, einen tragbaren Clicker zu verwenden, um die Sprache auszulösen.
Als Hawking die Hände verlor, wechselte er zu einem System, das auf Gesichtsbewegungen basierte. Gizmodos Dvorsky erklärt weiter, dass der Wissenschaftler einen Wangenschalter an seiner Brille verwendete, um die von einem Sprachsynthesizer gesprochenen Wörter auszuwählen.
Eine fortgeschrittene Iteration dieser Technologie würde den Mittelmann weglassen und es Benutzern ermöglichen, Sprache ohne die Hilfe eines Computers oder eines bewegungsempfindlichen Systems zu produzieren.
Avery Thompson stellt für Popular Mechanics fest, dass sich die Studie des Columbia-Teams auf die Übersetzung von "belauschtem Sprechen" konzentriert. Die Forscher rekrutierten fünf Epilepsiepatienten, die sich einer Gehirnoperation unterziehen sollten, und baten sie, sich eine Reihe gesprochener Wörter anzuhören - zum Beispiel eine Aufzeichnung von jemandem Zählen von null bis neun - während Sie an neuronale Überwachungsgeräte angeschlossen sind.
Die von diesen Werkzeugen erfassten Gehirnwellen wurden in den Vocoder eingegeben, der die Sprache mithilfe eines neuronalen Netzwerks synthetisierte, das nach den Worten von Kristin Houser vom Futurismus trainiert wurde, um die Ausgabe zu „bereinigen“ und die Klänge verständlich zu machen.
Als nächstes baten die Wissenschaftler 11 andere Teilnehmer, sich die AI-fähige Rede anzuhören. Laut Mesgarani, dem Co-Autor der Studie, konnten diese Personen in 75 Prozent der Fälle die Geräusche „verstehen und wiederholen“ - „weit über die in früheren Experimenten beobachteten Raten hinaus“. (Die Aufnahmen können Sie hier selbst beurteilen.)
In einem Interview mit Gizmodos Dvorsky sagt Mesgarani, dass er und seine Kollegen hoffen, in naher Zukunft komplexere Phrasen zu synthetisieren. Die Forscher wollen auch Gehirnsignale aufzeichnen, die von Testpersonen erzeugt werden, die den Akt des Sprechens denken oder sich vorstellen, anstatt nur anderen zuzuhören. Schließlich fügt Mesgarani der Aussage hinzu, dass das Team eines Tages die Technologie in ein Implantat umwandeln möchte, das die Gedanken eines Trägers direkt in Worte umsetzen kann.
Zu den möglichen Einschränkungen der neuen Forschung zählen die geringe Stichprobengröße und laut Andrew Jackson, Neurowissenschaftler an der Newcastle University, die Tatsache, dass neuronale Netze von jedem neuen Teilnehmer in eine große Anzahl von Gehirnsignalen eingeführt werden müssten um Sprache jenseits der Zahlen Null bis Neun zu synthetisieren.
"Es wird in Zukunft interessant sein zu sehen, wie gut Decoder, die für eine Person trainiert wurden, auf andere Personen übertragen werden", sagt Jackson gegenüber Gizmodo . „Es ist ein bisschen wie bei früheren Spracherkennungssystemen, die vom Benutzer individuell geschult werden mussten, im Gegensatz zu den heutigen Technologien wie Siri und Alexa, die über neuronale Netze die Stimme eines jeden verstehen können. Nur die Zeit wird zeigen, ob diese Technologien eines Tages dasselbe für Gehirnsignale leisten können. “