https://frosthead.com

Kann künstliche Intelligenz Depressionen in der Stimme einer Person erkennen?

Die Diagnose von Depressionen ist eine heikle Angelegenheit.

Es gibt keine Blutuntersuchung, keinen Scan, keine Biopsie, um den Beweis für etwas zu erbringen, das schief gelaufen ist. Stattdessen liegt das volle Gewicht in der Fähigkeit eines ausgebildeten Klinikers, eine Bewertung vorzunehmen, die weitgehend auf den Antworten einer Person auf eine Reihe von Standardfragen basiert. Die Diagnose wird durch die Tatsache weiter erschwert, dass Depressionen auf vielfältige Weise auftreten können - von Apathie über Unruhe bis hin zu extremen Ess- oder Schlafmustern.

Die Vorstellung, dass künstliche Intelligenz helfen könnte, vorauszusagen, ob eine Person an Depressionen leidet, ist potenziell ein großer Schritt nach vorn - auch wenn mit ihr Fragen verbunden sind, wie sie verwendet werden könnten.

Was dies ermöglicht, sagt Tuka Alhanai, ein Forscher am MIT-Labor für Informatik und künstliche Intelligenz (CSAIL), ist die Fähigkeit eines maschinellen Lernmodells, Sprach- und Sprachmuster zu identifizieren, die mit Depressionen verbunden sind. Noch wichtiger ist, dass das Modell, das sie und der MIT-Wissenschaftler Mohammad Ghassemi entwickelt haben, Depressionen mit einem relativ hohen Grad an Genauigkeit erkennen konnte, indem sie analysierten, wie Menschen sprechen, und nicht ihre spezifischen Antworten auf die Fragen eines Klinikers.

Es ist das, was Alhanai als "kontextfreie" Analyse bezeichnet. Mit anderen Worten, das Modell orientiert sich an den Worten, die die Menschen wählen und wie sie sie sagen, ohne zu versuchen, die Bedeutung ihrer Aussagen zu interpretieren.

"Anstatt dem Modell zu sagen, dass es sich auf die Antworten auf bestimmte Fragen konzentrieren soll, ist es so programmiert, dass es selbst herausfindet, worauf es sich konzentrieren möchte", sagt sie.

Laut Alhanai besteht der potenzielle Vorteil darin, dass diese Art des neuronalen Netzwerkansatzes eines Tages verwendet werden könnte, um die natürlicheren Gespräche einer Person außerhalb eines formellen, strukturierten Interviews mit einem Kliniker zu bewerten. Dies könnte hilfreich sein, um Menschen zu ermutigen, professionelle Hilfe in Anspruch zu nehmen, wenn sie aufgrund von Kosten, Entfernung oder einfach mangelndem Bewusstsein, dass etwas nicht in Ordnung ist, dies nicht tun.

„Wenn Sie Modelle skalierbar bereitstellen möchten, möchten Sie die Anzahl der Einschränkungen für die von Ihnen verwendeten Daten minimieren. Sie möchten es in regelmäßigen Gesprächen einsetzen und das Modell aus der natürlichen Interaktion den Zustand des Individuums erkennen lassen. “

Muster erkennen

Das Modell konzentrierte sich auf Audio-, Video- und Transkriptionen von 142 Patienteninterviews, von denen etwa 30 Prozent von Ärzten mit Depression diagnostiziert worden waren. Insbesondere wurde eine Technik namens Sequenzmodellierung verwendet, bei der Sequenzen von Text- und Audiodaten von sowohl depressiven als auch nicht depressiven Personen in das Modell eingespeist wurden. Daraus ergaben sich unterschiedliche Sprachmuster für Menschen mit und ohne Depression. Beispielsweise können Wörter wie „traurig“, „leise“ oder „leise“ mit flacheren und monotoneren Sprachsignalen kombiniert werden.

Es war jedoch Aufgabe des Modells, festzustellen, welche Muster mit Depressionen im Einklang standen. Dann wandte es das Gelernte an, um vorherzusagen, welche neuen Probanden depressiv waren. Letztendlich erreichte es eine Erfolgsrate von 77 Prozent bei der Identifizierung von Depressionen.

Die Forscher stellten auch fest, dass das Modell erheblich mehr Daten benötigte, um Depressionen nur anhand des Klangs einer Stimme vorherzusagen, im Gegensatz zu den Worten, die eine Person verwendete. Bei letzteren musste das Modell, wenn es sich ausschließlich auf Text konzentrierte, durchschnittlich nur sieben Sequenzen analysieren, um Depressionen vorherzusagen. Wenn Sie jedoch nur Voice-Audio verwenden, sind 30 Sequenzen erforderlich. Das deutet darauf hin, dass die Worte, die eine Person auswählt, eine bessere Vorhersage für Depressionen sind, als wie sie klingen.

Algorithmische Überreichweite?

Es ist noch viel zu früh zu sagen, wie ein KI-Modell in die Depressionsdiagnose einbezogen werden könnte. „Dies ist ein Schritt in Richtung auf die Analyse von Interaktionen in freier Form, aber nur ein erster Schritt“, sagt James Glass, Senior Research Scientist bei CSAIL. Er merkt an, dass die Testprobe "winzig" war. Er sagt auch, dass die Forscher versuchen wollen, die spezifischen Muster aus allen Rohdaten, die das Modell als Hinweis auf Depression identifiziert hat, besser zu verstehen.

"Diese Systeme sind glaubwürdiger, wenn man eine Erklärung dafür hat, was sie aufgreifen", sagt er.

Dies ist wichtig, da die gesamte Idee, KI bei der Diagnose von psychischen Erkrankungen einzusetzen, mit einem gewissen Maß an Skepsis aufgenommen wurde. Es wird bereits in Therapie-Chatbots wie Woebot verwendet, aber die tatsächliche Diagnose würde die Rolle von Maschinen auf eine andere Ebene heben.

Der kanadische Arzt Adam Hofmann, der kürzlich in der Washington Post schrieb, warnte vor den möglichen Konsequenzen dessen, was er als "algorithmische Übererfassung" bezeichnete.

"Könnten falsche Positive zum Beispiel dazu führen, dass Menschen, die noch nicht depressiv sind, glauben, dass sie es sind", schrieb er. „Die psychische Gesundheit eines Menschen ist ein komplexes Zusammenspiel genetischer, physischer und umweltbedingter Faktoren. Wir kennen die Placebo- und Nocebo-Effekte in der Medizin, wenn blinde Konsumenten von Zuckerpillen die positiven oder negativen Auswirkungen eines Arzneimittels erfahren, weil sie die positiven oder negativen Erwartungen daran haben.

"Es könnte buchstäblich so sein, wenn man dir sagt, dass du unwohl bist."

Hofmann äußerte auch Bedenken darüber, wie lange die Schlussfolgerungen solcher KI-Diagnosetools von Dritten wie Versicherern oder Arbeitgebern ferngehalten werden könnten. Diese Besorgnis über möglichen Missbrauch durch „Depressionsdetektoren“ wurde ebenfalls in einem kürzlich veröffentlichten Blogbeitrag auf The Next Web zitiert.

Alhanai und Glass haben die besorgten Spekulationen über das Risiko gehört, sich bei der Diagnose der psychischen Gesundheit zu sehr auf KI-Modelle zu verlassen. Aber sie sagen, dass ihre Forschung darauf ausgerichtet ist, Klinikern zu helfen, anstatt sie zu ersetzen.

"Wir sind zuversichtlich, dass wir eine ergänzende Form der Analyse anbieten können", sagt Glass. „Der Patient ist nicht die ganze Zeit beim Arzt. Wenn der Patient jedoch zu Hause in sein Telefon spricht, möglicherweise ein tägliches Tagebuch aufzeichnet und das Gerät eine Änderung feststellt, kann dies dem Patienten signalisieren, dass er sich an den Arzt wenden sollte.

„Wir sehen nicht, dass die Technologie Entscheidungen trifft, sondern der Kliniker“, fügt er hinzu. „Wir sehen darin eine weitere Eingangsgröße für den Kliniker. Sie hätten weiterhin Zugriff auf alle aktuellen Eingänge, die sie verwenden. Dies würde ihnen nur ein weiteres Werkzeug in ihrer Werkzeugkiste geben. “

Kann künstliche Intelligenz Depressionen in der Stimme einer Person erkennen?