Trotz ihrer erstaunlichen Häufigkeit bleiben Schulschießereien ein verwirrender Horror.
Es gibt nicht nur wenig Einigkeit darüber, wie man sie aufhält - mit Vorschlägen, die von der Beschränkung des Zugangs zu Waffen bis zur Bewaffnung von Lehrern reichen -, sondern es besteht auch noch weniger Gewissheit, warum ein Schüler das Feuer auf seine Klassenkameraden eröffnen würde.
Jetzt fangen einige Wissenschaftler an zu untersuchen, ob künstliche Intelligenz (KI) helfen könnte, Antworten zu finden. Die Idee ist, dass Algorithmen möglicherweise in der Lage sind, Daten im Zusammenhang mit Schießereien in der Schule besser zu analysieren und möglicherweise sogar Muster in der Schülersprache oder in Verhaltensweisen zu identifizieren, die auf Gewalt in der Schule hindeuten könnten. Die Forschung steckt noch in den Kinderschuhen, und die Aussicht, mithilfe von Maschinen vorauszusagen, wer ein Schulschütze werden könnte, wirft Datenschutzprobleme und andere ethische Fragen im Zusammenhang mit jeder Art von Profilerstellung auf, zumal der Prozess Kinder einbeziehen würde. Das Ziel ist jedoch, herauszufinden, ob die analytische Kraft intelligenter Maschinen die Tragödien, die zu oft in einem Wirbel von Emotionen und politischer Rhetorik verzehrt werden, deutlicher werden lässt.
Sich der Technologie zuwenden
Die Verwendung künstlicher Intelligenz als Mittel, um wissenschaftliche Analysen auf etwas zu bringen, das so unergründlich ist wie das Schießen in der Schule, hat Shreya Nallapati sehr angesprochen. Sie hat gerade die Highschool in Colorado abgeschlossen, aber im Februar, nach dem Tod von 17 Schülern in Parkland, Florida, wurde sie von der Schülerführerin Emma Gonzalez dazu inspiriert, Maßnahmen zu ergreifen.
"Ich hatte das Gefühl, wir sollten nicht nur unsere Gedanken und unser Beileid aussprechen", sagt Nallapati. "Ich dachte, dass wir als aufstrebende Generation von Millennials versuchen sollten, das zu nutzen, was wir am besten kennen - Technologie."
Nallapati, die an der High School künstliche Intelligenz studiert, hat sich mit einem Programm namens Aspirations in Computing, das vom Nationalen Zentrum für Frauen und Informationstechnologie durchgeführt wird, an andere junge Frauen gewandt, die sie kennt. Aspirations in Computing ermutigt junge Frauen, in Computer- und Technologiebereiche einzusteigen.
Nallapati bat andere Mitglieder der Gruppe, sich ihrem neuen Projekt #NeverAgainTech anzuschließen. Sie hofft, dass die Zusammenarbeit zu einer AI-gesteuerten Zusammenstellung und Analyse einer breiten Palette von Daten im Zusammenhang mit Schießereien in der Schule führen wird - von demografischen und sozioökonomischen Informationen über frühere Schützen, über die Vorgeschichte des Drogenkonsums oder neurologische Störungen bis hin zu den Verfügbarkeit von Waffen in den Staaten, in denen Angriffe stattgefunden haben. Ziel ist es, eine umfassendere Aufschlüsselung der zahlreichen Bestandteile von Schulschießereien als bisher zu entwickeln und die daraus resultierende Software der Öffentlichkeit, insbesondere den Schulen und Strafverfolgungsbehörden, im nächsten Jahr zur Verfügung zu stellen.
Risiko abwägen
Ein Forscherteam des Cincinnati Children's Hospital Medical Center verfolgt einen anderen Ansatz bei der Anwendung von KI zur Bekämpfung von Gewalt in der Schule. In einer kürzlich veröffentlichten Studie wurde vorgeschlagen, dass maschinelles Lernen möglicherweise Therapeuten und Beratern dabei helfen könnte, das Risiko zu erkennen, das ein Student darstellen könnte.
Insbesondere stellten die Wissenschaftler fest, dass KI bei der Einschätzung des Risikos gewalttätigen Verhaltens genau so genau war wie ein Team von Psychiatern bei Kindern und Jugendlichen. Dabei wurden 119 Kinder im Alter zwischen 12 und 18 Jahren befragt Aggressionen, so der leitende Forscher Drew Barzman, seien auch für die Einschätzung des Risikos von Schießübungen in der Schule von Nutzen.
"Es gibt normalerweise Warnzeichen, bevor es zu Gewalt in der Schule kommt", sagt er. Insbesondere kann die Sprache, die ein Student während eines Interviews verwendet, dazu beitragen, einen Teenager mit hohem Risiko von einem Teenager mit niedrigem Risiko zu unterscheiden, wie frühere Untersuchungen von Barzman gezeigt haben. Diese Studie kam zu dem Schluss, dass erstere eher negative Gefühle gegenüber sich selbst und den Handlungen anderer ausdrücken. Er sprach auch eher über Gewaltakte an sich und über gewalttätige Videospiele oder Filme.
Das Team unternahm einen weiteren Schritt, indem ein AI-Algorithmus die Ergebnisse der früheren Studie verwendete, um die Transkripte der für die neue Forschung befragten Studenten zu analysieren. Auf der Grundlage von Sprachmustern wurde angegeben, ob bei einer Person ein hohes oder ein niedriges Risiko für Gewalt besteht. Mehr als 91 Prozent der Zeit stimmte der Algorithmus, der nur die Transkripte verwendete, mit den umfangreicheren Bewertungen eines Teams von Psychiatern für Kinder und Jugendliche überein, die auch Zugang zu Informationen von Eltern und Schulen hatten.
Die Studierenden der Studie wurden größtenteils aus psychiatrischen Ambulanzen, stationären Einrichtungen und Notaufnahmen rekrutiert. Einige hatten kürzlich größere Verhaltensänderungen gezeigt, bei anderen waren die Änderungen jedoch geringfügiger. Barzman sagt, dass sie eine Vielzahl von Schulen besuchten, obwohl keine zu Hause unterrichtet wurden.
Laut Barzman konzentrierte sich die Studie auf die Vorhersage von körperlicher Aggression in der Schule, aber es ist immer noch nicht bekannt, ob maschinelles Lernen tatsächlich Gewalt verhindern kann. Der Schwerpunkt an dieser Stelle liegt darauf, Therapeuten und Beratern ein Instrument zur Verfügung zu stellen, mit dem sie ihre Einschätzungen der Schüler anhand von Interviews schärfen können. Laut Barzman sollen Maschinen keine Entscheidungen über Schüler treffen.
"Es wäre im Grunde genommen dazu gedacht, dem Kliniker bei der Entscheidungsfindung zu helfen", sagt Barzman. "Wir würden ihnen eine Struktur von wichtigen Fragen zur Verfügung stellen. Es kann schwierig sein, einen Studenten zu interviewen, die richtigen Informationen auszuwählen und sich an alles zu erinnern. Die Idee ist, ihnen ein Werkzeug zu geben, das ihnen helfen kann durch den Prozess und erhöhen die Genauigkeit ihrer Bewertungen. "
Matty Squarzoni ist ein weiterer Anhänger des Potenzials künstlicher Intelligenz bei der Bekämpfung von Schulgewalt. Er ist CEO eines kalifornischen Startups namens Sitch AI, das Technologien vermarkten will, von denen er sagt, dass sie den Schulen helfen könnten, mit solchen Bedrohungen umzugehen. Der erste Schwerpunkt wird auf der Entwicklung eines Sensorsystems liegen, mit dem Polizeibeamte den genauen Ort von Schüssen erfassen und die Bewegungen eines Schützen durch eine Schule verfolgen können. Laut Squarzoni sucht das Unternehmen jedoch auch nach Möglichkeiten, mithilfe von Vorhersageanalysen potenzielle Probleme zu erkennen, bevor sie gewalttätig werden.
Er glaubt, dass künstliche Intelligenz die Daten eines Schülers analysieren und bemerkenswerte Änderungen seiner Leistung oder seines Verhaltens anzeigen könnte. Squarzoni erkennt mögliche Bedenken hinsichtlich des Datenschutzes an, sagt jedoch, dass das Unternehmen die Identität der Studenten nicht kennen würde.
"Wir reden nicht über das Erstellen von Profilen", sagt er. „Wir würden jede Person als eine einzigartige Einheit betrachten. Aber Menschen sind Gewohnheitstiere. Wenn sie anfangen, Unregelmäßigkeiten zu haben, fängt man an, sie zu betrachten. Sie erkennen Fahnen, und vielleicht rücken die Fahnen immer näher. Es könnte sich um psychische Probleme handeln, oder vielleicht sinken ihre Noten.
"Wir wollen nicht sagen können, dass diese Person ein Schütze sein wird." Wir möchten sagen können: 'Diese Person braucht Hilfe.' "
Nicht so schnell?
Andere haben jedoch ernsthafte Bedenken hinsichtlich der Eile, Softwarealgorithmen zu verwenden, um komplexe gesellschaftliche Probleme anzugehen.
"Wir sehen jetzt einen Trend, dass KI mit alarmierender Geschwindigkeit auf sehr sensible Domänen angewendet wird, und die Leute, die diese Algorithmen entwickeln, verstehen nicht unbedingt alle sozialen und sogar politischen Aspekte der von ihnen verwendeten Daten", sagt Rashida Richardson, Direktor für Politikforschung am AI Now Institute, einem Programm an der New York University, das die sozialen Auswirkungen künstlicher Intelligenz untersucht.
Ein Bereich, in dem der Einsatz von KI unter Beschuss geraten ist, ist das so genannte Predictive Policing. Hierbei handelt es sich um Softwareprodukte, die Statistiken zu Straftaten analysieren und dann vorhersagen, wo Straftaten mit größerer Wahrscheinlichkeit begangen werden. Kritiker weisen jedoch darauf hin, dass Daten wie Verhaftungen das Ergebnis menschlicher Vorurteile sein können, die letztendlich in den Algorithmus eingehen können.
Dies birgt immer das Risiko einer prädiktiven Analyse und warum die Quelle der Daten ein Schlüsselfaktor ist, um zu bestimmen, wie objektiv sie tatsächlich sein können. Da das AI-Tool von den Forschern des Cincinnati Children's Hospital entwickelt wurde, basiert die Analyse auf den Aussagen der einzelnen Schüler während eines Interviews und nicht auf einer umfassenden statistischen Zusammenstellung.
Dennoch ist Richardson der Ansicht, dass es wichtig ist, dass Teams, die diese Art von Software entwickeln, „interdisziplinär“ sind, damit beispielsweise Pädagogen an Programmen teilnehmen, die das Verhalten von Schülern bewerten.
„Die Forscher verstehen möglicherweise nicht viel über die Nuancen dessen, was die Menschen in der bildungs- und rechtspolitischen Welt als Schulklima bezeichnen. Das schließt Sicherheits- und Verhaltensprobleme ein “, sagt sie. „Die Art der Schule, in der Sie sind, bestimmt oft, wie mit Verhalten umgegangen wird und wie mit Disziplin umgegangen wird.
"Zum Beispiel wurde festgestellt, dass Charter-Schulen viel strengere Disziplinarrichtlinien haben", fügt Richardson hinzu. „Kinder in diesem Umfeld werden anders behandelt als in einer High-End-Privatschule und sogar in verschiedenen öffentlichen Einrichtungen.
„Es ist ein Problem, zu versuchen, sehr komplizierte Probleme zu verstehen, die eine Vielzahl von Inputs haben, und eine technische Lösung anzuwenden, die einen Bruchteil davon widerspiegelt, da sie entweder dieselben Probleme wiederholen kann, die wir in der Gesellschaft sehen, oder eine Lösung für ein Problem schaffen kann, das es nicht gibt. "
Laut Richardson besteht ein weiteres Problem darin, dass ein KI-Programm, selbst wenn es mit den besten Absichten entwickelt wurde, möglicherweise auf eine Weise verwendet wird, die von seinen Entwicklern nicht erwartet wird.
"Wenn Sie erst einmal mit diesen Tools fertig sind, haben Sie nicht mehr die Kontrolle darüber, wie sie implementiert werden oder wie sie sich weiterhin auf die gesamte Gesellschaft auswirken."