Eine Lungenentzündung bringt jährlich eine Million erwachsene Amerikaner ins Krankenhaus und tötet 50.000. Wenn ein Arzt den Verdacht hat, dass ein Patient eine Lungenentzündung hat, wird er oder sie im Allgemeinen eine Röntgenaufnahme der Brust bestellen. Diese Röntgenbilder müssen natürlich von einem Arzt interpretiert werden. Jetzt haben die Stanford-Forscher einen Algorithmus entwickelt, mit dem Lungenentzündung auf Röntgenstrahlen besser diagnostiziert werden kann als mit erfahrenen Radiologen.
„Der Vorteil eines Algorithmus besteht darin, dass er aus Hunderttausenden von Röntgenaufnahmen des Brustkorbs und den entsprechenden Diagnosen anderer Experten lernen kann“, sagt Pranav Rajpurkar, ein Doktorand der Stanford Machine Learning Group, der die Forschung mit leitete. "Wann haben Radiologen jemals die Möglichkeit, aus Hunderttausenden anderer Radiologen-Diagnosen zu lernen und Muster in den Bildern zu finden, die zu diesen Diagnosen führen?"
Der als CheXNet bezeichnete Algorithmus kann auch 13 andere Erkrankungen diagnostizieren, darunter Emphysem und Pneumothorax (Luft zwischen Lunge und Brustwand). Das Team erstellte den Algorithmus unter Verwendung eines öffentlichen Datensatzes der National Institutes of Health (NIH), der mehr als 100.000 Röntgenbilder der Brust enthielt, die mit 14 möglichen Zuständen gekennzeichnet waren. Der Datensatz wurde zusammen mit einem ersten Diagnosealgorithmus veröffentlicht, den das NIH andere Forscher ermutigte, voranzukommen.
Rajpurkar und seine Kollegen aus der Gruppe für maschinelles Lernen beschlossen, sich der Herausforderung zu stellen. Die Forscher ließen vier Stanford-Radiologen mögliche Hinweise auf eine Lungenentzündung auf 420 der Bilder markieren. Mithilfe dieser Daten erstellten sie innerhalb einer Woche einen Algorithmus, mit dem zehn Zustände genau diagnostiziert werden konnten. Innerhalb eines Monats könnte der Algorithmus die bisherigen Algorithmen bei der Diagnose aller 14 Zustände übertreffen. Zu diesem Zeitpunkt stimmten die Diagnosen von CheXNet häufiger mit der Mehrheit der Radiologen überein als mit der individuellen Meinung eines Radiologen.
Die Studie wurde diesen Monat auf der wissenschaftlichen Preprint-Website arXiv veröffentlicht .
Andere Diagnosealgorithmen haben die Nachricht in letzter Zeit gemacht. Kanadische und italienische Teams haben Algorithmen zur Diagnose der Alzheimer-Krankheit anhand von Gehirnscans entwickelt. Die Verteilung der Plaques im Gehirn, die die Krankheit charakterisieren, ist für das bloße Auge zu subtil, aber die Forscher sagen, dass die AI-Technologie abnormale Muster erkennen kann. Rajpurkar und seine Kollegen von Stanfords Machine Learning Group haben auch einen Algorithmus zur Diagnose von Herzrhythmusstörungen entwickelt, mit dem stundenlange Daten von tragbaren Herzmonitoren analysiert werden können. Andere Lungenentzündungsalgorithmen wurden aus den NIH-Daten entwickelt, der Stanford-Algorithmus ist jedoch der bislang genaueste.
CheXNet könnte besonders hilfreich sein, wenn Menschen keinen einfachen Zugang zu erfahrenen Radiologen haben, so das Team. Es könnte auch als eine Art Triage nützlich sein, um zu identifizieren, welche Fälle wahrscheinlich eine Notfallbehandlung benötigen und welche nicht. Das Team entwickelte auch ein Tool, das eine Karte potenzieller Lungenentzündungsindikatoren auf Röntgenstrahlen erstellt und Ärzten eine praktische visuelle Anleitung bietet.
Das Team ist optimistisch in Bezug auf die Diagnosefähigkeiten von CheXNet, ist jedoch vorsichtig in Bezug auf die Grenzen.
„AI ist ein leistungsstarkes Tool, aber es braucht jahrelange Erfahrung und viele harte Stunden, um zu verstehen, wie es eingesetzt werden kann, und es ist genauso schwierig zu bestimmen, wo wir es für die positivsten Auswirkungen einsetzen können“, sagt Rajpurkar.
Obwohl sich eine Reihe von Deep-Learning-Algorithmen in der Entwicklung befinden, hat noch keiner den strengen Test- und Genehmigungsprozess durchlaufen, der für die Anwendung bei realen Patienten erforderlich ist.
Paul Chang, Professor für Radiologie und stellvertretender Vorsitzender der Abteilung für Radiologie an der Universität von Chicago, äußert sich skeptisch über CheXNet und ähnliche Deep-Learning-Programme. Ärzte verwenden bereits Algorithmen, um die Diagnose einer beliebigen Anzahl von Zuständen zu unterstützen, sagt Chang. Diese Algorithmen stützen sich auf ein vorgeformtes Modell, wie die Erkrankung aussieht: Krebserkrankungen sind beispielsweise größer und stacheliger als gutartige Massen. Deep-Learning-Programme hingegen sollen herausfinden, welche Funktionen für sich genommen von Bedeutung sind, indem sie enorme Datenmengen verarbeiten. Dies bedeutet aber auch, dass sie die falschen Hinweise nehmen können. Chang gibt das Beispiel eines Deep-Learning-Algorithmus, der den Unterschied zwischen verschiedenen Arten von Röntgenstrahlen erlernt hat: Hände, Füße, Mammogramme. Die Forscher stellten jedoch fest, dass das Programm das Erkennen von Mammographien einfach dadurch gelernt hatte, dass sich das Hauptbild auf der Seite des Films und nicht in der Mitte befand (da Brüste an der Brustwand befestigt sind, erscheinen sie am Rand des Films in einer Mammogramm (Hände oder Füße dagegen erscheinen in der Mitte des Röntgenbildes). Der Algorithmus lernte nichts Wichtiges über Brüste, nur über ihre Position auf dem Bildschirm.
"Dies ist eine sehr frühe Zeit", sagt Chang, der darauf hinweist, dass die CheXNet-Ergebnisse nicht von Experten begutachtet wurden. „Deep Learning hat ein großes Potenzial, aber wir in der Medizin und in der Radiologie befinden uns in der Regel noch am Anfang des Hype-Zyklus, aber wir brauchen länger, um es umzusetzen. Wir werden lernen, wie man es angemessen konsumiert. “