Man könnte Ihnen verzeihen, dass die KI bald menschliche Ärzte ersetzen wird, basierend auf Schlagzeilen wie "Der KI-Arzt wird Sie jetzt sehen", "Ihr zukünftiger Arzt wird möglicherweise kein Mensch sein" und "Diese KI schlägt nur menschliche Ärzte bei einer klinischen Untersuchung." Aber Experten sagen, die Realität sei eher eine Zusammenarbeit als eine Verdrängung: Patienten könnten bald ihr Leben teilweise in den Händen von KI-Diensten finden, die mit menschlichen Klinikern zusammenarbeiten.
Es gibt keinen Mangel an Optimismus in Bezug auf KI in der medizinischen Gemeinschaft. Viele warnen jedoch auch davor, dass der KI-Hype in der Praxis erst noch umgesetzt werden muss. Es gibt auch unterschiedliche Vorstellungen, wie KI-Dienste den größten Einfluss haben könnten. Und es ist immer noch unklar, ob KI das Leben von Patienten verbessern wird oder nur das Endresultat für Silicon Valley-Unternehmen, Gesundheitsorganisationen und Versicherer.
„Ich denke, alle unsere Patienten sollten eigentlich wollen, dass KI-Technologien die Schwächen im Gesundheitswesen ausgleichen, aber wir müssen dies auf eine Art und Weise tun, die nicht dem Silicon Valley-Hype entspricht“, sagt Isaac Kohane, ein biomedizinischer Informatiker bei Harvard Medizinschule.
Wenn AI wie versprochen funktioniert, könnte es die Gesundheitsversorgung demokratisieren, indem der Zugang für unterversorgte Gemeinden verbessert und die Kosten gesenkt werden - ein Segen in den USA, der bei vielen Gesundheitsmaßnahmen trotz durchschnittlicher jährlicher Gesundheitskosten von 10.739 USD pro Person einen schlechten Rang einnimmt. KI-Systeme könnten überlastete Ärzte befreien und das Risiko von medizinischen Fehlern verringern, die jedes Jahr Zehntausende, wenn nicht Hunderttausende von US-Patienten töten können. Und in vielen Ländern mit nationalem Ärztemangel, wie beispielsweise in China, wo überfüllte Ambulanzen von städtischen Krankenhäusern bis zu 10.000 Menschen pro Tag versorgen, müssen solche Technologien nicht genau genug sein, um sich als hilfreich zu erweisen.
Kritiker weisen jedoch darauf hin, dass alles, was versprochen wird, verschwinden könnte, wenn die Eile, KI einzuführen, die Persönlichkeitsrechte der Patienten verletzt, Vorurteile und Einschränkungen außer Acht lässt oder Dienste nicht auf eine Weise bereitgestellt werden, die die Gesundheitsergebnisse für die meisten Menschen verbessert.
"Auf die gleiche Weise, wie Technologien Disparitäten schließen können, können sie Disparitäten verschärfen", sagt Jayanth Komarneni, Gründer und Vorsitzender des Human Diagnosis Project (Human Dx), eines gemeinnützigen Unternehmens, das sich auf das Crowdsourcing medizinischer Fachkenntnisse konzentriert. "Und nichts hat diese Fähigkeit, Disparitäten wie KI zu verschärfen"
***
Heutzutage sind das maschinelle Lernen und das tiefe Lernen die beliebtesten KI-Techniken. Im Gegensatz zu Computerprogrammen, die strengen Regeln des Menschen folgen, können sowohl maschinelles Lernen als auch Deep-Learning-Algorithmen einen Datensatz betrachten, daraus lernen und neue Vorhersagen treffen. Insbesondere tiefes Lernen kann eindrucksvolle Vorhersagen treffen, indem es Datenmuster entdeckt, die Menschen möglicherweise übersehen.
Aber um das Beste aus diesen Vorhersagen im Gesundheitswesen zu machen, kann KI nicht alleine vorgehen. Vielmehr muss der Mensch weiterhin bei Entscheidungen helfen, die schwerwiegende gesundheitliche und finanzielle Folgen haben können. Da KI-Systeme nicht über die allgemeine Intelligenz des Menschen verfügen, können sie verwirrende Vorhersagen treffen, die sich als schädlich erweisen können, wenn Ärzte und Krankenhäuser sie bedingungslos befolgen.
Das klassische Beispiel stammt von Rich Caruana, einem leitenden Forscher bei Microsoft Research, wie er im vergangenen Jahr im Magazin Engineering and Technology erklärte. In den 1990er Jahren arbeitete Caruana an einem Projekt, bei dem mithilfe einer früheren Form des maschinellen Lernens vorhergesagt wurde, ob ein Patient mit Lungenentzündung ein Fall mit geringem oder hohem Risiko ist. Schwierigkeiten traten jedoch auf, als das Modell des maschinellen Lernens versuchte, den Fall für Asthmatiker vorherzusagen, die ein hohes Risiko haben, weil sie aufgrund ihrer bereits bestehenden Atembeschwerden anfällig für Lungenentzündung sind. Das Modell sah diese Patienten als risikoarm an und erforderte eher geringfügige Eingriffe als Krankenhausaufenthalte - etwas, was ein menschlicher Experte niemals getan hätte.
Wenn Sie dem Modell blind folgen, sagt Kenneth Jung, ein Wissenschaftler am Stanford Center for Biomedical Informatics Research, „dann sind Sie abgesprungen. Weil das Modell sagt: ‚Oh, dieses Kind mit Asthma ist reingekommen und hat eine Lungenentzündung, aber wir müssen uns keine Sorgen machen und schicken sie mit einigen Antibiotika nach Hause. '“
Deep-Learning-Vorhersagen können auch fehlschlagen, wenn sie zum ersten Mal auf ungewöhnliche Datenpunkte stoßen, z. B. auf eindeutige medizinische Fälle, oder wenn sie in bestimmten Datensätzen besondere Muster lernen, die sich nicht gut auf neue medizinische Fälle übertragen lassen.
Die AI-Vorhersagen eignen sich am besten für umfangreiche Datensätze, z. B. in China. Dies hat einen Vorteil beim Training von AI-Systemen, da auf große Populationen und Patientendaten zugegriffen werden kann. Im Februar veröffentlichte die Fachzeitschrift Nature Medicine eine Studie von Forschern aus San Diego und Guangzhou, China, die aufgrund der elektronischen Patientenakte von mehr als 567.000 Kindern vielversprechende Ergebnisse bei der Diagnose vieler häufiger Kinderkrankheiten erbrachte.
Aber auch große Datenmengen können Probleme bereiten, insbesondere wenn Forscher versuchen, ihren Algorithmus auf eine neue Population anzuwenden. In der Naturmedizinstudie stammten alle eine halbe Million Patienten aus einem medizinischen Zentrum in Guangzhou, was bedeutet, dass es keine Garantie dafür gibt, dass die diagnostischen Lehren, die aus dem Training dieses Datensatzes gezogen wurden, auch für pädiatrische Fälle an anderer Stelle gelten. Jedes medizinische Zentrum kann eine eigene Gruppe von Patienten anziehen - ein Krankenhaus, das beispielsweise für sein Herz-Kreislauf-Zentrum bekannt ist, kann kritischere Herzerkrankungen hervorrufen. Die Ergebnisse eines Krankenhauses in Guangzhou, an dem hauptsächlich chinesische Patienten teilnahmen, lassen sich möglicherweise nicht auf ein Krankenhaus in Shanghai übertragen, in dem mehr nicht-chinesische Patienten im Ausland geboren wurden.
In diesem TEDx-Vortrag 2017 erklärt Shinjini Kundu vom Johns Hopkins Hospital, wie KI-Tools das Potenzial haben, mehr aus medizinischen Bildern zu lernen als Ärzte allein - einschließlich der Vorhersage von Krankheiten, bevor Patienten Symptome zeigen.
Diese Hochrechnung wird sich auch in anderen Situationen als schwierig erweisen. Laut Marzyeh Ghassemi, einem Informatiker und biomedizinischen Ingenieur an der Universität von Toronto, haben Sie beispielsweise 40.000 Intensivpatienten im Beth Israel Deaconess Medical Center - das ist nur ein Krankenhaus in einer Stadt. „Und so habe ich all diese Papiere, die Vorhersagen mit diesen Daten gemacht haben. Funktioniert das mit einem anderen Krankenhaus in Boston? Könnte sein. Funktioniert es für ein Krankenhaus in einem anderen Staat? Würde es in einem anderen Land funktionieren? Wir wissen es nicht. "
***
Obwohl KI-Modelle möglicherweise nicht in jedem Fall funktionieren, ist Ghassemi der Ansicht, dass die Technologie noch erforschenswert ist. "Ich bin sehr dafür, diese Modelle von der Bank zum Krankenbett zu bringen", sagt sie, "aber mit wirklich aggressiven Vorsichtsmaßnahmen."
Diese Schritte müssen während der AI-Entwicklung und -Einsatz bestehen, sagt I. Glenn Cohen, Professor für Rechtswissenschaft an der Harvard University und Leiter des Projekts für Präzisionsmedizin, künstliche Intelligenz und Recht. Dies kann die Überprüfung der Genauigkeit und Transparenz von AI-Vorhersagen beinhalten. Während der Datenerfassung müssen die Forscher auch die Privatsphäre der Patienten schützen und die Zustimmung einholen, Patientendaten für das Training der KI zu verwenden
Das Zustimmungsproblem tritt erneut auf, wenn das AI-Modell für experimentelle klinische Tests mit realen Patienten bereit ist. "Müssen Patienten darüber informiert werden, dass Sie den Algorithmus für sie verwenden, und spielt es eine Rolle, ob die KI die Versorgung vollständig oder teilweise leitet?", Fragt Cohen. "Über diese Fragen wird wirklich sehr wenig nachgedacht."
Ghassemi plädiert auch dafür, KI-Algorithmen häufig zu prüfen, um Fairness und Genauigkeit für verschiedene Personengruppen zu gewährleisten, basierend auf ethnischer Zugehörigkeit, Geschlecht, Alter und Krankenversicherung. Dies ist wichtig, da KI-Anwendungen in anderen Bereichen bereits gezeigt haben, dass sie Verzerrungen leicht erkennen können.
Nach all diesen Schritten müssen die Personen und Unternehmen, die AI-Dienste anbieten, die rechtliche Haftung für den Fall von unvermeidlichen Fehlern regeln. Im Gegensatz zu den meisten Medizinprodukten, für die normalerweise nur eine behördliche Genehmigung erforderlich ist, müssen KI-Dienste möglicherweise zusätzlich überprüft werden, wenn sie aus neuen Daten lernen.
Einige Aufsichtsbehörden überdenken die Bewertung der KI für das Gesundheitswesen. Im April veröffentlichte die US-amerikanische Gesundheitsbehörde FDA ein Diskussionspapier, um ein öffentliches Feedback zur Aktualisierung der relevanten behördlichen Überprüfung zu erhalten. „Wir versuchen hier ständig, unser Ziel, den Menschen Zugang zu Technologien zu ermöglichen, wieder zu verwirklichen. Wir stellen jedoch auch fest, dass unsere derzeitigen Methoden nicht ganz richtig funktionieren“, sagt Bakul Patel, Direktor für digitale Gesundheit am FDA. „Deshalb müssen wir uns einen ganzheitlichen Ansatz über den gesamten Produktlebenszyklus ansehen.“
Zusätzlich zu den Fragen in Bezug auf Zugang, Datenschutz und Vorschriften ist nicht klar, wer am meisten von den AI-Gesundheitsdiensten profitieren kann. Es gibt bereits Unterschiede in der Gesundheitsversorgung: Nach Angaben der Weltbank und der Weltgesundheitsorganisation hat die Hälfte der Weltbevölkerung keinen Zugang zu grundlegenden Gesundheitsleistungen, und fast 100 Millionen Menschen werden durch die Gesundheitsausgaben in extreme Armut getrieben. Je nachdem, wie es eingesetzt wird, kann die KI diese Ungleichheiten verbessern oder verschlimmern.
„In der AI-Diskussion ging es viel um die Demokratisierung der Gesundheitsversorgung, und ich möchte, dass dies geschieht“, sagt Effy Vayena, Bioethiker an der Eidgenössischen Technischen Hochschule in der Schweiz.
"Wenn Sie am Ende nur einen besseren Service für diejenigen haben, die sich sowieso eine gute Gesundheitsversorgung leisten können", fügt sie hinzu, "bin ich mir nicht sicher, ob das die Transformation ist, nach der wir suchen."
Wie sich dies alles auswirkt, hängt von den unterschiedlichen Visionen für die Implementierung von AI ab. Die frühe Entwicklung konzentrierte sich auf sehr enge diagnostische Anwendungen, wie das Überprüfen von Bildern auf Hinweise auf Hautkrebs oder Nagelpilz oder das Lesen von Röntgenbildern der Brust. In jüngerer Zeit wurde jedoch versucht, mehrere Erkrankungen gleichzeitig zu diagnostizieren.
Im August 2018 wurden Moorfields Eye Hospital in Großbritannien und DeepMind. Das in London ansässige KI-Labor von Googles Mutterunternehmen Alphabet zeigte, dass es ein KI-System erfolgreich trainiert hatte, um mehr als 50 Augenkrankheiten in Scans zu identifizieren, die der Leistung führender Experten entsprachen. Ähnlich weitreichende Ambitionen haben die Studie von San Diego und Guangzhou vorangetrieben, in der KI auf die Diagnose häufiger Erkrankungen bei Kindern trainiert wurde. Letzteres war im Vergleich zu älteren Ärzten nicht so gut bei der Diagnose von Kinderkrankheiten, aber es schnitt besser ab als einige Juniorärzte.
Solche KI-Systeme müssen möglicherweise nicht die besten menschlichen Experten übertreffen, um zur Demokratisierung der Gesundheitsversorgung beizutragen, sondern lediglich den Zugang zu den aktuellen medizinischen Standards erweitern. Bislang konzentrieren sich viele vorgeschlagene KI-Anwendungen auf die Verbesserung des derzeitigen Versorgungsstandards, anstatt eine erschwingliche Gesundheitsversorgung zu verbreiten, so Cohen: „Die Demokratisierung dessen, was wir bereits haben, wäre ein viel größerer Knall für Ihr Geld als die Verbesserung dessen, was wir haben viele Bereiche. "
Accenture, ein Beratungsunternehmen, prognostiziert, dass Top-KI-Anwendungen der US-Wirtschaft bis 2026 150 Milliarden US-Dollar pro Jahr ersparen könnten. Es ist jedoch unklar, ob Patienten und Gesundheitssysteme, ergänzt durch Steuergelder, davon profitieren würden oder ob einfach mehr Geld an die Technologieunternehmen fließen würde, Gesundheitsdienstleister und Versicherer.
„Die Frage, wer das antreibt und wer dafür bezahlt, ist eine wichtige Frage“, sagt Kohane. "Etwas halluzinatorisch an all diesen Geschäftsplänen ist, dass sie glauben zu wissen, wie es funktionieren wird."
Auch wenn AI-Dienste kostensparende Empfehlungen aussprechen, können Humanärzte und Organisationen des Gesundheitswesens zögern, AI-Ratschläge einzuholen, wenn sie dadurch weniger Geld verdienen, warnt Kohane. Dies spricht für das größere systemische Problem der US-Krankenversicherer, die ein Gebührenmodell verwenden, mit dem Ärzte und Krankenhäuser häufig für das Hinzufügen von Tests und medizinischen Verfahren belohnt werden, auch wenn diese nicht benötigt werden.
***
Es gibt noch eine andere KI-Möglichkeit, die die Qualität der Versorgung verbessern könnte, während die meisten medizinischen Diagnosen den Ärzten überlassen bleiben. In seinem Buch Deep Medicine aus dem Jahr 2019 spricht Eric Topol, Direktor und Gründer des Scripps Research Translational Institute, davon, im Wesentlichen eine aufgeladene medizinische Siri zu schaffen - eine AI-Assistentin, die Notizen über die Interaktionen zwischen Ärzten und ihren Patienten macht und diese Notizen in die elektronische Gesundheit eingibt Aufzeichnungen, und erinnern Sie die Ärzte daran, nach relevanten Teilen der Krankengeschichte des Patienten zu fragen.
"Mein Ziel ist es, die Arbeit der Ärzte zu entlasten und ihre Rolle als Datenschreiber loszuwerden, den Patienten dabei zu helfen, mehr Verantwortung zu übernehmen und die Daten zu erfassen, damit die Überprüfung nicht so lange dauert", sagt Topol.
Für diesen „niemals vergesslichen medizinischen Assistenten oder Schreiber“, sagt Kohane, wäre eine KI erforderlich, die automatisch mehrere Stimmen zwischen Ärzten und Patienten nachverfolgen und übertragen kann. Er unterstützt die Idee von Topol, fügt aber hinzu, dass die meisten AI-Anwendungen in der Entwicklung nicht auf solche Assistenten ausgerichtet zu sein scheinen. Einige Unternehmen wie Saykara und DeepScribe haben jedoch Dienste in diesem Sinne entwickelt, und sogar Google hat sich mit der Stanford University zusammengetan, um eine ähnliche „Digital Scribe“ -Technologie zu testen.
Ein KI-Assistent mag weniger aufregend klingen als ein KI-Arzt, aber er könnte den Ärzten die Möglichkeit geben, mehr Zeit mit ihren Patienten zu verbringen und die allgemeine Versorgungsqualität zu verbessern. Insbesondere Hausärzte verbringen häufig mehr als die Hälfte ihrer Arbeitstage mit der Eingabe von Daten in elektronische Patientenakten - ein Hauptfaktor für das physische und emotionale Burnout, das schwerwiegende Folgen hat, darunter Todesfälle bei Patienten.
Ironischerweise sollten elektronische Patientenakten die medizinische Versorgung verbessern und die Kosten senken, indem Patienteninformationen zugänglicher gemacht werden. Jetzt wiesen Topol und viele andere Experten auf elektronische Patientenakten hin, um den aktuellen Hype um KI in der Medizin und im Gesundheitswesen zu untermauern.
Durch die Implementierung elektronischer Patientenakten ist bereits ein Patchwork-System entstanden, das auf Hunderte von privaten Anbietern verteilt ist und das hauptsächlich dazu beiträgt, Patientendaten zu isolieren und für Ärzte und Patienten unzugänglich zu machen. Wenn die Geschichte ein Leitfaden ist, werden viele Technologieunternehmen und Gesundheitsorganisationen den Drang verspüren, ähnliche Wege zu beschreiten, indem sie medizinische Daten für ihre eigenen KI-Systeme horten.
Ein Weg, dies zu umgehen, könnte darin bestehen, ein kollektives Intelligenzsystem zu verwenden, das medizinisches Fachwissen aus verschiedenen Quellen aggregiert und zusammenfasst, sagt Komarneni, der diesen Ansatz mit Human Dx versucht. Human Dx wurde von großen medizinischen Organisationen wie der American Medical Association unterstützt und hat eine Online-Plattform für Crowdsourcing-Beratung von Tausenden von Ärzten zu bestimmten medizinischen Fällen aufgebaut. Komarneni hofft, dass eine solche Plattform theoretisch eines Tages auch diagnostische Ratschläge von vielen verschiedenen KI-Diensten beinhalten könnte.
"Auf die gleiche Weise, wie mehrere menschliche Fachkräfte Ihren Fall in Zukunft betrachten könnten, gibt es keinen Grund, warum mehrere KI dies nicht tun könnten", sagt Komarneni.
Während Ärzte auf ihre KI-Helfer warten, könnten Crowdsourcing-Projekte wie Human Dx „definitiv zu einer verbesserten Diagnose oder sogar zu verbesserten Therapieempfehlungen führen“, sagt Topol, der eine Studie von 2018 auf einer ähnlichen Plattform namens Medscape Consult mitautorisierte. Das Papier kam zu dem Schluss, dass die kollektive menschliche Intelligenz eine „wettbewerbsfähige oder komplementäre Strategie“ zur KI in der Medizin sein könnte.
Wenn KI-Dienste jedoch alle Tests und realen Prüfungen bestehen, können sie wichtige Partner für den Menschen bei der Umgestaltung des modernen Gesundheitswesens werden.
„Es gibt Dinge, die Maschinen niemals gut können, und andere, bei denen sie über das hinausgehen, was ein Mensch kann“, sagt Topol. "Also, wenn Sie die beiden zusammenfügen, ist es ein sehr mächtiges Paket."
***
Jeremy Hsu arbeitet als freier Journalist in New York City. Er schreibt unter anderem häufig über Wissenschaft und Technologie für Backchannel, IEEE Spectrum, Popular Science und Scientific American.
Dieser Artikel wurde ursprünglich auf Undark veröffentlicht. Lesen Sie den Originalartikel.