Man könnte argumentieren, dass eine der Hauptaufgaben eines Arztes darin besteht, die Chancen ständig zu bewerten und neu zu bewerten: Wie hoch sind die Erfolgsaussichten eines medizinischen Eingriffs? Besteht für den Patienten das Risiko, schwere Symptome zu entwickeln? Wann sollte der Affected person zu weiteren Assessments zurückkehren? Inmitten dieser kritischen Überlegungen verspricht der Aufstieg der künstlichen Intelligenz, das Risiko im klinischen Umfeld zu verringern und Ärzten dabei zu helfen, der Versorgung von Hochrisikopatienten Priorität einzuräumen.
Trotz ihres Potenzials fordern Forscher der MIT-Abteilung für Elektrotechnik und Informatik (EECS), Equality AI und der Boston College eine stärkere Überwachung der KI durch die Regulierungsbehörden ein neuer Kommentar veröffentlicht in der New England Journal of Drugs AI’s (NEJM AI) Oktoberausgabe, nachdem das US-Büro für Bürgerrechte (OCR) im Ministerium für Gesundheit und menschliche Dienste (HHS) eine neue Regelung im Rahmen des Inexpensive Care Act (ACA) erlassen hat.
Im Mai veröffentlichte die OCR eine letzte Regel im ACA, der Diskriminierung aufgrund von Rasse, Hautfarbe, nationaler Herkunft, Alter, Behinderung oder Geschlecht in „Instruments zur Entscheidungsunterstützung für die Patientenversorgung“ verbietet, einem neu eingeführten Begriff, der sowohl KI als auch nicht automatisierte Instruments umfasst, die in der Medizin verwendet werden.
Entwickelt als Reaktion auf den Vorschlag von Präsident Joe Biden Government Order zur sicheren und vertrauenswürdigen Entwicklung und Nutzung künstlicher Intelligenz Ab 2023 baut die endgültige Regelung auf dem Engagement der Biden-Harris-Regierung auf, die gesundheitliche Chancengleichheit zu fördern, indem sie sich auf die Prävention von Diskriminierung konzentriert.
Laut Marzyeh Ghassemi, leitender Autor und außerordentlicher Professor des EECS, „ist die Regel ein wichtiger Schritt nach vorne.“ Ghassemi, der mit der MIT Abdul Latif Jameel Clinic for Machine Studying in Well being (Jameel Clinic), dem Pc Science and Synthetic Intelligence Laboratory (CSAIL) und dem Institute for Medical Engineering and Science (IMES) verbunden ist, fügt hinzu, dass die Regel „ sollte gerechtigkeitsorientierte Verbesserungen der Nicht-KI-Algorithmen und klinischen Entscheidungsunterstützungstools vorschreiben, die bereits in allen klinischen Subspezialitäten verwendet werden.“
Die Zahl der von der US-amerikanischen Meals and Drug Administration zugelassenen, KI-fähigen Geräte ist im letzten Jahrzehnt seit der Zulassung des ersten KI-fähigen Geräts im Jahr 1995 (PAPNET Testing System, ein Device für das Gebärmutterhals-Screening) dramatisch gestiegen. Stand OktoberDie FDA hat quick 1.000 KI-fähige Geräte zugelassen, von denen viele darauf ausgelegt sind, die klinische Entscheidungsfindung zu unterstützen.
Forscher weisen jedoch darauf hin, dass es keine Regulierungsbehörde gibt, die die klinischen Risikobewertungen überwacht, die von Instruments zur Unterstützung klinischer Entscheidungen erstellt werden, obwohl die Mehrheit der US-Ärzte (65 Prozent) diese Instruments monatlich verwendet, um die nächsten Schritte festzulegen Patientenversorgung.
Um dieses Manko zu beheben, wird die Jameel Clinic ein weiteres durchführen Regulierungskonferenz im März 2025. Die Konferenz vom letzten Jahr löste eine Reihe von Diskussionen und Debatten zwischen Lehrkräften, Regulierungsbehörden aus der ganzen Welt und Branchenexperten aus, die sich auf die Regulierung von KI im Gesundheitswesen konzentrierten.
„Klinische Risikobewertungen sind weniger undurchsichtig als ‚KI‘-Algorithmen, da sie typischerweise nur eine Handvoll Variablen umfassen, die in einem einfachen Modell verknüpft sind“, kommentiert Isaac Kohane, Vorsitzender der Abteilung für Biomedizinische Informatik an der Harvard Medical Faculty und Chefredakteur von NEJM KI. „Dennoch sind selbst diese Ergebnisse nur so intestine wie die Datensätze, die zu ihrem „Coaching“ verwendet wurden, und wie die Variablen, die Experten ausgewählt oder in einer bestimmten Kohorte untersucht haben. Wenn sie die klinische Entscheidungsfindung beeinflussen, sollten für sie die gleichen Requirements gelten wie für ihre neueren und weitaus komplexeren KI-Verwandten.“
Darüber hinaus nutzen viele Entscheidungsunterstützungstools zwar keine KI, Forscher weisen jedoch darauf hin, dass diese Instruments ebenso für die Aufrechterhaltung von Vorurteilen im Gesundheitswesen verantwortlich sind und einer Aufsicht bedürfen.
„Die Regulierung klinischer Risikobewertungen stellt erhebliche Herausforderungen dar, da in elektronischen Krankenakten immer mehr Instruments zur Unterstützung klinischer Entscheidungen eingebettet sind und diese in der klinischen Praxis weit verbreitet sind“, sagt Co-Autorin Maia Hightower, CEO von Equality AI. „Eine solche Regulierung bleibt notwendig, um Transparenz und Nichtdiskriminierung zu gewährleisten.“
Allerdings fügt Hightower hinzu, dass sich die Regulierung der klinischen Risikobewertungen unter der neuen Regierung als „besonders herausfordernd erweisen könnte, da der Schwerpunkt auf der Deregulierung und dem Widerstand gegen den Inexpensive Care Act und bestimmte Antidiskriminierungsrichtlinien liegt.“