KI und Medizinprodukte – wo stehen wir?

02. Juni 2023
Prof. Dr. Ulrich M. Gassner

ChatGPT & Co.


Der Chatbot ChatGPT liefert Antworten auf alle möglichen Fragen, auch medizinische. Ein Hamburger Medizinrechtler wertet ihn deshalb als Medizinprodukt. Freilich ist auch hier die Hürde der Zweckbestimmung relevant. Fragt man ChatGPT selbst, erhält man daher kaum zufällig die Antwort, es handle sich bei ihm nicht um ein Medizinprodukt, sondern nur um eine Textgenerierungsplattform. Dennoch bleibt die Nutzung solcher oder anderer Formen generativer KI in künftigen intelligenten Medizinprodukten natürlich nicht ausgeschlossen.

Die künftige Regulierung generativer KI ist auch Gegenstand des am 16. Mai 2023 veröffentlichten Berichtsentwurfs der beiden federführenden Ausschüsse des Europäischen Parlaments. Dort findet sich eine begrifflich nicht ganz klare Unterscheidung zwischen „Foundation Models“ und General Purpose AI systems (Allzweck-KI-Systemen). Mit ersterem Begriff sollen wohl − so die in der Informatik verbreitete Terminologie − „Basismodelle“, also hoch entwickelte KI-Modelle, wie z.B. gerade ChatGPT, erfasst werden.

Manche Anforderungen im Berichtsentwurf, wie die Transparenzpflicht („ChatGPT-Regel“), erscheinen absolut sinnvoll und gehen in die richtige Richtung. Andere Vorschläge sind schlicht innovationsfeindlich und treffen besonders kleinere Hersteller und Entwickler. So sollen alle „Foundation Models“ auch Risikobewertungen, Risikominderungsmaßnahmen und Risikomanagementstrategien im Hinblick auf vernünftigerweise vorhersehbare Risiken für die Gesundheit, die Sicherheit, die Grundrechte, die Umwelt, die Demokratie und die Rechtsstaatlichkeit umsetzen müssen, und zwar unter Einbeziehung unabhängiger Sachverständiger. Diese Forderung kommt faktisch einer Einstufung von „Foundation Models“ als generell risikoreich gleich. Ihre Realisierung ist ungemein aufwändig und dürfte Open-Source-Entwickler und viele KMU finanziell überfordern.

Dasselbe gilt auch für die Forderung, dass neue Anbieter spezifischer Anwendungen im Hochrisikobereich, wie z.B. Hersteller intelligenter Medizinprodukte, die das AI-System erheblich verändern und an die Stelle des ursprünglichen Anbieters treten, eine Grundrechtsfolgenabschätzung vornehmen sollen. Operativ dürfte das kaum darstellbar sein.

Sonstige neue Regulierungsvorschläge und Ausblick


Die vorgeschlagene neue Legaldefinition eines KI-Systems („ein maschinenbasiertes System, das für den Betrieb mit unterschiedlichem Autonomiegrad entworfen ist und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen generieren kann, die physische oder virtuelle Umgebungen beeinflussen“) orientiert sich an der OECD-Definition und vermeidet damit die allgemein kritisierte Weite im Kommissionsentwurf.

Auf die Kritik an der mit Blick auf Medizinprodukte bestehenden Unklarheit doppelter Anforderungen wollen die Ausschussmitglieder mit einem Berücksichtigungsgebot reagieren: Mit der ausdrücklichen Zielsetzung, die Angleichung an MDR und IVDR sicherzustellen und Duplikate zu vermeiden, sollen die spezifischen Anforderungen an Medizinprodukte berücksichtigt werden. Dies stellt einen gewissen Fortschritt dar, doch ist unklar, was dies konkret bedeutet. Namentlich mangelt es an einer klaren Vorrangregelung. Schließlich bleibt festzustellen, dass das Pflichtengefüge für Entwickler, Anbieter und Bereitsteller intelligenter Medizinprodukte ausgeweitet wird, namentlich in Bezug auf die menschliche Aufsicht.

Voraussichtlich wird das Parlament am 12. Juni 2023 den Entwurf in der vorgeschlagenen Fassung verabschieden, worauf dann der sog. Trilog unter Einbeziehung des Rates und der Kommission beginnen wird.