KI
Image by Rara Botbuz from Pixabay

Die Verpflichtung von Künstlicher Intelligenz (KI) zur Wahrheit ist ein komplexes Problem, das auch bei Chatbots im Gesundheitswesen relevant ist. Large Language Models (LLMs) wie GPT-4 von OpenAI und PaLM von Google können potenziell nützliche Werkzeuge in der Patientenversorgung sein, bergen jedoch inhärente Risiken, insbesondere wenn es um medizinische Beratung geht.

Ein Hauptproblem besteht darin, dass LLMs falsche oder unangemessene Antworten generieren können, insbesondere wenn ihnen wichtige Informationen fehlen. Im medizinischen Bereich kann dies zu potenziell gefährlichen Situationen führen. Die Qualität und Verlässlichkeit der Antworten von LLMs zu überprüfen, ist eine enorme Herausforderung.

Um KI verlässlicher zu machen, könnten Zulassungsprozesse für LLM-Chatbots im Gesundheitswesen implementiert werden. Aktuelle LLM-Chatbots erfüllen nicht die wichtigsten Prinzipien für KI im Gesundheitswesen, wie Voreingenommenheitskontrolle, Erklärbarkeit, Aufsichtssysteme, Validierung und Transparenz. Eine höhere Genauigkeit, Sicherheit und klinische Wirksamkeit sollten nachgewiesen und von Aufsichtsbehörden genehmigt werden. Unter dem EU-Recht werden Softwareprodukte mit einem solchen Nutzungsumfang im medizinischen Bereich als Medizinprodukte eingestuft und erfordern daher eine entsprechende Zulassung.

Zuverlässigkeit von KI durch Training stärken

Es wird auch betont, dass LLMs kontinuierlich trainiert werden und dadurch zuverlässiger werden. Durch die Verwendung von kontrollierten und validierten medizinischen Texten können rein medizinische Chatbots trainiert werden. Zusätzlich zu Training und Daten sind Qualitätsmanagement und ein umfassender Zugang zu Algorithmen, Daten und Modellen erforderlich, um den Wahrheitsgehalt der Aussagen sicherzustellen.

Es gibt jedoch keine klare Lösung für das Problem, da LLMs eine nahezu unbegrenzte Bandbreite an Eingaben und Ausgaben haben. Die Tendenz, plausible, aber schädliche oder falsche Informationen zu suggerieren, kann daher möglicherweise nie vollständig kontrolliert werden.

Es wird festgehalten, dass LLMs im medizinischen Bereich die gleichen hohen Ansprüche erfüllen sollten wie Ärzte, die täglich Patienten behandeln. Es bedarf weiterer Forschung, Entwicklung von Normen und Vorschriften sowie einer engen Zusammenarbeit zwischen Experten, Regulierungsbehörden und der Industrie, um die Verlässlichkeit von KI im Gesundheitswesen zu verbessern und die Sicherheit der Patienten zu gewährleisten.

Nach oben scrollen