ChatGPT ist seit seiner Veröffentlichung im Frühling 2023 in aller Munde. Der Chatbot beantwortet Fragen eloquent, liefert gute Ideen und recherchiert Informationen aus dem Internet. Bei aller Begeisterung darf man aber nicht vergessen: Zwar ist in Zusammenhang mit ChatGPT häufig von künstlicher Intelligenz die Rede; der Chatbot ist jedoch nicht intelligent in einem menschlichen Sinn. Er beantwortet Fragen, indem er einen Fundus an bestehenden Texten statistisch auswertet und so die wahrscheinlichste Antwort generiert. Das bedeutet nicht, dass die Aussage korrekt oder vollständig ist.

Vorsicht, wenn es um Patientendaten geht

Handwerkliche Fähigkeiten und menschliche Qualitäten wie Kreativität oder Einfühlungsvermögen können natürlich nicht durch eine Software geleistet werden. Experten rechnen aber fest damit, dass im Berufsleben immer häufiger Sprachmodelle mit intelligenten Wissensdatenbanken, wie ChatGPT eines ist, eingesetzt werden.

In der Zahnarztpraxis gibt es einige Bereiche, in denen ChatGPT theoretisch eingesetzt werden könnte. Zum Beispiel für administrative Arbeiten, zum Schreiben oder zum Übersetzen von einfachen Texten. Die Datenschutzrichtlinien schränken diese Funktion aber stark ein. Insbesondere, wenn es um Patientendaten geht. Denn diese dürfen keinesfalls mit ChatGPT verarbeitet werden.

Falschinformationen als Wahrheit präsentiert

Viele Autoren sehen in Technologien wie ChatGPT sogar einen Mehrwert für die Patienten. Der Chatbot könnte Informationen zur Einnahme von Medikamenten liefern oder medizinische Texte in allgemein verständliche Sprache übersetzen. Gemäss einer Studie aus den USA konnte ein Chatprogramm Fragen von Patienten in einem Online-Forum sogar besser und einfühlsamer beantworten als eine Ärztin oder ein Arzt.

Solange das System aber noch dermassen fehleranfällig und nicht personalisierbar ist, eignet es sich nicht für die Patienteninformation. Denn der Chatbot sagt nicht, woher seine Informationen stammen. Ohne Vorwissen lässt sich nicht beurteilen, ob die Antwort richtig ist. Trotzdem präsentiert ChatGPT seine Aussagen wie Wahrheiten, sogar nach kritischen Rückfragen. Patienten, die mit diesem Instrument allein gelassen werden, erhalten früher oder später falsche Informationen.

Wie KI sinnvoll eingesetzt wird

Völlig ungeeignet sind öffentlich zugängliche Chatbots, um eine medizinische Entscheidung zu treffen oder eine Zweitmeinung einzuholen. Dazu ist viel zu wenig bekannt über die Algorithmen, die die Antwort generiert haben. Ganz zu schweigen davon, dass die öffentliche Version von ChatGPT nicht unbedingt Zugriff auf aktuelle Daten hat.

Es gibt aber medizinische Fachgebiete, in denen künstliche Intelligenz bereits heute sinnvoll eingesetzt wird. Die KI durchsucht dabei grosse Datenmengen und erkennt Muster, zum Beispiel beim Analysieren von Röntgenbildern, beim Erkennen bösartiger Hautveränderungen oder beim Monitoring von Krankheitsverläufen. Sie wird aber jeweils nur in einem begrenzten Bereich und mit einer eigens dafür zugelassenen Software genutzt. Die Verantwortung trägt letztlich immer der Mensch.

 

Quelle: Eggmann et al.: Implications of large language models such as ChatGPT for dental medicine. J Esthet Restor Dent (2023) DOI: 10.1111/jerd.13046