Depuis qu’il a été mis en ligne, au printemps 2023, ChatGPT est sur toutes les lèvres. Cet agent conversationnel répond aux questions de manière éloquente, donne de bonnes idées et recherche des informations sur Internet. Certes. Mais ne nous emballons pas ! Car si ChatGPT est souvent qualifié d’intelligence artificielle (IA), il ne faut jamais oublier qu’un chatbot n’est pas intelligent au sens humain du terme. Il génère seulement la réponse la plus probable à la question posée après avoir effectué une analyse statistique d’un corpus de textes. Cela ne veut pas dire pour autant que le contenu de la réponse soit correct ou complet.

Prudence avec les données de la patientèle

On ne peut naturellement pas demander à un logiciel de reproduire des compétences manuelles et des qualités humaines telles que la créativité ou l’empathie. Cependant, des experts sont convaincus que des modèles linguistiques fondés sur des bases de connaissances intelligentes, comme l’est ChatGPT, seront de plus en plus utilisés dans le monde professionnel.

Dans un cabinet dentaire, il existe théoriquement quelques secteurs dans lesquels on pourrait utiliser ChatGPT. Par exemple pour des travaux administratifs ou pour écrire ou traduire des textes simples. Les directives sur la protection des données restreignent toutefois fortement cette fonction, en particulier pour les données de la patientèle qui ne doivent en aucun cas être traitées avec ChatGPT.

Des informations erronées présentées comme une vérité

Pourtant, de nombreux auteurs voient même dans les technologies telles que ChatGPT une plus-value pour les patientes et les patients. Le chatbot pourrait par exemple donner des informations sur la prise de médicaments ou traduire des textes médicaux en langage simplifié. Selon une étude conduite aux États-Unis, un agent conversationnel a même su répondre mieux que des médecins, et avec plus d’empathie, aux questions postées sur un forum de discussion par des patients.

Mais tant que le système fera autant d’erreurs qu’aujourd’hui et qu’il ne pourra pas être personnalisé, il sera inapproprié pour renseigner les patients. La raison est que le chatbot ne donne pas la source de ses informations et, sans connaissances préalables, le patient n’est pas en mesure d’apprécier la validité de la réponse. Pourtant, ce que ChatGPT écrit est présenté comme une vérité, même après une remise en question des réponses. Si les patients sont laissés à eux-mêmes avec cet outil, ils recevront tôt ou tard des informations erronées.

Comment l’IA peut être utilisée judicieusement

Les agents conversationnels publics sont totalement inappropriés pour prendre une décision médicale ou pour obtenir un deuxième avis, car on n’en sait pas assez sur les algorithmes qui ont généré la réponse. D’autant plus que la version publique de ChatGPT n’a pas forcément accès aux données les plus actuelles. Il existe toutefois des disciplines médicales dans lesquelles l’IA est d’ores et déjà utilisée de façon judicieuse, pour analyser de grandes quantités de données, afin de pouvoir reconnaître des modèles. Tel est par exemple le cas en radiologie, pour l’analyse des radiographies, ou en dermatologie, pour la détection des lésions cutanées malignes, ou encore pour le suivi de l’évolution de certaines maladies.

L’IA n’est toutefois utilisée que dans des secteurs limités et sur la base de logiciels agréés pour les tâches en question. Et en tout état de cause, la responsabilité de la décision revient toujours à l’humain.

 

Source : Eggmann et al. : Implications of large language models such as ChatGPT for dental medicine. J Esthet Restor Dent (2023). DOI : 10.1111/jerd.13046