L’IA peut-elle venir à bout de la désinformation en santé ?

par | 25 juin 2024 | Explorer

L’IA peut-elle venir à bout de la désinformation en santé ?

Thomas Gouritin – Expert chatbots et intelligence artificielle, créateur d’assistant conversationnel & engagé dans l’acculturation de ce sujet pour les entreprises

Thomas Gouritin, expert chatbots et intelligence artificielle, créateur d’assistant conversationnel et engagé dans l’acculturation de ce sujet pour les entreprises, nous donne des éléments de réponse à cette question dans l’air du temps.

Combiner l’outil IA à l’expertise médicale est fondamental

L’intelligence artificielle seule est un simple outil. Thomas Gouritin considère que « c’est la façon dont sont conçus les algorithmes par des vrais humains qui connaissent le sujet, qui en fait un outil puissant. Cet outil, lorsqu’il est mis au service des professionnels de la santé permet d’analyser plus facilement plus de données, de détecter des signaux faibles, ou encore de comprendre certains comportements de patients sur certaines typologies de pathologie. On peut aussi détecter des récurrences en fonction de la saison ou de facteurs socio-démographiques… Ces tendances statistiques gonflées aux modèles de machine learning peuvent ensuite favoriser la prise de décisions de santé publique. Mais ce n’est pas l’intelligence artificielle en tant que telle qui nous permet de faire ça, c’est son utilisation réfléchie et raisonnée par des experts d’un sujet. »

Détecter plus vite une désinformation, le vrai atout de l’IA

Depuis de nombreuses années, l’analyse des réseaux sociaux permet de réaliser des recherches sur un sujet, de retrouver le point zéro d’une rumeur, son épicentre et ensuite d’analyser comment elle se propage, tout en identifiant les éléments de langage qui contribue à ce qu’elle prenne de l’ampleur. Thomas Gouritin admet que pour « contrer, c’est souvent un peu trop tard », mais qu’il est nécessaire de l’étudier afin de pouvoir « anticiper et mettre en place les mécanismes plus efficaces. On peut se préparer, plus que se prémunir, via une prévention plus solide. Il faut prendre conscience que les algorithmes d’IA comme les modèles génératifs se basent uniquement sur du passé, sur des éléments ayant déjà pu être analysés auparavant. Il est plus difficile d’anticiper de nouveaux phénomènes, notamment pour la désinformation ».

« Mais ce n’est pas l’intelligence artificielle en tant que telle qui nous permet de faire ça, c’est son utilisation réfléchie et raisonnée par des experts d’un sujet.»

Analyser les réseaux sociaux, c’est comprendre les mécanismes de communication en ligne : la façon dont la fausse information s’est propagée, les croyances sur lesquelles les désinformateurs s’appuient. Mais avant toute chose, il est essentiel d’avoir construit des jeux de données permettant de comprendre les occurrences et les récurrences de termes, de formulations et de narratifs utilisés pour construire la fausse information et assurer sa viralité.

Elaborer un jeu de données fiable, une étape non facultative

Pour construire un jeu de données sur une thématique, il est important de récupérer tout le contenu disponible en ligne et en multi sources, potentiellement aidé par des algorithmes, et de le faire analyser par des experts du sujet afin d’établir si une information donnée est falsifiée ou non. Thomas Gouritin nous explique que schématiquement « l’algorithme va apprendre à déterminer si une formulation ou un vocabulaire est lié à un label qui dit « fausse info » ou « pas fausse info ». Quand l’algorithme est entraîné à partir de tous ces contenus expliqués par des humains, il sera capable de dire « par rapport à ce qu’on m’a donné comme exemple et ce que je vois dans cet article-là, il y a un risque de tant de pourcents que ce soit de la « fausse info ». La recherche publique comme privée avance rapidement sur ce sujet, avec des jeux de données ouverts et mutualisés sur de nombreuses thématiques.

La question de qui fournit la donnée d’entraînement et qui décrète, selon des critères que l’on souhaite auditable, si c’est “vrai” ou “faux”, est primordiale. « L’intérêt des outils d’intelligence artificielle est de réussir à traiter un très grand volume d’articles, de vidéos, de posts sur les réseaux sociaux, tout en analysant en même temps les mécaniques de propagation. Cela doit nous permettre de détecter les fake news santé bien plus vite pour agir plus efficacement ».

Enfin, en matière de santé, l’évaluation est une étape cruciale. Celle-ci se doit d’être effectuée en conditions réelles par des experts médicaux en appliquant la méthodologie « comprendre, tracer, auditer et expliquer ».

Le mot qui compte de Thomas Gouritin

Confiance. « Notre rôle en tant qu’expert, c’est d’expliquer quels impacts l’IA peut avoir dans la vraie vie sur des cas du quotidien, avec des mots simples et accessibles à tous. C’est indispensable pour construire les modalités de la confiance afin d’en tirer profit sans fantasmes techno solutionnistes dangereux, au travers d’outils réellement utiles qui viennent compléter les compétences des professionnels de santé, et mieux accompagner le quotidien des patients. »

Dans la même catégorie.