Intelligence artificielle en santé - ABGi France

Empathie et Intelligence Artificielle : Vers une Humanisation de l’IA en Santé

Par Alice Durand, Rédactrice Scientifique

Présentation générale du secteur

L’IA comme outil de diagnostic performant

L’intelligence artificielle (IA) a transformé bien des aspects de notre vie quotidienne, et notamment celui de la santé. En fournissant des algorithmes intelligents et des techniques d’apprentissage automatique (ML), l’IA a révolutionné le domaine médical en permettant un diagnostic précis et une planification efficace du traitement.

En effet, l’IA améliore considérablement l’efficacité, la précision et l’efficience des pratiques médicales. Les capacités de l’IA en matière de diagnostic et de détection précoce des maladies améliorent la précision et la rapidité du diagnostic ainsi que la prise en charge des patients. Dès lors, l’automatisation ou l’aide au diagnostic des maladies transmissibles et non transmissibles apparaît comme l’une des principales utilisations de l’IA dans ce domaine.

Par exemple, plusieurs études menées sur l’utilisation des données radiologiques pour la tuberculose, la pneumonie et le paludisme, démontrent soit une précision élevée (>85 % pour tous), soit une non-infériorité par rapport aux outils de diagnostic de comparaison. De même, d’autres travaux réalisés sur le diagnostic des maladies non transmissibles dans les PRFI ont démontré que la précision de l’IA est supérieure à 90% pour la détection de cancers, lorsqu’elle s’appuie sur des méthodes de traitement du signal pour la détection de maladies.

L’empathie comme atout clé pour diagnostiquer la douleur

L’IA possède un fort potentiel pour la reconnaissance de la douleur. Certains patients psychiatriques présentent des expériences de douleur diminuées ou distinctes, et affichent donc souvent des expressions inappropriées de la douleur ou une incapacité à comprendre et à répondre de manière appropriée aux émotions des autres. Dans ce cas, l’IA peut fournir un soutien immédiat et personnalisé aidant les individus ou les médecins à comprendre leurs problèmes de santé et à répondre à de nombreux cas différents. En effet, les travaux de CAO et al. suggèrent qu’une IA peut apprendre à reproduire une rétroaction « empathique » basée sur l’interaction humain-humain : « Le suivi régulier de la douleur par de tels systèmes d’IA d’assistance peut assurer un diagnostic complémentaire, une assistance et un traitement rapide pour les patients psychiatriques, et permettre des réponses empathiques à l’avenir. ».

L’IA comme interlocuteur empathique

ChatGPT est-il un assistant à la fois performant et empathique ?

En 2023, une étude a évalué la capacité d’un assistant chatbot IA (ChatGPT) à apporter des réponses de qualité et empathiques aux questions des patients. Pour y parvenir, « une base de données publique et non identifiable de questions provenant d’un forum public de médias sociaux a été utilisée pour tirer au hasard 195 échanges d’octobre 2022 où un médecin vérifié a répondu à une question publique. En décembre 2022, les réponses du chatbot ont été générées en saisissant la question d’origine dans une nouvelle session […]. La question originale, ainsi que les réponses anonymes et aléatoires des médecins et des chatbots, ont été évaluées en trois exemplaires par une équipe de professionnels de la santé agréés ». L’évaluation concernait à la fois la qualité et l’empathie de l’information fournie. Ils ont également du choisie la « meilleure réponse » entre celle du chatbot et celle des médecins (sans informations pour les différencier).

Les résultats compilés sont sans appel : dans 78,6 % des cas, les réponses du chatbot ont été préférées à celles des médecins. Les réponses du chatbot ont été jugées à la fois de meilleure qualité (prévalence 3,6 fois plus élevée de réponses de bonne ou de très bonne qualité) et plus empathiques (prévalence 9,8 fois plus élevée de réponses empathiques ou très empathiques).

Vers une évolution des pratiques médicales ?

Dès lors, ces résultats suggèrent que les assistants d’intelligence artificielle pourraient être en mesure d’aider à rédiger des réponses aux questions des patients. L’utilisation d’assistants d’IA pourrait ainsi réduire l’épuisement professionnel des cliniciens et améliorer les résultats pour les patients.

En retour, nombre de personnes semblent volontiers accorder leur confiance à l’IA lorsqu’il s’agit de leur santé. D’après une étude parue en septembre 2024 dans le Journal of Pediatric Psychology, des chercheurs de l’Institut Life Span de l’Université du Kansas révélaient que les parents font généralement plus confiance à l’Intelligence Artificielle (IA) qu’aux professionnels de la santé concernant la santé de leurs enfants.

L’IA est-elle vraiment capable d’empathie ?

S’il existe un consensus sur le fait qu’il n’y a pas de limite fondamentale au développement et à l’application de l’IA dans de multiples domaines – y compris la moralité – certains chercheurs affirment qu’il existe au moins une limite dans l’application de l’IA : l’empathie.

En effet, MONEMAYOR et al. déclarent « nous soutenons que l’IA empathique est impossible, immorale ou les deux. L’empathie est une limite de principe pour l’IA […], notre attention ici se limite aux résultats améliorés par l’empathie en médecine clinique et aux raisons pour lesquelles l’IA ne peut pas y parvenir. »

Les différents types d’empathie

Ils distinguent trois types d’empathies : l’empathie émotionnelle, l’empathie cognitive, et l’empathie motivationnelle. La première est biologiquement associée à l’expérience d’émotion, conduisant à une préoccupation empathique pour les autres. La deuxième empathie nous permet de détecter les états mentaux émotionnels des congénères en se représentant leur situation. Cela conduit ensuite à la troisième forme d’empathie, celle motivationnelle (offrir de l’aide), mais pour des raisons différentes – y compris manipulatrices – de celles de l’empathie émotionnelle : « les patients psychopathes sont très doués pour l’empathie cognitive tout en manquant complètement du remords associé à l’empathie émotionnelle. ».

Dès lors, le risque semble évident : créer une IA douée d’une très bonne en empathie cognitive, mais incapable d’empathie émotionnelle, reviendrait-il à créer des « machines « psychopathes » et potentiellement inhumaines » ?

Les axes d’innovation permettant d’humaniser l’IA

L’émotion et la cognition

Tout d’abord, il semble primordial de rappeler que la cognition et l’émotion sont intrinsèquement liées. En effet, elles sont interdépendantes et s’influencent mutuellement : les stimuli émotionnels saillants et l’expérience des états affectifs peuvent avoir un impact sur le traitement comportemental et cognitif, tandis que la cognition est capable d’affecter les émotions. L’étude de l’interaction entre l’émotion et la cognition peut nous aider à créer une IA plus fiable et plus humaine, et à améliorer les interactions homme-machine.

L’IA émotionnelle

Depuis quelques années, l’IA émotionnelle est développée et dédiée à la découverte des émotions humaines. Elle permet aux ordinateurs d’avoir des capacités similaires à celles des humains pour comprendre, interpréter et même exprimer les émotions.

Il existe trois courants principaux dans l’intelligence émotionnelle artificielle :

  • La reconnaissance des émotions : il s’agit de l’application de systèmes informatiques pour reconnaître les émotions humaines dans l’informatique affective.
  • La synthèse des émotions : le principal développement en ce sens concerne la synthèse de la parole, de l’expression faciale et du comportement corporel. Il s’agit d’améliorer le réalisme affectif et social de l’IA, en la dotant de réactions émotionnelles semblables à celles des humains, et ainsi rendre les interactions avec les utilisateurs plus naturelles.
  • L’augmentation des émotions : cela fait référence à l’intégration du principe de l’émotion dans l’IA et son utilisation dans la planification, le raisonnement ou la réalisation d’objectifs plus généraux.
L’IA cognitive

En parallèle, l’IA cognitive développe des systèmes informatiques simulant les fonctions cérébrales humaines. Il s’agit d’imiter les comportements humains et de résoudre des problèmes complexes. Elle doit pouvoir s’adapter en permanence au contexte et à l’environnement afin d’évoluer. L’un des plus célèbre représentant de l’IA cognitive est l’IBM Watson, qui a battu le champion humain dans le jeu Jeopardy en 2011.

En revanche, G. Merriam affirme que la « recherche sur l’intelligence émotionnelle artificielle s’est concentrée sur les émotions dans un sens limité de « boîte noire », […] sans tenir compte des processus et des structures qui constituent l’émotion elle-même ». Or, la psychologie morale suggère que les émotions sont nécessaires au raisonnement moral et au comportement moral. Il est donc nécessaire d’approfondir les recherches dans le domaine de l’informatique affective.

La reconnaissance des émotions

De nouvelles méthodes sont nécessaires pour la reconnaissance vocale et la reconnaissance des émotions, afin de maximiser l’interaction et la collaboration homme-machine. La voix contient ainsi de nombreuses informations sur l’orateur. Pour l’IA, reconnaître et classer les émotions à partir des données vocales est difficile.

A l’aide de la reconnaissance des émotions de la parole (SRE), différentes méthodes ont été développées pour déterminer les propriétés audio et la reconnaissance des émotions. Or, les taux de réussite sont variables en fonction de différentes données telles que la langue ou la culture. De fait, il est nécessaire de disposer de nouvelles méthodes permettant la reconnaissance vocale des émotions.

En ce sens, des chercheurs ont mené des études de classification basées sur un modèle d’émotion discrète, utilisant des données vocales appartenant à différentes bases de données. En comparaison avec les classificateurs classiques, les résultats de l’apprentissage profond sont plus réussis.

Le développement de l’IA cognitive

Ces dernières années, outre l’émotion et la motivation, les chercheurs ont commencé à étudier la contribution de l’IA cognitive à l’engagement. Or, la technologie n’en est qu’à ses débuts, et nécessite d’être approfondie.

Quatre Aspects De L'IA Cognitive Sont Complémentaires - ABGi France

Figure 1 : Quatre aspects de l’IA cognitive sont complémentaires

Trois pistes d’exploration sont mises en lumière par ZHAO et al. : l’exploration des données et des connaissances, l’explicabilité de l’IA multimodale et l’IA hybride.

Concernant la première, il s’agit de soutenir l’engagement analytique, la réglementation, la prise de décision et les approches de découverte. Cela implique des mégadonnées plus variées, des volumes plus élevés et une plus grande vitesse avec le développement technologique.

La seconde concerne notre compréhension des résultats des algorithmes d’IA à mesure que celle-ci devient plus intelligente. Dès lors, l’intelligence artificielle explicable (IAX) fait référence à un type d’IA explicable, qui génère des détails et un traitement de raisonnement pour aider les utilisateurs à comprendre ses fonctions. L’étude de l’explicabilité multimodale de l’IA pourrait avoir diverses applications, notamment dans le domaine de la santé. L’IAX cognitive pourrait aider les médecins dans leurs diagnostics, et aider les patients à une meilleure compréhension de leur santé.

Enfin, l’IA hybride concerne l’intelligence conjointe des êtres humains et des algorithmes. Elle peut renforcer à la fois l’intelligence humaine et l’IA, et les faire co-évoluer en intégrant l’IA cognitive dans le développement. De la même manière que l’explicabilité de l’IA, elle trouve une utilité dans les diagnostics médicaux.

Le test de Turing

Certains chercheurs soutiennent l’hypothèse suivante : il est raisonnable de penser que dans le futur, l’IA émotionnelle atteindra le statut lui permettant de dépasser ses programmes et de vivre une expérience subjective des émotions qu’elle est entraînée à reconnaître. Autrement dit, elle réussira le test de Turing.

Pour rappel, le test de Turing pour l’IA à grand modèle de langage consiste à savoir si elle peut philosopher. Selon M. HO, il ne peut être validé que sous certaines conditions : le contrôle de l’entraînement des données émotionnelles, l’utilisation des différences culturelles dans les émotions, l’utilisation du dialogue, l’utilisation des relations causales entre l’émotion, la raison et l’action, ainsi que la philosophie sur la nature des émotions.

Résultats du test de Turing sur les chatbots

Un test de Turing a été administré aux chatbots IA. Le but est de déterminer leur comportement à travers une série de jeux conçus pour susciter des caractéristiques telles que la confiance, l’équité, l’aversion au risque ou encore la coopération par exemple. Les résultats démontrent que ChatGPT-4 présente des traits de comportement et de personnalité qui sont statistiquement indiscernables d’un humain aléatoire. De plus, : « Les chabots modifient également leur comportement en fonction de l’expérience et des contextes antérieurs « comme s’ils » apprenaient des interactions, et changent leur comportement en réponse à différents cadrages de la même situation stratégique. […] Nous estimons qu’ils agissent comme s’ils maximisaient une moyenne de leurs propres gains et de ceux de leur partenaire. ».

En parallèle, des chercheurs ont effectué un test de Turing sur 3 systèmes (ELIZA, GPT-3.5 et GPT-4). Cela consistait en une conversation rapide entre des participants humains d’une part, et un humain ou une IA d’autre part. Les participants devaient juger si leur interlocuteur était humain ou non. GPT-4 a été jugé humain dans 54 % des cas : « Les résultats ont des implications pour les débats autour de l’intelligence artificielle et, plus urgent, suggèrent que la tromperie des systèmes d’IA actuels pourrait passer inaperçue. »

Défis et perspectives éthiques

Ainsi, les avancées récentes démontrent que l’IA ouvre des perspectives prometteuses pour alléger la charge des professionnels de santé, renforcer la satisfaction des patients et étendre l’accès à des soins de qualité. Cependant, ces développements soulèvent des questions fondamentales sur les limites éthiques et techniques de l’empathie simulée, notamment sur la capacité des IA à dépasser la simple reconnaissance des émotions pour offrir une expérience véritablement humaine. Ce défi souligne l’importance de mener des recherches interdisciplinaires, alliant sciences cognitives, ingénierie, éthique et médecine. En France, un soutien accru au financement de la recherche en IA est indispensable pour transformer ces promesses en réalités concrètes et responsables.

Le financement de la recherche dans l’IA

L’engagement de projets de recherche scientifique dans le domaine de l’IA est stratégique. ABGI a sélectionné quelques guichets de financement dédiés à la recherche en intelligence artificielle :

Appel à projets Thématiques Spécifiques en Intelligence Artificielle (TSIA) 2025

  • Organisateur : Agence Nationale de la Recherche (ANR)
  • Date limite : 17 mars 2025
  • Montant : Maximum 700 000 € par projet
  • Durée : 36 à 48 mois
  • Critères : Au moins 2 partenaires, dont 1 éligible au financement ANR
  • Thématiques :
    • Giga-modèles pour le traitement du langage naturel et des données multimodales
    • Algorithmes d’IA pour les flottes intelligentes de robots
    • Fertilisation croisée de la conception de circuit et de l’IA
    • Algorithmes d’IA pour la cybersécurité.

    Appel à projets “Développement de technologies innovantes critiques – 4e édition”

    • Organisateur : Bpifrance pour le compte de l’État
    • Dates limites : 30 janvier 2025 à 12h et 23 avril 2025 à 12h
    • Montant : 25 millions d’euros
    • Objectif : Soutenir des solutions technologiques souveraines et performantes, notamment en IA et cybersécurité.

    Programme IA Booster France 2030

    • Organisateur : Bpifrance
    • Date limite : 31 décembre 2026
    • Montant total : 25 millions d’euros
    • Cible : PME et ETI françaises, priorité aux entreprises de 10 à 2000 employés avec un chiffre d’affaires supérieur à 250 000 €.

    Appel à manifestation d’intérêt Compétences et Métiers d’Avenir (AMI CMA)

    • Organisateur : Agence Nationale de la Recherche (ANR)
    • Objectif : Répondre aux besoins en formation initiale et continue, ingénierie de formation et attractivité des formations.

    Ces programmes de financement offrent aux entreprises un soutien significatif de leurs travaux de la RD&I en IA. Ils couvrent divers aspects, allant du développement technologique à la formation. Les équipes d’ABGI se tiennent à votre disposition pour vous accompagner dans la quête de ces financements.

    Références bibliographiques

    Intelligence artificielle et santé

    • LESLIE-MILLER, Calissa J., SIMON, Stacey L., DEAN, Kelsey, et al.The critical need for expert oversight of ChatGPT: Prompt engineering for safeguarding child healthcare information. Journal of pediatric psychology, 2024, vol. 49, no 11, p. 812-817.
    • GUPTA, Priyanka et PANDEY, Manoj Kumar. Role of AI for Smart Health Diagnosis and Treatment. In : Smart Medical Imaging for Diagnosis and Treatment Planning. Chapman and Hall/CRC, 2024. p. 23-45.
    • SCHWALBE, Nina et WAHL, Brian. Artificial intelligence and the future of global health. The Lancet, 2020, vol. 395, no 10236, p. 1579-1586.
    • ABBASI, Nasrullah et HUSSAIN, Hafiz Khawar. Integration of Artificial Intelligence and Smart Technology: AI-Driven Robotics in Surgery: Precision and Efficiency. Journal of Artificial Intelligence General science (JAIGS) ISSN: 3006-4023, 2024, vol. 5, no 1, p. 381-390.
    • AYERS, John W., POLIAK, Adam, DREDZE, Mark, et al.Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal medicine, 2023, vol. 183, no 6, p. 589-596.

    Intelligence émotionnelle et empathie en IA

    • MONTEMAYOR, Carlos, HALPERN, Jodi, et FAIRWEATHER, Abrol. In principle obstacles for empathic AI: why we can’t replace human empathy in healthcare. AI & society, 2022, vol. 37, no 4, p. 1353-1359.
    • PERRY, Anat. AI will never convey the essence of human empathy. Nature Human Behaviour, 2023, vol. 7, no 11, p. 1808-1809.
    • CAO, Siqi, FU, Di, YANG, Xu, et al.Pain recognition and pain empathy from a human-centered AI perspective. Iscience, 2024, vol. 27, no 8.
    • MERRIAM, Garret. If AI only had a heart: Why artificial intelligence research needs to take emotions more seriously. Journal of Artificial Intelligence and Consciousness, 2022, vol. 9, no 01, p. 73-91.

    Tests de Turing et similitudes comportementales

    • HO, Manh-Tung. What is a Turing test for emotional AI?. AI & SOCIETY, 2024, vol. 39, no 3, p. 1445-1446.
    • MEI, Qiaozhu, XIE, Yutong, YUAN, Walter, et al.A Turing Test: Are AI Chatbots Behaviorally Similar to Humans?. Available at SSRN, 2023.
    • JONES, Cameron R. et BERGEN, Benjamin K. People cannot distinguish GPT-4 from a human in a Turing test. arXiv preprint arXiv:2405.08007, 2024.

    Reconnaissance des émotions et interaction humain-IA

    • Dolcos, F. ; Katsumi, Y. ; Moore, M. ; et al, Corrélats neuronaux des interactions émotion-attention : de la perception, de l’apprentissage et de la mémoire à la cognition sociale, aux différences individuelles et aux interventions de formation. Névrose. Biobehav. Rev., 2020, 108 : 559-601.
    • Tao, J.H. ; Tan, T.N. Informatique affective : une revue. Dans Actes de la 1ère Conférence internationale sur l’informatique affective et l’interaction intelligente, Pékin, Chine, 22-24 octobre 2005 ; Springer : Pékin, Chine, 2005 ; p. 981 à 995.
    • ZHAO, Guoying, LI, Yante, et XU, Qianru. From emotion AI to cognitive AI. International Journal of Network Dynamics and Intelligence, 2022, p. 65-72
    • SÖNMEZ, Yeşim ÜLGEN et VAROL, Asaf. In-depth investigation of speech emotion recognition studies from past to present The importance of emotion recognition from speech signal for AI. Intelligent Systems with Applications, 2024, p. 200351.


    Lectures associées 

    Projet SILENT : ABGi participe à la Première Assemblée Générale en Allemagne

    Première Assemblée Générale en Allemagne pour le projet SILENT

    Point d’étape | Projet de Loi de finances 2025

    Présenté le 10 octobre dernier en Conseil des Ministres, le Projet de Loi de Finances pour 2025 a déjà connu...

    ECOCEM : Une nouvelle étape pour le site de Dunkerque grâce au dispositif « Première Usine »

    ECOCEM, leader européen indépendant des ciments bas carbone, franchit un cap stratégique en devenant lauréat de la 6ᵉ relève de...