L'intelligence artificielle (IA) est un domaine qui a toujours suscité un intérêt et une curiosité sans fin, en grande partie parce que la définition même de « l’intelligence » a évolué au fil des époques.
Intelligence artificielle : de quoi parle-t-on ?
Deux figures emblématiques ont façonné notre compréhension de l’IA : Alan Turing et Marvin Lee Minsky.
Alan Turing, mathématicien britannique renommé, a joué un rôle déterminant pendant la Seconde Guerre mondiale en travaillant sur la cryptanalyse de la machine Enigma. Après la guerre, Turing s’est tourné vers la conception des premiers ordinateurs, jetant les bases de l’IA. Le test de Turing, proposé en 1950, est devenu une référence : si lors d’une conversation, un humain ne peut distinguer une machine d’un autre humain, alors la machine est considérée comme ayant une forme d’intelligence. Ce test a été appliqué avec un succès variable, notamment dans le domaine médical.1
Marvin Lee Minsky, du Massachusetts Institute of Technology (MIT), a offert une perspective plus large. Selon lui, l’IA concerne la création de programmes capables de tâches nécessitant des processus mentaux avancés, comme la perception, la mémoire et le raisonnement. Cela signifie que l’IA ne se contente pas de réagir mais qu’elle peut percevoir, comprendre et s’adapter. Aujourd’hui, le terme « IA » est souvent utilisé de manière interchangeable avec celui de « machine learning » (ML), bien que ce n’en soit qu’une sous-discipline. Le deep learning, sous-catégorie du ML, a conduit à des avancées majeures récentes.2 Cependant, il est crucial de comprendre que l’IA ne se limite pas au ML.
Distinguer IA symbolique et apprentissage machine
Il existe deux grandes catégories d’IA : l’IA symbolique, fondée sur des règles établies par des experts, et l’IA fondée sur l’apprentissage machine qui assimile de grandes quantités de données sans règles préétablies.
L’IA symbolique pourrait, par exemple, être utilisée en médecine pour créer un algorithme fondé sur une série de questions diagnostiques, tandis que l’IA fondée sur l’apprentissage machine pourrait être formée à partir de milliers d’images médicales pour diagnostiquer une maladie.
Concernant les techniques d’apprentissage machine, l’apprentissage supervisé est le plus courant. Ici, l’IA est formée avec des données labellisées, apprenant à reconnaître des motifs. À l’inverse, l’apprentissage non supervisé ne repose pas sur des labels, l’IA doit découvrir les motifs elle-même.
De plus, l’IA est classée en IA faible, spécialisée dans une tâche, et IA forte, capable de tâches multiples. Cette dernière est encore largement théorique, en partie à cause du problème du catastrophic forgetting : une IA peut être entraînée à réaliser une seule tâche. Ainsi, si vous lui apprenez une autre tâche, elle « oublie » la précédente.
Comprendre les modèles de décisions, un impératif !
Un défi majeur de l’IA moderne, en particulier celle fondée sur des réseaux de neurones, est son manque d’interprétabilité. Cependant, des avancées récentes ont permis de mieux comprendre comment ces modèles prennent des décisions, ce qui est crucial, surtout dans des domaines sensibles comme la médecine. Dans de nombreux cas, une IA est maintenant capable de fournir un diagnostic ou une prédiction, ainsi que l’explication de son résultat.3,4
Histoire de l’IA et de son utilisation en médecine
L’automatisation par l’intelligence artificielle en médecine s’inscrit dans une longue histoire de machines et d’automates. Depuis les colosses de bronze de l’Antiquité, en passant par les inventions d’Archytas et Héron d’Alexandrie, jusqu’aux horloges sophistiquées de Su Song et Al-Jazari, l’humanité a toujours été fascinée par la création de machines imitant la vie. L’Occident, notamment avec Léonard de Vinci et Jacques de Vaucanson, a cherché à reproduire le vivant, s’inspirant de la théorie de l’animal-machine de Descartes.
Des prémices bien antérieures à la notion d’« IA »
Au Japon, les automates étaient bien perçus, contrairement à l’Occident où ils étaient parfois considérés comme des abominations. Dès le XVIIIe siècle, les automates deviennent plus sophistiqués, comme le canard digérant de Vaucanson ou les créations de l’horloger Pierre Jaquet-Droz. Le XIXe siècle voit l’émergence d’Euphonia, une machine parlante, et du Turc mécanique, un faux automate joueur d’échecs.
Le XXe siècle marque l’avènement de l’IA moderne. Leonardo Torres Quevedo crée le premier automate joueur d’échecs en 1914. Le terme « robot » est introduit en 1920. Les travaux de Warren McCulloch et Walter Pitts dans les années 1940 posent les bases de l’IA connexionniste. Cependant, c’est dans les années 1950 que l’IA prend son envol, avec l’invention du terme « intelligence artificielle » et le développement de machines comme le Perceptron.
Les années 1980 et 1990 sont marquées par des avancées et des reculs. L’IA symbolique, fondée sur des règles, est progressivement abandonnée au profit des réseaux neuronaux. Des chercheurs comme Geoffrey Hinton, Yann Le Cun et Yoshua Bengio jouent un rôle déterminant dans cette transition. En 2012, le deep learning, sous-branche de l’IA, révolutionne la reconnaissance d’images grâce à AlexNet.5 Les géants technologiques, tels que Google, investissent massivement dans ce domaine.
En 2016, AlphaGo de DeepMind bat le champion du monde de go, démontrant la puissance croissante de l’IA.6
À l’aube des années 2020, l’IA est omniprésente, influençant de nombreux domaines, de la médecine à la vie quotidienne. Certains experts suggèrent un retour à une IA hybride, combinant l’IA symbolique et connexionniste.
L’IA a investi le domaine de la santé depuis plus de cinquante ans !
Dans le domaine médical, l’intégration de l’IA est un sujet d’intérêt depuis la fin des années 1960. En 1970, le Dr William Schwartz, dans une contribution visionnaire au New England Journal of Medicine, explore les implications profondes de l’intersection de la médecine et de l’informatique.7 Il prédit que l’informatique pourrait non seulement compléter mais aussi, dans certains cas, remplacer les fonctions intellectuelles traditionnelles des médecins. Schwartz souligne alors les défis potentiels, allant des aspects psychologiques aux implications organisationnelles, légales, économiques et techniques. Il met également en avant l’importance cruciale d’une collaboration étroite entre les médecins, les informaticiens et les gestionnaires pour naviguer dans cette nouvelle ère.
Les années 1970 ont été témoins des premières avancées tangibles en matière d’IA médicale. Des systèmes comme Dendral, spécialisé en chimie organique, et Sumex-AIM, un système de développement de l’université de Stanford,8 ont été parmi les premiers à offrir des ressources informatiques dédiées à la biomédecine. Bien que prometteurs, ces systèmes étaient encore à leurs balbutiements en matière d’IA.
En 1975, une série d’ateliers financés par les National Institutes of Health a été organisée à l’université Rutgers. Ces ateliers ont rassemblé des esprits brillants, dont Edward H. Shortliffe. En collaborant avec Bruce Buchanan, informaticien de Stanford impliqué dans le projet Dendral, et le biochimiste Stanley Cohen, Shortliffe a joué un rôle déterminant dans la création de Mycin.9,10 Ce système innovant offrait des conseils sur l’utilisation d’antibiotiques, tout en fournissant un niveau de confiance pour ses recommandations, une première dans le domaine.
Parallèlement, d’autres systèmes ont émergé, tels Casnet,11 axé sur le diagnostic et le traitement du glaucome, et Internist, qui avait une portée plus large, couvrant la médecine interne.12 Malgré leur potentiel, ces systèmes ont rencontré des défis d’adoption dans la pratique clinique quotidienne.
Quelles sont applications actuelles en médecine ?
Face à la croissance de la numérisation des informations médicales et à l’évolution constante des capacités de traitement, nous sommes témoins d’une montée en puissance de l’IA dans le secteur de la santé.
Aide au diagnostic
Des modèles d’apprentissage automatique peuvent être entraînés pour détecter des maladies à partir d’images médicales, telles que les radiographies, les IRM et les scanners.13 Par exemple, l’IA peut être utilisée pour identifier un cancer du poumon à partir de scanners.14 Pour le dépistage du cancer du sein, une étude récente a montré que l’IA pouvait diviser par deux le temps nécessaire à la lecture de mammographies.15
D’autres applications notables de l’IA en médecine comprennent le diagnostic de la rétinopathie diabétique via l’analyse automatisée du fond d’œil16 et la détection du mélanome à partir d’une simple photo de la peau.17
Prédiction des maladies et médecine personnalisée
L’IA est aussi utilisée pour anticiper l’apparition de maladies. En exploitant des informations génomiques et diverses autres données médicales, les algorithmes d’IA peuvent anticiper la réaction d’un individu à un traitement donné, offrant ainsi aux médecins la possibilité d’adapter les soins à chaque patient.
Ainsi, un algorithme peut être utilisé pour prédire les risques de rechute d’un cancer ou ses chances de guérison dix ou quinze ans à l’avance.18 Il est alors possible de mieux personnaliser les soins et prendre les bonnes décisions en fonction de ces prédictions.
Découverte de médicaments
L’IA permet aussi de stimuler la recherche de médicaments en anticipant l’efficacité d’une molécule avant même ses tests en laboratoire. Plusieurs start-up ont recours à l’IA pour estimer la potentialité d’une molécule face à certaines pathologies, optimisant ainsi la cadence de découverte de nouveaux traitements. Grâce à l’IA, il est également possible de découvrir de nouveaux usages de molécules déjà existantes dans de nouvelles pathologies.
Télémédecine
L’IA a aussi un grand potentiel dans le domaine de la télémédecine. Des outils permettent aux patients de renseigner leurs symptômes sur internet via un smartphone ou un ordinateur ; l’IA propose ensuite une série de diagnostics possibles. Récemment, il a été démontré que ChatGPT pouvait diagnostiquer 85 % des maladies d’un ensemble donné, tandis que les médecins n’en identifiaient que 65 %.19 Ces applications pourraient faciliter l’accès à des soins primaires pour ceux résidant dans des régions éloignées, ou accélérer le triage aux urgences.
Mais des limites existent…
L’IA en médecine présente des risques tels que des diagnostics erronés dus à des algorithmes imparfaits, des préoccupations concernant la confidentialité et la sécurité des données des patients, ainsi qu’une dépendance excessive à la technologie au détriment du jugement clinique humain.
Fiabilité de l’IA en question
L’efficacité de l’IA dépend grandement de la qualité des données avec lesquelles elle est créée. Si les jeux de données ne reflètent pas fidèlement la population ou comportent des anomalies, les conclusions de l’IA peuvent être erronées. Les préjugés inhérents aux données peuvent mener à des situations d’iniquité ou de discrimination, notamment si certains groupes de la population sont insuffisamment représentés. Prenons l’exemple d’une IA conçue pour détecter le mélanome cutané : lors de la publication des résultats dans la revue Nature en 2016, la réalisation avait suscité l’admiration de la sphère scientifique et médicale. Cependant, il s’est révélé par la suite que cette IA était peu performante sur les peaux foncées, du fait de leur faible représentation dans les données initiales.
Sécurité des données, un enjeu majeur
L’IA requiert l’utilisation de vastes volumes de données médicales individuelles. Ces informations, de nature délicate, doivent être soigneusement sécurisées. Elles représentent un enjeu économique majeur. Toutefois, face à la croissance de la connectivité et de la digitalisation, les menaces de fuites de données se multiplient. Si ces informations sont capturées par des individus malintentionnés, elles pourraient servir à des fins néfastes, comme l’usurpation d’identité ou la discrimination.
Responsabilité juridique
Lorsqu’une IA est à l’origine d’une erreur médicale, la détermination de la responsabilité légale s’avère complexe. Qui est en faute ? Le médecin ayant recours à l’IA, son concepteur, l’établissement de santé ou l’entité fournissant les données ?
La législation actuelle ne fournit pas de réponse tranchée, ce qui peut mener à des imbroglios juridiques et freiner la quête de justice des patients.
Dans le futur, deux scénarios pourraient se dessiner : si l’IA effectue une opération qu’un médecin peut également réaliser, un professionnel de santé doit en valider l’issue, s’inscrivant ainsi dans la notion de garantie humaine. Dans ce contexte, la responsabilité du médecin demeure engagée.
En revanche, si l’opération est hors de portée humaine (comme certaines prédictions), aucun médecin ne peut en garantir l’exactitude. La responsabilité d’une faute médicale fondée sur une prédiction erronée demeure donc problématique et pourrait être distribuée entre plusieurs acteurs.
Déshumanisation des soins, revers de l’IA ?
Il s’agit clairement de l’une des plus grandes craintes exprimées par les patients et par les médecins. La médecine repose fortement sur l’interaction humaine et l’empathie. Toutefois, avec la montée en puissance de l’IA, nombreux sont ceux qui craignent de voir la relation médecin-patient se déshumaniser. Cela pourrait compromettre la qualité des soins et dissuader les patients de divulguer des détails essentiels sur leur état de santé. Une étude récente a même révélé que ChatGPT manifestait davantage d’empathie que certains médecins.20
En pratique, il est fort probable que l’IA serve d’outil aux médecins, sans s’y substituer, pour les tâches hautement techniques, leur offrant ainsi plus de disponibilité pour la dimension humaine de leur profession.
Terreau potentiel pour les inégalités de santé
Même si l’IA promet d’optimiser les soins médicaux, elle risque d’accentuer la disparité entre ceux qui bénéficient de ces avancées technologiques et ceux qui en sont privés. Ceci pourrait exacerber les inégalités de santé déjà présentes, surtout dans les zones où l’accès aux technologies de l’information est restreint.
Comment assurer un développement efficace et éthique de l’IA en médecine ?
Les dangers sont multiples, et il est fort possible que d’autres menaces, encore inimaginables à ce jour, émergent. Faut-il alors se détourner de l’IA dans le domaine de la santé ? Devrions-nous adopter une approche ultraprudente ?
La réponse est clairement non. Cela équivaudrait à abandonner un instrument d’une puissance remarquable qui, sans hyperbole, a le potentiel de sauver de nombreuses vies.
En revanche, l’évolution des méthodes devrait se construire autour de cinq axes :
- qualité des données optimisée : pour assurer la fiabilité des diagnostics, il est essentiel que les systèmes d’IA soient formés sur des données exactes, exhaustives et représentatives ;
- protection accrue : les mesures de cybersécurité doivent être renforcées afin de préserver la confidentialité des informations médicales ;
- cadre juridique explicite : une réglementation bien définie est indispensable pour clarifier les responsabilités en cas de défaillances de l’IA, tout en veillant à ne pas imposer une régulation excessive qui pourrait entraver l’innovation ;
- maintien de l’aspect humain : l’IA en santé devrait venir en appui et non en substitution de l’interaction humaine ;
- accessibilité pour tous : il est fondamental d’assurer un accès universel à ces technologies pour prévenir l’aggravation des inégalités de santé.
2. Le Cun Y, Bengio Y, Hinton G. Deep learning. Nature 2015;521:436-44.
3. Lundberg S, Lee SI. A Unified Approach to Interpreting Model Predictions. ArXiv170507874 Cs Stat 2017.
4. Chen C, Li O, Tao C, et al. This Looks Like That: Deep Learning for Interpretable Image Recognition. ArXiv180610574 Cs Stat 2018.
5. Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks. Communications of the ACM 2017;60(6):84-90.
6. Silver D, Huang A, Maddison CJ, et al. Mastering the game of Go with deep neural networks and tree search. Nature 2016;529:484-9.
7. Schwartz WB. Medicine and the Computer. N Engl J Med1970;283:1257-64.
8. Freiherr G, Research Resources Information Center. The Seeds of Artificial Intelligence :SUMEX-AIM. U.S. Dept. of Health, Education, and Welfare, Public Health Service, National Institutes of Health ; Washington, D.C., 1980.
9. Shortliffe EH. Mycin: A Knowledge-Based Computer Program Applied to Infectious Diseases. Proc Annu Symp Comput Appl Med Care 1977;66-9.
10. Shortliffe E. Computer-Based Medical Consultations: MYCIN. Elsevier, 2012.
11. Weiss SM, Kulikowski CA, Amarel S, et al. A model-based method for computer-aided medical decision-making. Artif Intell 1978;11(1-2):145-72.
12. Miller RA, Pople HE, Myers JD. Internist-I, An experimental computer-based diagnostic consultant for general internal medicine. N Engl J Med 1982;307(8):468-76.
13. Hosny A, Parmar C, Quackenbush J, et al. Artificial intelligence in radiology. Nat Rev Cancer 2018;18(8):500-10.
14. Liu M, Wu J, Wang N, et al. The value of artificial intelligence in the diagnosis of lung cancer: A systematic review and meta-analysis. PLoS One 2023;18(3):e0273445.
15. Lång K. Josefsson V, Larsson AM, et al. Artificial intelligence-supported screen reading versus standard double reading in the Mammography Screening with Artificial Intelligence trial (MASAI): a clinical safety analysis of a randomised, controlled, non-inferiority, single-blinded, screening accuracy study. Lancet Oncol 2023;24(8):936-44.
16. Gulshan V, Peng L, Coram M, et al. Development and Validation of a Deep Learning Algorithm for Detection of Diabetic Retinopathy in Retinal Fundus Photographs. JAMA 2016;316(22):2402-10.
17. Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature 2017;542(7639):115-8.
18. Bibault JE, Hancock S, Buyyounouski MK et al. Development and Validation of an Interpretable Artificial Intelligence Model to Predict 10-Year Prostate Cancer Mortality. Cancers 2021;13(12):3064.
19. Mehrotra RH, Andrew Beam Ateev. ChatGPT-assisted diagnosis: Is the future suddenly here? STAT, février 2023.
20. Ayers JW, Poliak A, Dredze M, et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med 2023;183(6):589-96.