L’intelligence artificielle (IA) bouleverse les repères dans le soin : quels en sont les enjeux éthiques et les perspectives ? Quelles en sont les principales applications aujourd’hui ? Quelles supervisions, quelles régulations faudra-il déployer pour éviter les dérives sans pour autant bloquer toute initiative ? Comment articuler IA et garanties humaines ? Quelles sont les pistes explorées par les instances nationales ? Pour progresser sur ces questions l’Espace de Réflexion Ethique de Nouvelle Aquitaine (ERENA) Bordeaux organise un colloque à Bordeaux, le 22 novembre 2019.
Le soin est, d’un côté, une techné exerçant une compétence déterminée et, de l’autre, une sollicitude d’ensemble pour la vie. Il se décline en différents registres qui vont de la clinique à l’approche relationnelle, à la dimension sociale et au questionnement d’ordre éthique. Le soin est le lieu d’une rencontre et d’un discours entre deux personnes, le soigné et le soignant. L’évolution rapide des technosciences et notamment les progrès dans le secteur de l’intelligence artificielle, appelée aussi médecine algorithmique, bouleversent les repères classiques dans le domaine du soin.
Ces progrès offrent des perspectives thérapeutiques nouvelles mais constituent aussi un véritable défi pour les autorités sanitaires en termes de sécurité, de protection des données personnelles de santé et de qualité. Ils imposent un devoir de lucidité sur les enjeux et les risques. Le questionnement éthique se place alors à différents niveaux : individuel, institutionnel, législatif, sociétal et politique. Conmment ces innovations vont-elles transformer la relation de soin et comment s’y préparer ?
Plusieurs experts livreront leur analyse :
Laurence Devillers, professeur en intelligence artificielle
Anne-Laure Boch, neurochirurgienne, docteur en philosophie
Marie-José Del Volgo, directeur de recherches en psychopathologie et praticien hospitalier
Nelly Le Reun, médecin gériatre
Clément Goehrs, médecin en santé publique
Lucile Dupuy, docteur en sciences cognitives et ergonomie des interfaces
Bernard Nordlinger, professeur d"université-praticien hospitalier, chirurgien spécialiste des cancers digestifs
Parmi les questions abordées, les possibles limites de l’intelligence artificielle et le recours des patients. Ainsi, quand les traitements seront définis par des algorithmes, quelles revendications pourront faire valoir les patients en échec thérapeutique ou subissant des effets secondaires trop importants ? Pourront-ils exiger un droit de regard sur le raisonnement et le processus de décision qui ont amené la définition des stratégies thérapeutiques ?
Le Professeur Bernard Bioulac, directeur du site de Bordeaux de l’Espace de Réflexion Ethique de Nouvelle Aquitaine (ERENA) précise les recommandations émises concernant l’utilisation de l’intelligence artificielle dans la prise de décision.
Professeur Bernard Bioulac : « Les objets connectés infusent et envahissent notre quotidien. Ils collectent, distillent des données alimentant les Big Datas des géants du numérique tels les GAFA (Google, Amazon, Facebook et Apple) et les BATX chinois (Baidu, Alibaba, Tencent et Xiaomi). Ce pillage de données personnelles, réalisé sans un bruit grâce au « citoyen-usager-patient », sa famille et ses aidants, fournit le « carburant » de gigantesques bases de données. Ces dernières, véritable « or noir » du XXIe siècle, deviennent la « noble » nourriture des algorithmes d’intelligence artificielle (IA) et établissent le fondement d’une nouvelle approche de la santé. L’éclosion et l’emballement de cette « santé numérique » donnent lieu, entre autres, à l’utilisation de l’IA pour construire des algorithmes, voir des robots, capables de prise de décision. Ils sont déjà aptes à établir des diagnostics, des pronostics et à définir des stratégies thérapeutiques.
Depuis longtemps, l’automatisation de la prise de décision a préoccupé l’homme. Ainsi dès 1940, Isaac Asimov édictait les trois lois de la robotique : Première Loi : Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé. Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. Troisième Loi : Un robot doit protéger sa propre existence aussi longtemps qu’une telle protection n’est pas en contradiction avec la Première et/ou la Deuxième Loi. Donc l’homme a prééminence de commande sur le robot. C’était dans les années 1940, bien avant l’ère de l’IA…
Cette question se repose aujourd’hui avec acuité. Ainsi le Parlement Européen souhaite la création d’une personnalité juridique spéciale pour les dispositifs utilisant l’IA à des fins de prise de décision, tels les robots. Le Conseil Economique et Social Européen (CESE) n’y est pas favorable. Dans son avis publié en mai 2017, il se prononce contre la création d’une personnalité juridique pour les robots ou dispositifs équivalents. Par contre, il plaide en faveur d’une approche « human-in-command » de l’IA.
Dès lors que l’IA est outil de prise de décision, particulièrement dans le champ de la santé, le CESE pointe plusieurs domaines dans lesquels les réponses doivent être apportées : éthique, gestion des risques, obligation de rendre des comptes, transparence, réglementation, gouvernance…Cette position s’inscrit dans une volonté de faire en sorte que nos normes fondamentales, nos valeurs et les droits de l’Homme soient toujours respectés et garantis. Dans cet esprit, le CESE préconise l’instauration d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’IA.
A cette position européenne, il est intéressant d’analyser ce qui ressort de l’avis 129 du Comité Consultatif National d’Ethique (CCNE). Cet avis 129 est important dans la mesure où il se doit d’être le reflet des débats qui ont eu lieu dans notre pays en 2018, lors des Etats Généraux de la Bioéthique. De plus, cet avis, transmis au Gouvernement, est susceptible d’être intégré dans le corps des lois de bioéthique dont la révision est en cours au Parlement.
Lorsqu’on se penche sur les principales propositions de l’avis 129 en matière « Numérique et Santé », on est frappé par un sentiment « d’en même temps ». En effet, d’un côté « le CCNE considère comme prioritaire la diffusion du numérique en santé et souhaite, qu’en l’état des recherches et du développement de ces technologies, le recours au droit opposable soit circonscrit au maximum. (…) Mettre en œuvre une logique bloquante de réglementation ne serait pas éthique. » Il propose que soit engagée une réflexion sur la création d’instruments de régulation de type « droit souple ». Le rôle de supervision générale pourrait être dévolu à la Haute Autorité de Santé. D’autre part, « le CCNE propose aussi que soit inscrit au niveau législatif le principe fondamental d’une garantie humaine du numérique, c’est-à-dire, la garantie d’une supervision humaine de toute utilisation du numérique en santé et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations le concernant dans le cadre de son parcours de soins. »
Enfin, le CCNE estime « nécessaire que toute personne ayant recours à l’IA dans son parcours de soins en soit préalablement informée afin qu’elle puisse donner son consentement libre et éclairé. »
Au total, il apparaît que tant la Communauté Européenne que notre pays se penchent sur les questions de l’éthique et de la responsabilité soulevées par l’utilisation de l’IA dans la prise de décision en matière de santé numérique : diagnostic et suivi thérapeutique.
La France néanmoins fait prévaloir que pour ne pas nuire au développement de ces nouvelles technologies, on ne doit pas mettre en œuvre une logique « trop bloquante » et avoir recours à des instruments de régulation de type « droit souple » (soft law).
Cependant, la Communauté Européenne et la France insistent sur la maîtrise par l’homme des technologies utilisant l’IA. Cette insistance inclut la responsabilité en matière de risques inhérents à ces procédures (erreurs de diagnostic, échecs thérapeutiques, effets secondaires…). Le texte législatif ira-t-il jusqu’à préciser et définir les niveaux de responsabilité ? Est-ce la responsabilité de celui qui a construit l’algorithme (ingénieur et/ou société), Est-ce celle de celui qui l’a prescrit ou de celui qui l’a mis en œuvre ?
Enfin, il est important de noter que le CCNE réaffirme la nécessité de l’information sur la démarche diagnostique et thérapeutique ayant recours à l’IA pour que le patient donne son consentement libre et éclairé. Dans cette perspective et dans un souci de transparence, il souhaite la mise en place d’un « CCNE numérique » consultable par tout citoyen. »
En savoir plus sur l’ERENA de Bordeaux
Créés par la loi de bioéthique du 6 août 2004 et structurés par l’Arrêté du 4 janvier 2012 qui définit leurs contours et leurs missions, les Espaces de Réflexion Ethique (ERE) Régionaux ont vocation à susciter et coordonner les initiatives en matière d’éthique dans le domaine des sciences de la vie et de la santé. Ils sont adossés aux CHU en région. Dans le cadre des nouvelles régions, les ERE d’Aquitaine, du Limousin et de Poitou Charentes ont fusionné en février 2018 pour constituer l’Espace de Réflexion Ethique de Nouvelle Aquitaine (ERENA). Afin de permettre un maillage territorial et une éthique de proximité, l’ERENA conserve son implantation sur chaque territoire correspondant aux anciennes régions. L’ERENA Bordeaux est dirigée par le Professeur Bernard Bioulac.
http://bordeaux.espace-ethique-na.fr
Télécharger le programme
Contact inscription : 05 57 65 66 53 – href= »mailto:emilie.zambon@chu-bordeaux.fr »