- Doctogeek
David Gruson : IA et éthique
Dernière mise à jour : 29 août 2019
Auteur de S.A.R.R.A, une intelligence artificielle (Bêta Publisher), David Gruson est membre du comité de direction de la chaire santé de Sciences-Po Paris et fondateur de l’initiative académique et citoyenne Ethik-IA. Il a co-dirigé le groupe de travail de la préparation de la révision de la loi de bioéthique.
Dans votre roman S.A.R.R.A, l’intelligence artificielle prend une décision radicale qui heurte l’éthique humaine. C’est cela danger de l’IA ?
L’idée était d’explorer la question de l’éthique de l’IA à la lumière d’un cas extrême. C’est un cas d’anticipation sur la gestion d’une crise épidémique dans Paris qui est assez fortement nourri par ce que j’avais vécu avec les équipes du CHU de La Réunion en 2014 où nous avions eu à gérer une suspicion de cas d’Ebola complexe. Ce matériau-là a été très utile, une fois que l’on se met en situation de tension un peu limite, pour essayer de dégager une série de principes sur la régulation positive de l’IA en santé. Il y a une série d’éléments de réflexion qui étaient portés dans S.A.R.R.A qui ont cheminé et qui se retrouvent dans la loi de bioéthique. Le premier principe c’est de dire qu’il ne serait pas éthique de bloquer l’innovation, qu’il y a trop de non-qualité, de sous efficience, dans le système pour avoir une position défensive et conservatrice sur ces sujets.
Tout de même, l’intelligence artificielle soulève d’ores et déjà des questions avec des risques qui ne sont pas que théoriques. Pour autant, n’y a t-il pas beaucoup de fantasmes ?
Nous ne sommes pas dans une situation où les machines seraient capables en toute autonomie de prendre le contrôle des choses. Il fait contrer l’idée qu’il y aurait une quelconque mauvaise intentionnalité de l’IA à notre encontre. Ce sont des programmes qui ont été élaborés pour accomplir une série de tâches avec des usages en pratique qui restent circonscrits à ce qu’on appelle l’apprentissage machine par reconnaissance d’images. D’autres cas d’usage se développent plus sur une idée de pilotage territorial par les données de santé pour dégager des problèmes de santé publique et en déduire, le cas échéant, des mesures de prévention. Il n’empêche qu’une série de zones de risques ont une portée dès aujourd’hui.
Quels sont ces risques ?
Il y a deux types. D’une part ce que l’on pourrait appeler les risques de délégation, à commencer par le risque de délégation de la décision médicale : vous êtes médecin, l’IA vous propose une solution assise sur des centaines de milliers de cas avec 99,9 % de recommandation. Le risque c’est que le médecin se transforme en presse-bouton et ne se pose plus de questions. Mais ça vaut aussi pour le patient, ce qu’on pourrait appeler la délégation du consentement. Au bout d’un certain temps d’usage et de satisfactions antérieures, le risque est que notre capacité à consentir s’évapore en pratique. Par ailleurs, et de façon paradoxale, l’IA a pour vocation, en principe, de faire de la médecine plus personnalisée mais il peut y avoir des moments où la logique collective de l’algorithme peut entrer en contradiction avec l’intérêt individuel. Ce sera cette personne âgée en fin de vie à qui l’IA jugera plus rationnel de ne pas proposer une thérapeutique très coûteuse parce que le budget correspondant serait mieux affecté à l’amélioration du système dans son ensemble. Est-ce que c’est éthique ou pas ? C’est éthique du point de vue de l’amélioration du système, ça ne l’est pas du point de vue de l’intérêt de la personne considérée. Il ne faut pas se fermer à la technologie mais il faut avoir conscience de ses effets collatéraux péjoratifs possibles, associés à des progrès majeurs.
La tentation n’est-elle pas de répondre avec un arsenal législatif lourd et contraignant, peu compatible avec l’agilité nécessaire à l’innovation ?
L’idée est de faire passer le message d’une régulation positive. Nos avons déjà un environnement en France avec le RGPD européen qui est le plus protecteur en termes de droit de la protection des données de santé. Il ne faut pas ajouter de cran complémentaire à cette réglementation. Une sur-réglementation amènerait les professionnels et les patients à se tourner vers des solutions de médecine algorithmique conçues hors du territoire d’application du RGPD et dont on ne pourrait garantir le caractère éthique a priori. Du coup, dan les recommandations que nous avons faites, nous avons eu usage vraiment très économe de la production de droit complémentaire. Dans les recommandations, et il faut le saluer, qui ont été reprises dans le projet de loi bioéthique présenté par la ministre de la santé, il n’y a que deux ajouts et pas plus ! Le premier c’est l’élargissement du devoir d’information du médecin au patient pour qu’il sache que la recommandation du médecin est en réalité assise sur une recommandation faite par l’IA d’une part, et d’autre part, l’introduction de cette notion nouvelle : le principe de garantie humaine de l’intelligence artificielle. Il ne faut pas aller plus avant dans la définition législative sinon on créerait trop de droit.
Le concept de garantie humaine n’est-il pas trop théorique ?
Il faut laisser libre cours à l’innovation et permettre à la fois aux acteurs et aux utilisateurs de cette technologie de déduire d’eux-mêmes les situations dans lesquelles il y aurait besoin d’une supervision humaine. A partir de cette idée et très concrètement, on a développé avec les équipes hospitalo-universitaires Imagine de Necker un projet de référentiels de bonne application de l’IA aux données génomiques qui établit des principes de garantie humaine. Deuxième exemple, on a développé avec la Société française de télémédecine l’idée d’une télémédecine de garantie humaine de l’IA. Ce sera la situation du médecin qui en première ligne est confronté à une proposition de l’algorithme qu’il n’achète pas, entre guillemets, par rapport au cas clinique qui est devant lui et qui appellera un confrère pour lui demander ce qu’il en pense. Le réflexe du « qu’est-ce-que tu en penses ? » est une manière de retrouver un recul critique. Et il n’y a pas besoin de créer de droit puisque ça entre complètement dans le cadre de la définition juridique de la télé-expertise qui reçoit une valeur économique depuis l’avenant 6 de la Convention médicale de 2018. La garantie humaine c’est plutôt une attitude d’esprit, de prise de recul, pour ne pas acheter comptant ce que propose l’IA. ■
¨Propos recueillis par Jean Gaultier