Libres propos sur l’intelligence artificielle (volet 2)
22 jan. 2019 - 10:29,
Tribune
- Par Me Omar Yahia, Cabinet Yahia AvocatsSi les retombées économiques et financières s’annoncent prometteuses, les enjeux éthiques se révèlent fondamentaux.
À cet égard, la mission d’information sur la révision de la loi de bioéthique consacre, dans son rapport, un chapitre entier à l’intelligence artificielle (IA) et préconise l’introduction dans la loi de la « garantie humaine » du numérique en santé et « l’explicabilité des algorithmes ».
Présentée comme le socle du développement de l’IA, la « garantie humaine » est définie par le Comité consultatif national d’éthique et des sciences de la vie (CCNE) comme étant « la garantie d’une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de santé ». Cette « garantie humaine » nécessiterait de « préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique ».
Lors de son audition, le député Cédric Villani a expliqué que le médecin devrait « pouvoir connaître les facteurs déterminants qui, parmi la multitude des données prises en compte par l’algorithme, ont fait pencher la balance du diagnostic d’un côté ou de l’autre », d’après son rapport sur l’IA.
C’est précisément toute la difficulté !
Le système d’IA fonctionne comme une boîte noire, dans la mesure où la connaissance des éléments introduits dans la machine ne permet pas, même à celui qui a mis au point le système, de préjuger des combinaisons réalisées entre eux. Ce qui se passe à l’intérieur est complexe. La validité de la réponse et sa crédibilité reposent sur la confiance portée envers le système.
Le problème de fond, c’est que le système devient tellement complexe et autonome que l’humain ne peut pas vérifier directement sa réponse. Il faut en amont certifier que le système fonctionne bien.
Or, tester un système qui construit seul ses solutions n’est pas chose aisée. Il ne s’agit pas de valider une liste de cas, un par un, mais d’examiner un système conçu pour répondre à une infinité de situations différentes…alors que l’infinité ne se teste pas en séquence. La croissance de l’autonomie du système s’accompagne d’une baisse du contrôle de l’humain sur l’outil qu’il utilise (mais c’était bien l’intention initiale !).
Non seulement le comportement de l’IA devient a prioriimprédictible, mais il peut même demeurer a posterioriinexplicable ou très difficilement explicable.
En donnant des réponses ou en prenant des décisions, sans être capable de les justifier, l’IA en devient opaque.
Lorsqu’un algorithme prend une décision, le processus décisionnel devrait pourtant être transparent : on devrait par exemple savoir comment la décision a été prise. Peut-être certains éléments n’ont-ils pas été pris en compte ? Au contraire, certains éléments non pertinents ont-ils été pris en compte ? Peut-être le traitement même des éléments est-il biaisé sans que l’intéressé ne soit informé de ce biais ?
Si les décisions humaines ne sont pas nécessairement transparentes, il est toujours techniquement possible de dialoguer avec un humain. C’est bien plus difficile avec un algorithme fondé sur l’IA forte.
Ainsi, avant d’être juridiques, les enjeux de l’IA sont d’abord de nature éthique.
Par Me Omar YAHIA
SELARL YAHIA Avocats
Barreau de Paris
www.yahia-avocats.fr