La montée en puissance de l'intelligence artificielle soulève des questions cruciales à la fois sur ses capacités et la portée de sa mise en oeuvre. De l'IA générative aux systèmes de décision, chaque application apporte son lot de défis et de controverses : à travers la quête de la précision, les usages de l’intelligence artificielle mettent en lumière les défis de la fiabilité et de l'éthique.
Pour en retenir une définition pratique et dépassionnée, on peut réduire l’intelligence artificielle essentiellement à un outil statistique complexe, avancé et parfois auto-évolutif, capable, sur la base d’un grand nombre de données d’entrée, de trois tâches principales : classifier, détecter et prédire. Mais si ses résultats sont bons, voire excellents, est-elle fiable pour autant ? La précision, qu’il s’agisse de détection d’un objet, de génération d’un texte ou de prédiction d’un comportement, n’est en effet pas une fin en soi : elle est dictée par un usage ultérieur — analyse, décision, action, etc. Or le résultat obtenu en sortie d’une IA, quel qu’il soit, est dans de nombreux cas impossible à expliquer.
Pourtant, la compréhension des mécanismes qui ont mené à ce résultat — on parle d’explicabilité — est non seulement un gage d’efficacité mais aussi un facteur de confiance dans le dispositif numérique qui l’intègre. La performance reste cependant la priorité des concepteurs, au prix d’“erreurs isolées” [1]. En fonction des contextes d’usage, les limites de l’IA s’expriment ainsi différemment mais renvoient à des questions éthiques similaires.
Ainsi, les IA génératives sont capables de créer des textes ou des images dont la qualité formelle les rend difficiles à distinguer des productions humaines. Malgré cela, elles peuvent générer des informations incorrectes : cette sous-performance les rend peu fiables pour un usage académique ou professionnel. Plus largement, elle interroge notre rapport à la connaissance et à une certaine véracité des faits et des références.
À l’inverse, dans certains systèmes de reconnaissance, la précision dans la détection d’anomalies peut conduire à une surperformance potentiellement problématique : dans l’analyse automatisée d’imagerie médicale, le surdiagnostic conduit à des traitements dont la nécessité est discutable au regard d’une évolution incertaine de signes avant-coureurs. La connaissance et l’expérience sont là aussi mises à l’épreuve : quel chemin médical emprunter quand la précision de l’intelligence artificielle est supérieure à celle du médecin mais que l’intelligence de celui-ci permet d’équilibrer médecine, efficacité et éthique ?
En conséquence, le développement de l’intelligence artificielle nécessite une réflexion approfondie sur ses usages : la quête de la précision est déséquilibrée si elle ne s’accompagne pas d’une réflexion sur son explicabilité et in fine sa portée éthique. Au-delà, elle réclame donc une réflexion sur la décision assistée par intelligence artificielle. Une prise de recul compliquée face à des discours idéologiques et marketing bien rodés.
VUARIN, Louis, et STEYER, Véronique. Le principe d’explicabilité de l’IA et son application dans les organisations. Réseaux, 2023, vol.240, no.04, pp.179-210.