22 janvier 2024

pictogramme temps Lecture 4 mn

« L’IA de confiance est l’affaire de tous, et chaque métier va devoir fixer ses propres standards de qualité »

Quantmetry a accompagné l’IFACI pour le développement de Gaïa, le chatbot reposant sur l’Intelligence Artificielle qui permet aux auditeurs et contrôleurs internes d’accéder directement à un contenu documentaire riche en posant des questions en langage naturel. Gauthier Le Courtois du Manoir, Senior data scientist, et Valentin Laurent, Machine learning engineer, reviennent sur la genèse de ce projet, mais aussi sur l’IA Act, la réglementation européenne qui va encadrer ce type d’algorithmes.

Que peut aujourd’hui concrètement apporter l’intelligence artificielle aux métiers du risque ?

Gauthier Le Courtois du Manoir : De nombreuses tâches liées à l’audit ou au contrôle interne sont chronophages. L’intelligence artificielle permet aujourd’hui d'automatiser un certain nombre de celles-ci, que ce soit des opérations de détection telle que la détection et classification de clauses dans les contrats, ou de prévention pour l’optimisation de contrôle pour amélioration du pilotage du risques.

L'IA permet une forme d'exhaustivité dans les contrôles, difficile à réaliser humainement, ou tout simplement de réaliser des recherches documentaires de façon beaucoup plus rapide. Lorsque vous avez d'énormes corpus de textes règlementaires, un auditeur ne peut pas avoir la connaissance de tout. Ce n'est d'ailleurs pas ce qu'on lui demande. En revanche, il sait que l'information existe et il sait comment aller la chercher. Mais s'il a un outil qui lui permet d'accélérer encore cette recherche, cela représente un énorme gain de temps et de productivité.

On parle d’IA de confiance aujourd’hui. Qu’est-ce qui peut permettre de parvenir à cette IA de confiance ?

G.L.C.dM : Il y a quelques années, il y avait encore peu de cas d'usage IAs en production. Aujourd'hui, on observe une forte montée en maturité des organisations. De plus en plus de systèmes d’IAs sont en production, ce qui augmentent également les risques et les problématiques associés à la production.

Même si l'outil développé fonctionne correctement au moment de son lancement, cette performance n’est pas garantie dans le temps.  Le monde d’hier n’étant pas forcément le monde d’aujourd’hui et dans certain cas il est possible d’observer des dérives de données et de performance du modèle d’IAs au fil du temps.

Comment assurer la robustesse et la bonne évaluation d’un algorithme tout en cherchant à garantir cette performance dans le temps, c’est une partie de l’IA de confiance.

La confiance est quelque chose qui se gagne, pas quelque chose qui se décrète. L'AI Act a été pensé pour préserver les droits fondamentaux des êtres humains.

L'utilisation de l'intelligence artificielle génère des risques et l'AI Act, dont vient de discuter l'Union Européenne, doit poser un cadre légal pour assurer qu’ils sont contrôlés.

« L’IA Act a été imaginé pour sécuriser les risques opérationnels, (…) préserver les personnes et leurs droits fondamentaux »

L’utilisation de l’intelligence artificielle génère des risques. L’IA Act, dont vient de discuter l’Union européenne, doit poser un cadre légal. Qu’en-est-il exactement ?

G.L.C.dM : L’IA Act a été imaginé pour sécuriser les risques opérationnels et donner un cadre légal minimum pour que les cas d'usage considérés comme dangereux soient encadrés. Il faut s’assurer que les algorithmes préservent les personnes et leurs droits fondamentaux, tout en permettant aux acteurs européens de gagner en compétitivité faces aux autres acteurs. Il va s’appliquer à toutes les organisations utilisant des systèmes d’intelligence artificielle en Europe, et même au-delà, puisque toutes celles opérant sur le territoire européen devront s’y conformer. Les sanctions prévues seront particulièrement lourdes financièrement (NDLR : 6% du CA mondial) et les premières amendes devraient arriver d’ici deux ans. L’Europe se pose ainsi en pionnière, mais de nombreux pays, comme les États-Unis ou le Canada, travaillent déjà à leur propre version réglementaire.

Chez Quantmetry, nous avons la conviction que l’IA Act est une réglementation à laquelle il va bien sûr falloir se conformer, mais que ce n’est pas le seul vecteur pour parvenir à de l’IA de confiance. L’IA de confiance, c’est l’affaire de tous et chaque métier va devoir fixer ses propres standards de qualité.

Quelles sont les spécificités de Gaïa, ses principaux apports par rapport aux solutions existantes ?

Valentin Laurent : L’idée était d’avoir un chatbot auquel on voulait donner de la connaissance supplémentaire pour ensuite simplifier des tâches, apporter de la valeur grâce à un corpus documentaire incluant toutes ces normes, en accédant à des synthèses un peu moins théoriques et plus pratiques. Pour cela, il fallait un démonstrateur qui permette rapidement de voir s’il est possible de transférer cette matière, qui est je pense bien ancrée dans la tête de beaucoup d'auditeurs, vers une machine à laquelle on peut poser des questions. C'est ce premier test, qui est je pense plutôt réussi, que nous avons réalisé avec Gaïa. Avec par ailleurs ce que nous avons proposé d’emblée : le fait de pouvoir ajouter à chaque question qui va être posée au chatbot, la possibilité d’obtenir la source de sa réponse, de quel texte elle est tirée par exemple, comme preuve de fiabilité. C’est la différence avec un ChatGPT classique, que l’on ne peut pas « croire sur parole ».

Quelles pourraient être les prochaines étapes ? Comment aller plus loin ?

V.L. : Gaïa, telle que nous l’avons développée, est avant tout un POC (Proof of concept, preuve de concept en français). Un démonstrateur capable d’établir que cela fonctionne, et ce sont les retours des utilisateurs qui nous permettront d’aller plus loin. Je pense qu’une direction intéressante est bien sûr de pouvoir élargir la base documentaire pour aller répondre à des besoins très concrets d'auditeurs, avec des cas d'usage, et de pouvoir accéder à une documentation toujours plus riche et utile.