22 janvier 2024

pictogramme temps Lecture 4 mn

Gaia : le chatbot d’intelligence artificielle des métiers du risque

L’intelligence artificielle permet aujourd’hui de gagner un temps précieux en interrogeant une base documentaire volumineuse afin d’obtenir une réponse claire et fiable, ainsi qu’une liste de références, sur un sujet donné. LIFACI a ainsi développé un démonstrateur sécurisé, sur la base de ChatGPT, intégrant la base documentaire de lIIA (IPPF - International Practice Framework), qui devrait être progressivement enrichi de contenus plus opérationnels.

Explorer une base documentaire s'avère souvent être une tâche longue et qui peut devenir source de frustration. Généralement, les moteurs de recherche produisent d'interminables listes de documents à partir de mots clés, laissant à l'utilisateur la charge d'identifier les contenus potentiellement pertinents. Mais l’intelligence artificielle a permis d'importantes avancées dans ce domaine, avec deux innovations majeures : les moteurs de recherche de nouvelle génération et les bases de données vectorielles, permettant aujourd’hui une recherche basée sur l'analyse du sens plutôt que sur des mots-clés. Avec un outil comme ChatGPT, il est possible désormais d'interroger ces bases de données en langage naturel, avec des performances jusque-là inégalées. Pour les professions du risque, cela signifie pouvoir interroger des bases de données de rapports daudit, de tests, de documents de travail, de lois et de règlements, de normes et de procédures... Ainsi que l’ensemble du corpus documentaire de lIIA.

« Avant même la conception de telles solutions, nous avons relevé deux freins à leur utilisation, » relève Philippe Mocquard, délégué général de l’IFACI, « le premier était les enjeux de confidentialité : beaucoup d'entreprises ne souhaitent pas que leurs employés utilisent ce type d'outils pour cette raison de confidentialité. Elles ne veulent pas que puissent être connues et exploitées les questions qui pourraient être posées, pas plus que les réponses générées. Deuxièmement, si rien n’est sourcé, on ne sait pas d'où viennent les informations, et elles peuvent très bien provenir d'une source non fiable ou encore les synthèses être déformées si l’outil est défaillant ».

Assurer la confidentialité des requêtes et sourcer les informations

Gaïa devait donc répondre à ces deux importantes problématiques, en assurant la confidentialité des prompts1 des utilisateurs d’une part et en sourcant les informations obtenues d’autre part. « En ce qui concerne la confidentialité, OpenAI, concepteur de ChatGPT, s'est engagé contractuellement à pas ne pas utiliser les données des prompts, y compris pour ré-entraîner ses futures versions » » nous explique Valentin Laurent, Machine learning engineer chez Quantmetry, qui a accompagné l’IFACI pour ce projet. Par ailleurs, ces requêtes envoyées à OpenAI sont anonymisées. Gaïa peut donc être utilisé de façon sécurisée et anonyme par tous les adhérents de lIFACI, ni OpenAI ni microsoft, héberger de la solution, ne peuvent remonter jusqu’à la personne à l’origine de la requête. « Quant aux réponses apportées par Gaïa sous forme de synthèse, elles sont accompagnées de la source utilisée, » ajoute Philippe Mocquard. « On sait ainsi à partir de quel document a été établie la réponse et l’on peut toujours se référer au document original, dont la fiabilité est éprouvée ».

D’un point de vue technique, Gaia est un démonstrateur construit sur une instance fermée Microsoft Azure, où sont stockés les documents. Elle est gérée par lIFACI, et utilise la version 4 du moteur ChatGPT d'OpenAI. Y sont intégrés actuellement lensemble des documents de lIPPF (International Professional Practice Framework de lIIA) au format PDF. À terme, on peut imaginer qu’un service d’audit interne pourrait utiliser Gaïa pour interroger simultanément cette base documentaire, mais également une base de données interne contenant les données de laudit de l’entreprise et toutes les autres données disponibles de lorganisation. Une utilisation conjointe très utile tout au long de processus opérationnels. « Si vous intégrez dans votre base de données votre démarche d’audit, la manière dont doit être réalisée une mission, un test ou un contrôle sur tel ou tel sujet, en interrogeant le moteur vous pourrez immédiatement les retrouver, » confirme Philippe Mocquard, « vous aurez ainsi une synthèse de ce qui a été réalisé jusqu’ici par l’entreprise ».

Les adhérents de l’IFACI sont d’ores et déjà invités à tester Gaïa. En fonction des retours sur le démonstrateur, des améliorations seront apportées à cette première version et la base de données enrichie de contenus plus opérationnels. « Il y a en effet 3ème niveau d'information, » ajoute Philippe Mocquard, « c'est celui que pourrait fournir la communauté des adhérents de l’IIA. C'est-à-dire les échanges que nous pouvons avoir au travers de nos réseaux, restitués sous la forme soit de webinaires, soit de documents. Avec un niveau de fiabilité sans doute moins élevé que celui des normes, mais représentant une énorme plus-value, notamment lorsque l’on aborde de nouveaux sujets comme la CSRD2  ou l’IA ». Et bénéficier ainsi, en une seule requête, non seulement de réponses règlementaires synthétiques, mais également de l’apport précieux de l’expérience et de l’analyse des 240 000 adhérents de l’IIA.

1 Désigne la formulation de la question que l’on pose à ChatGPT

2 Corporate Sustainability Reporting Directive, publiée en avril 2021, et qui remplace la Non Financial Reporting Directive (NFRD).