L’enjeu n’est plus de déployer des modèles ou des agents d’IA, mais de leur fournir un contexte fiable, maintenable et industrialisable
Avis d'expert de Laurent Carrière, Informatica
L’essor de l’intelligence artificielle agentique transforme en profondeur les architectures data des entreprises : les agents ne se contentent plus d’analyser, ils doivent interpréter et agir sur la donnée. La fiabilité du “trusted context” qui inclut qualité de la data, lignage, règles métier et gouvernance, est donc un prérequis critique pour éviter les décisions erronées ou non conformes. Laurent Carrière, Vice-Président Informatica France, revient sur ces enjeux et explique comment les équipes IT peuvent opérationnaliser ce socle de confiance pour l’IA.
On parle beaucoup de “trusted context” dans l’IA d’entreprise. De quoi s’agit‑il concrètement ?
Le trusted context correspond à l’ensemble des informations qui fournissent un contexte et un sens aux données et permettent à une IA de fonctionner correctement : provenance des données, qualité, relations entre les entités, règles métier, traçabilité des données, ainsi que politiques de sécurité et de conformité.
Dans le cas des agents d’IA, ce contexte est critique car sans lui, un agent peut interpréter les données de manière erronée, générer des recommandations incohérentes ou enfreindre des règles de conformité. À l’inverse, un contexte fiable et bien gouverné permet à l’IA d’agir de façon plus autonome, de prendre des décisions plus pertinentes et d’agir de manière responsable, tout en renforçant la confiance des équipes IT et métiers dans ses résultats.
Pourquoi la création de trusted context est-elle un défi majeur pour les équipes IT aujourd’hui ?
Depuis toujours, construire ce contexte nécessaire à l’IA (action que l’on appelle généralement le context engineering) est un processus complexe, chronophage et largement manuel. Les équipes doivent intégrer des données issues de multiples systèmes disparates, formaliser des règles métier, maintenir des normes rigoureuses en matière de qualité des données et garantir le respect des cadres de gouvernance et de conformité.
À l’ère des architectures hybrides et multi‑cloud, cette complexité augmente encore, alourdissant encore davantage les processus et les coûts d'exploitation. Par conséquent, de nombreux projets d’IA prennent du retard, peinent à passer à l’échelle ou restent cantonnés à des cas d’usage expérimentaux. Pour les DSI et responsables IT, l’enjeu n’est donc plus seulement de déployer des modèles ou des agents d’IA, mais de leur fournir un environnement fiable, évolutif et facile à maintenir, pouvant être généralisé à l'échelle de l'entreprise afin de permettre à l'IA de fonctionner de manière fiable et sécurisée.
Concrètement, comment passe-t-on du concept de “trusted context” à des usages opérationnels pour les agents d’IA ?
Informatica adresse ce défi avec l’Intelligent Data Management Cloud (IDMC), notre plateforme unifiée qui permet d’industrialiser la création et la gestion du trusted context et en combinant l’intégration des données, la qualité des données, la gestion des données de référence (MDM), le catalogage des métadonnées, la traçabilité des données et leur gouvernance afin de fournir aux agents d’IA des données prêtes à l’usage, entièrement documentées et conformes aux exigences réglementaires.
Lorsqu’un agent d’IA doit accomplir une tâche comme générer un rapport ou répondre à une requête formulée en langage naturel, il s’appuie sur cette source de données fiables pour comprendre quelles données sont disponibles, d’où elles proviennent et comment elles sont reliées entre elles. Le catalogue de métadonnées joue ici un rôle central pour orienter l’agent vers les jeux de données les plus pertinents et les plus fiables.
CLAIRE, notre moteur d’IA, intervient alors pour enrichir cette compréhension : il permet de traduire une intention formulée en langage naturel en une requête alignée sur les définitions métier, aux relations entre entités, ainsi qu’aux politiques de qualité et de conformité des données. L’agent est ainsi guidé vers les jeux de données les plus pertinents et les plus dignes de confiance, plutôt que vers une simple réponse techniquement correcte mais déconnectée du contexte métier.
Cette alliance entre IDMC et CLAIRE rend les agents d’IA pleinement opérationnels à l’échelle, en les ancrant dans un cadre de données gouverné, transparent et maintenable, condition indispensable pour une adoption industrielle de l’IA au sein de l’entreprise.