Le 23 septembre 2025, sur la scène Bang du salon Big, Jacques Pommeraud, président‑directeur général du groupe INETUM, a choisi un thème aussi simple qu’explosif pour parler d’intelligence artificielle : la « Vérité ».
Face à la généralisation de l’IA générative, il a rappelé un point essentiel pour tous les professionnels de la tech, de la gouvernance et du risque : un système d’IA ne dit pas « la vérité » ; il produit des sorties probabilistes, parfois biaisées, parfois erronées, parfois manipulables.
Son message, résolument tourné vers l’action, peut se résumer en trois axes utiles pour toute organisation :
- adopter une posture sceptique et transparente, capable de réhabiliter le « je ne sais pas »;
- aligner les projets d’IA sur les valeurs et la stratégie de l’organisation;
- renforcer la gouvernance, les audits, les métriques et la formation pour fiabiliser, sécuriser et rendre acceptable l’IA à grande échelle.
Ce guide propose une lecture opérationnelle de ces enjeux pour vous aider à transformer la question de la « vérité » en avantage stratégique dans vos projets d’IA.
1. Pourquoi parler de « vérité » à l’ère de l’IA générative ?
Avec l’essor des modèles de langage, des agents autonomes et des systèmes prédictifs, beaucoup d’organisations glissent, consciemment ou non, d’une logique de « décision assistée » à une logique de « décision déléguée ».
Dans ce contexte, le thème de la « vérité », choisi pour la scène Bang à Big 2025, est loin d’être philosophique seulement. Il touche au cœur :
- de la fiabilité opérationnelle (qualité des prédictions, robustesse des modèles, continuité d’activité) ;
- de la réputation (confiance des clients, des collaborateurs, des partenaires et des régulateurs) ;
- de la conformité (réglementations sectorielles, droit des données, futur AI Act européen, etc.).
En clair : mal gérer la « vérité » produite par l’IA, c’est prendre le risque de décisions erronées, de discriminations et de crises médiatiques. Bien la gérer, au contraire, permet de :
- créer des avantages compétitifs durables;
- accélérer l’adoption de l’IA par les métiers ;
- renforcer la confiance des instances de gouvernance et des autorités.
2. Les nouveaux risques de l’IA : opérationnels, réputationnels, sociétaux
Jacques Pommeraud a rappelé trois familles de risques qui obligent à repenser la conception et le contrôle des systèmes d’IA.
2.1. Biais algorithmiques et discriminations
Les biais algorithmiques ne sont pas une nouveauté, mais l’industrialisation de l’IA les rend plus diffus, plus rapides, plus difficiles à détecter. Ils peuvent provenir :
- de données d’entraînement déséquilibrées (certaines catégories sur‑ ou sous‑représentées) ;
- de proxies implicites (par exemple, une variable corrélée au genre, à l’origine ou au statut social) ;
- de métriques d’optimisation mal choisies (maximiser la précision globale sans se soucier de l’équité par segment).
Les impacts sont très concrets pour une entreprise :
- décisions de recrutement ou de crédit perçues comme injustes;
- perte de confiance des clients et des collaborateurs ;
- risques juridiques dans des secteurs déjà fortement régulés.
Autrement dit, un modèle performant en moyenne peut être socialement désastreux pour des groupes spécifiques si la gouvernance n’est pas au rendez‑vous.
2.2. Hallucinations des modèles et erreurs de génération
Les modèles génératifs (texte, image, code, audio) peuvent produire des informations :
- fausses mais plausibles (hallucinations) ;
- obsolètes (données non mises à jour) ;
- hors périmètre (confiance excessive sur des sujets qu’ils « ne connaissent pas »).
Ces hallucinations sont particulièrement dangereuses lorsque l’outil est perçu comme une source « autorisée » par les utilisateurs métiers :
- un chatbot client qui donne une information contractuelle erronée ;
- un assistant interne qui invente des références réglementaires ;
- un générateur de code qui propose une implémentation vulnérable.
C’est l’un des messages forts du débat sur la « vérité » : un modèle d’IA peut parler avec assurance tout en ayant tort. D’où la nécessité d’introduire :
- des mécanismes de vérification systématiques ;
- des garde‑fous techniques (RAG, contraintes de sources, filtres) ;
- une culture utilisateur qui ne confonde pas fluidité de langage et exactitude.
2.3. Manipulations, deepfakes et usages malveillants
Enfin, l’IA ouvre un champ immense aux :
- deepfakes (voix, vidéo, images) difficiles à distinguer du réel ;
- campagnes de désinformation ciblées et automatisées ;
- optimisation d’attaques (phishing, fraude, social engineering) à grande échelle.
Pour les entreprises, l’enjeu n’est plus théorique :
- risques de fraude interne via usurpation de voix ou de visuels ;
- crises réputationnelles alimentées par des contenus synthétiques ;
- nécessité de renforcer la cybersécurité et la vérification de l’authenticité des données et contenus.
La conséquence est claire : la gouvernance de l’IA ne peut plus être cantonnée à la DSI ou à la data. Elle doit impliquer la direction générale, la conformité, les métiers, la communication et la cybersécurité.
3. Adopter une posture sceptique : réhabiliter le « je ne sais pas »
Face à ces risques, Jacques Pommeraud plaide pour une posture résolument sceptique : oser dire « je ne sais pas » et accepter que le doute fasse partie intégrante d’un projet d’IA responsable.
3.1. Pourquoi le « je ne sais pas » est un super‑pouvoir de gouvernance
Dans de nombreuses organisations, reconnaître une incertitude est encore perçu comme une faiblesse. Avec l’IA, c’est l’inverse :
- dire « je ne sais pas si le modèle est fiable dans ce cas », c’est ouvrir la porte à la mesure et au test;
- dire « je ne sais pas l’expliquer simplement », c’est déclencher un travail de documentation et de pédagogie;
- dire « je ne sais pas si cela est aligné sur nos valeurs », c’est embarquer les instances de gouvernance (compliance, éthique, RH, etc.).
En pratique, cette posture :
- réduit les décisions hâtives prises sur la seule base de promesses technologiques ;
- facilite le dialogue entre experts data, métiers, juristes et dirigeants ;
- renforce la crédibilité des sponsors IA auprès des régulateurs et des partenaires.
3.2. Traduire le scepticisme en pratiques concrètes
Une posture sceptique n’est pas un frein à l’innovation, au contraire. Elle se traduit par des pratiques très concrètes :
- formaliser des questions systématiques pour chaque projet (sources de données, biais possibles, scénarios d’échec, plan de remédiation) ;
- exiger une preuve de valeur basée sur des tests métiers réels, et pas uniquement sur des POC technologiques ;
- imposer des revues croisées (technique, métier, risque, juridique) avant passage en production ;
- documenter les zones d’incertitude connues (exemples de cas limites, segments peu couverts par les données, etc.) ;
- prévoir des mécanismes de repli (fallback) en cas de détection d’anomalies.
Autrement dit, le scepticisme devient un cadre méthodologique qui sécurise l’innovation au lieu de la ralentir.
4. Aligner l’IA sur les valeurs de l’organisation
Un autre point central du message de Jacques Pommeraud : se baser sur ses propres valeurs pour concevoir et arbitrer les projets d’IA.
Dans beaucoup d’entreprises, les initiatives IA démarrent sur des critères principalement techniques ou économiques :
- « ce modèle est très performant » ;
- « ce cas d’usage a un ROI estimé en 12 mois » ;
- « ce fournisseur propose une intégration rapide ».
Ces critères sont nécessaires, mais largement insuffisants.Un projet d’IA rentable mais en contradiction avec les valeurs de l’organisation devient vite intenable, en interne comme en externe.
4.1. Clarifier les valeurs avant de lancer un projet IA
Pour aligner l’IA sur les valeurs, il est utile de transformer les grands principes (respect, inclusion, transparence, impact environnemental, etc.) en critères opérationnels:
- Quels types de données refusons‑nous de collecter ou d’exploiter, même si cela améliore la performance du modèle ?
- Quels critères d’équité sont non négociables dans nos décisions automatisées ?
- Jusqu’où acceptons‑nous de remplacer un jugement humain par une décision algorithmique ?
- Dans quels cas l’IA doit‑elle rester un outil d’aide, et non un décideur autonome ?
Ces questions doivent être débattues à un niveau de gouvernance (comité éthique, comité de direction, conseil d’administration), pas uniquement au sein des équipes techniques.
4.2. Des dilemmes éthiques fréquents à anticiper
Dans la pratique, plusieurs dilemmes reviennent souvent :
- Personnalisation vs confidentialité: jusqu’où aller dans l’hyper‑personnalisation sans créer un sentiment de surveillance ?
- Performance vs équité: accepter une légère baisse de performance globale pour garantir une meilleure équité entre groupes ?
- Automatisation vs emploi: comment articuler gains de productivité et promesse sociale de l’entreprise ?
- Innovation vs prudence réglementaire: où placer le curseur entre expérimentation rapide et conformité stricte ?
Les organisations qui travaillent ces dilemmes en amont sont celles qui parviennent à déployer l’IA plus vite, car la direction sait déjà quels compromis elle accepte… et lesquels sont exclus.
4.3. Un exemple de bonne pratique (cas fictif)
Imaginons une entreprise de services financiers qui souhaite déployer un moteur de scoring basé sur l’IA :
- elle identifie comme valeur clé la non‑discrimination et la lisibilité des décisions;
- elle décide que certaines variables corrélées à l’origine géographique seront explicitement exclues, même si elles améliorent la performance prédictive ;
- elle met en place une explication systématique du score, accessible par les conseillers et, dans une version simplifiée, par les clients.
Résultat : le modèle est peut‑être légèrement moins performant en pur score statistique, mais il est plus robuste juridiquement, plus accepté socialement, et mieux compris en interne. À long terme, cela crée plus de valeur qu’un modèle opaque mais quelques points plus précis.
5. Construire une gouvernance robuste de l’IA
Pour transformer ces principes en réalité, il faut une gouvernance d’IA structurée. Voici un cadre en six piliers adapté aux entreprises et institutions qui veulent industrialiser l’IA de manière fiable.
5.1. Les 6 piliers d’une gouvernance IA efficace
- Vision et sponsoring de la direction
- Une vision IA claire, reliée aux objectifs business et aux valeurs de l’entreprise.
- Un sponsor exécutif (direction générale, membre du COMEX) clairement identifié.
- Rôles et responsabilités formalisés
- Désigner un ou plusieurs référents IA (Chief AI Officer, Chief Data Officer, etc.).
- Mettre en place des comités IA associant tech, métiers, juridique, compliance, risque, RH.
- Politiques et cadres de référence
- Charte d’usage de l’IA pour les collaborateurs.
- Politique d’évaluation et de validation des modèles avant mise en production.
- Règles de gestion des données (qualité, confidentialité, durée de conservation).
- Gestion des risques IA
- Cartographie des cas d’usage selon leur criticité (impact client, impact réglementaire, impact réputationnel).
- Processus d’analyse d’impact pour les cas d’usage à risque.
- Documentation et traçabilité
- Dossier complet par modèle : données, hypothèses, métriques, limites connues.
- Traçabilité des versions de modèles et des décisions majeures.
- Amélioration continue
- Processus d’audit périodique et de recalibrage des modèles.
- Prise en compte des retours utilisateurs pour faire évoluer les systèmes.
Ce cadre peut être adapté à la taille de l’organisation, mais son principe reste le même : ne plus traiter un modèle d’IA comme un simple projet IT, mais comme un actif stratégique soumis à gouvernance.
6. Audits, métriques et contrôle continu : mesurer la « vérité » de l’IA
Sans métriques, il est impossible de piloter la fiabilité et l’acceptabilité d’un système d’IA. Les organisations matures combinent plusieurs types d’audits et de mesures.
6.1. Trois grandes familles d’audits IA
- Audits techniques
- Qualité des données, robustesse, sur‑apprentissage, dérive de données.
- Tests de performance sur des scénarios de stress ou des cas limites.
- Audits métiers
- Adéquation des prédictions ou recommandations avec la réalité du terrain.
- Analyse coût / bénéfice réel pour les équipes et les clients.
- Audits de conformité et d’éthique
- Respect des régulations sectorielles et de la protection des données.
- Évaluation de l’équité, de la transparence et de l’explicabilité des modèles.
6.2. Des métriques au‑delà de la simple performance
Pour une vision complète, il est utile de suivre un ensemble de métriques couvrant plusieurs dimensions :
| Dimension | Exemples de métriques IA |
|---|---|
| Performance | Taux de précision, rappel, F1‑score, taux d’erreur de génération, temps de réponse. |
| Robustesse | Sensibilité aux perturbations des données, taux de dérive détectée, stabilité des prédictions. |
| Équité | Écarts de performance entre groupes, taux de faux positifs / faux négatifs par segment. |
| Explicabilité | Taux de décisions accompagnées d’une explication, compréhension perçue par les utilisateurs métiers. |
| Sécurité | Nombre d’incidents, résultats de tests d’attaque, exposition aux prompts malveillants. |
| Adoption | Taux d’usage actif, satisfaction des utilisateurs, contournements observés. |
En combinant ces métriques, la direction obtient une vision globale de la « santé » de son portefeuille IA, bien plus riche qu’un simple tableau de bord technique.
7. Former, outiller et responsabiliser les équipes
Un des leviers les plus puissants pour accroître la fiabilité et l’acceptabilité de l’IA reste la compétence humaine. Sans utilisateurs et décideurs formés, même le meilleur cadre de gouvernance restera théorique.
7.1. Développer une culture de « littératie IA »
Pour des publics non techniques (métiers, juridique, risque, RH, direction), l’enjeu n’est pas de coder des modèles, mais de :
- comprendre ce que fait et ne fait pas l’IA;
- identifier les principaux risques (biais, hallucinations, fuites de données, etc.) ;
- savoir poser les bonnes questions aux équipes techniques ;
- intégrer l’IA dans les processus de décision existants.
Des programmes de formation ciblés, des ateliers sur cas réels et des guides pratiques d’usage sont des investissements à forte valeur ajoutée pour l’organisation.
7.2. Former les experts à la gouvernance, pas seulement au code
Côté data scientists, ingénieurs et développeurs, la marche à franchir est souvent la suivante :
- passer d’une logique centrée sur la performance du modèle à une logique intégrant aussi équité, explicabilité, sécurité et conformité;
- être formés aux contraintes réglementaires de leur secteur ;
- maîtriser les outils de monitoring et de traçabilité des modèles en production.
Lorsque les équipes techniques comprennent les enjeux de gouvernance, elles deviennent des alliées naturelles des directions du risque, de la conformité et des métiers.
8. Mécanismes de vérification : ne jamais laisser une IA seule en production
L’un des messages forts associés à la notion de « vérité » est simple : une IA ne doit pas être laissée seule sans garde‑fous dans les processus critiques.
Concrètement, cela signifie mettre en place des mécanismes de vérification proportionnés au niveau de risque :
- Humain dans la boucle
- Validation humaine obligatoire pour les décisions à fort impact (santé, finance, RH, justice interne, etc.).
- Interfaces qui encouragent la relecture critique, et non le simple « clic‑suivant ».
- Contrôles de cohérence automatiques
- Règles métiers codées en dur pour empêcher certaines décisions aberrantes.
- Vérification croisée entre plusieurs modèles ou sources de données.
- Mécanismes de repli (fallback)
- Retour à un processus manuel ou à un modèle plus simple en cas d’anomalie détectée.
- Possibilité pour l’utilisateur de signaler facilement un résultat suspect.
- Surveillance continue
- Alertes automatiques en cas de dérive statistique ou de hausse subite des erreurs.
- Revues périodiques des journaux de décision par les équipes de contrôle.
L’objectif n’est pas de brider l’IA, mais de s’assurer que la valeur créée ne se transforme pas en risque majeur au moindre changement de contexte ou de données.
9. Par où commencer ? Une feuille de route 90 jours pour fiabiliser ses projets IA
À partir des enseignements mis en avant lors de Big 2025, voici une feuille de route pragmatique sur 90 jours pour les organisations qui souhaitent renforcer leur gouvernance IA.
9.1. Jours 0 à 30 : voir clair et poser les bases
- Cartographier les usages IA existants
- Inventorier les modèles et outils IA (internes et externes) déjà utilisés.
- Identifier les processus métiers impactés et les données mobilisées.
- Évaluer la criticité des cas d’usage
- Classer les usages selon leur impact potentiel : client, réputation, réglementation, finances.
- Mettre en évidence les usages « sensibles » à auditer en priorité.
- Nommer un sponsor et un référent IA
- Désigner un sponsor exécutif et un responsable opérationnel du chantier IA.
- Clarifier leur mandat : gouvernance, priorisation, arbitrage.
9.2. Jours 30 à 60 : sécuriser les usages critiques
- Lancer des audits ciblés
- Réaliser un audit technique et métier des cas d’usage les plus critiques.
- Identifier les principaux risques (biais, hallucinations, sécurité, conformité).
- Mettre en place des garde‑fous rapides
- Introduire, si nécessaire, une validation humaine sur les décisions à risque.
- Ajouter des contrôles simples (règles métiers, limites, alertes basiques).
- Élaborer ou mettre à jour une charte d’usage de l’IA
- Définir les principes d’usage internes (données sensibles, secrets d’affaires, etc.).
- Communiquer cette charte à l’ensemble des collaborateurs.
9.3. Jours 60 à 90 : structurer la gouvernance et diffuser la culture
- Mettre en place un comité IA pluridisciplinaire
- Rassembler tech, métiers, juridique, compliance, risque, RH, communication.
- Définir un rythme de suivi (par exemple, mensuel) des projets et incidents IA.
- Définir un premier socle de métriques IA
- Sélectionner quelques indicateurs clés (performance, équité, adoption, incidents).
- Mettre en place un tableau de bord consolidé pour la direction.
- Lancer des actions de formation ciblées
- Sensibilisation des managers et des fonctions de contrôle aux risques de l’IA.
- Ateliers pratiques avec les métiers sur leurs cas d’usage prioritaires.
En 90 jours, sans tout régler, une organisation peut déjà changer radicalement de maturité: passer de projets épars et peu contrôlés à un portefeuille structuré, piloté et aligné sur ses valeurs.
10. Vers une IA plus fiable, acceptable et créatrice de valeur
Le choix du thème de la « Vérité » à Big 2025, et l’intervention de Jacques Pommeraud au nom d’INETUM, soulignent une réalité : la bataille de l’IA ne se joue plus seulement sur la puissance des modèles, mais sur la façon dont nous les concevons, les encadrons et en parlons.
Pour les dirigeants, décideurs tech, responsables risques et conformité, la feuille de route est claire :
- adopter une posture sceptique et transparente, qui ose le « je ne sais pas » et encourage la vérification ;
- ancrer chaque projet IA dans les valeurs et la stratégie de l’organisation ;
- mettre en place une gouvernance structurée, des audits réguliers, des métriques pertinentes et une formation continue des équipes ;
- déployer des mécanismes de contrôle et de repli pour éviter qu’une erreur de l’IA ne devienne une crise d’entreprise.
En agissant ainsi, la question de la « vérité » n’est plus un risque paralysant, mais un levier de confiance et de différenciation. Les organisations capables d’assumer les limites de leurs systèmes, de les expliquer et de les piloter avec rigueur sont aussi celles qui pourront accélérer le plus sereinement dans l’IA, au service de leurs clients, de leurs collaborateurs et de la société.