Dans un récent rapport, la DGSI alerte sur la montée des risques liés aux usages numériques non maîtrisés, notamment en matière d’ingérences et de fuites d’informations stratégiques. Parmi les angles morts identifiés figure la progression du Shadow AI, l’utilisation d’outils d’intelligence artificielle en dehors de tout cadre officiel, souvent à l’insu des organisations elles-mêmes.
Pour Homéric de Sarthe, directeur général de Craft AI, ce phénomène révèle une faille structurelle.
« Le problème n’est pas l’IA en soi, mais son usage hors contrôle. Lorsqu’un collaborateur s’appuie sur une IA non maîtrisée pour analyser, résumer ou produire des contenus à partir de données sensibles, le risque n’est plus théorique. Il devient opérationnel, voire stratégique. Et dans la plupart des cas, personne n’est réellement en mesure d’expliquer ce que fait l’outil, où vont les données, ni comment les décisions ou recommandations sont produites. »
Cette dérive est le symptôme d’un déficit de solutions explicables, observables et maîtrisées. Faute de cadres et d’alternatives industrielles de confiance, les usages se développent de manière diffuse, souvent via des outils soumis à des régulations extra-européennes. La promesse de simplicité et de productivité immédiate l’emporte alors sur la maîtrise à long terme.
« Une IA en boîte noire peut sembler efficace, mais elle empêche toute responsabilité. À l’inverse, une IA en boîte blanche permet de comprendre ce qui se passe, d’auditer les décisions et de sécuriser les usages. Sans explicabilité ni observabilité, il n’y a ni confiance, ni souveraineté possible », poursuit-il.
Au-delà de la cybersécurité, le Shadow AI pose une question de souveraineté informationnelle. Comme le rappelle en creux le rapport de la DGSI, la sécurité numérique ne se décrète pas. Elle se construit, notamment par la gouvernance des usages de l’IA, avant même le choix des technologies.
