10 questions à se poser pour son IA d’entreprise selon Killian Vermersch

10 questions à se poser pour son IA d'entreprise selon Killian Vermersch

Alors que l’AI Act européen entre progressivement en vigueur, les entreprises, en particulier dans les secteurs bancaires et assurantiels, font face à un double impératif : innover tout en garantissant une conformité totale. Le passage de l’expérimentation à l’industrialisation exige désormais une évaluation rigoureuse des solutions technologiques.

Fort de son parcours d’ancien CTO devenu CEO, Killian Vermersch identifie les dix questions critiques que tout décideur doit poser à son prestataire pour garantir un déploiement pérenne et sécurisé.

 

1. L’IA peut-elle être explicable, démontrable et auditable ? 

Pour les sujets importants pour l’activité de la société et dans les environnements réglementés, comprendre le résultat est aussi crucial que le résultat lui-même. Une IA doit pouvoir expliquer chacune de ses décisions. Cette traçabilité est la condition sine qua non de la confiance et de la conformité réglementaire.

Une IA explicable peut tenter de se justifier sur un résultat, une IA démontrable peut exposer l’ensemble de son raisonnement de manière traçable, et enfin, une IA auditable implique qu’il est possible “d’ouvrir le capot” pour vérifier que cette justification correspond à la réalité du traitement effectué.

2. La souveraineté des données est-elle garantie ?

Il est impératif de savoir où résident les données. La solution technologique doit être souveraine pour assurer que les informations sensibles, notamment dans la finance ou la défense, ne transitent pas par des serveurs tiers non maîtrisés.

Il est notamment important de prendre en compte le Cloud Act américain, qui permet aux États-Unis de récupérer la donnée d’un hébergeur américain même dans un datacenter basé en Europe.

3. La solution est-elle conforme à l’AI Act et aux autres réglementations ? 

À l’horizon 2026, l’anticipation réglementaire n’est plus une option. Le prestataire doit démontrer que sa solution intègre nativement les exigences de transparence, de gouvernance et de maîtrise des risques imposées par le nouveau cadre européen.

Cela commence par connaître son niveau de risque au titre de l’article 6 de l’AI Act (https://artificialintelligenceact.eu/article/6/). Dans le contexte des services financiers comme la banque ou l’assurance, il s’agit souvent de “high risk”. Si c’est le cas, la solution doit être explicable de bout en bout dans ses prises de décisions ou son assistance aux décisions. Même si le projet rentre dans une catégorie moins restrictive, certaines règles de l’AI Act continuent à s’appliquer, ainsi que le RGPD.

4. Quelle est la fiabilité réelle ? 

Pour le traitement de messages critiques, le déterminisme et la démontrabilité doivent primer sur la créativité. L’entreprise doit s’assurer que l’IA est fiable et conçue pour répondre aux exigences opérationnelles des environnements sensibles, sans risque d’erreur aléatoire.

5. La technologie est-elle frugale ? 

L’efficacité ne doit pas se faire au détriment de l’empreinte environnementale. Une IA performante doit être frugale, optimisée pour limiter sa consommation de ressources et s’aligner avec les objectifs RSE des grands groupes.

Une IA frugale utilise également moins de serveurs et d’énergie, ce qui réduit beaucoup le coût de son usage et donc améliore le ROI des projets qui l’utilisent.

Les approches hybrides comme l’IA neuro-symbolique, qui peut combiner des systèmes d’IA Symbolique (basée sur des règles) et des IA Génératives (plus lourdes de part leurs phases d’entraînements qui mobilisent des fermes de GPU) permettent d’allier performance et frugalité, en utilisant pour chaque élément analysé la bonne technologie en bon endroit. Si la demande correspond à un contexte connu elle peut être traitée par une IA Symbolique, ou encore du traitement du langage ou des règles simples, et si elle quitte le contexte une IA Générative peut prendre  le relais.

6. L’outil facilite-t-il l’adoption par les métiers ?

Le déploiement de l’IA ne peut réussir que par l’adhésion des équipes. La solution doit être pensée pour être comprise et adoptée par les collaborateurs, en agissant comme un soutien aux équipes plutôt qu’un outil de remplacement. L’entreprise doit donc vérifier que le setup de la solution est co-construit avec les équipes métiers en interne et accompagné par des experts chez le client.

7. Quel est le délai d’implémentation ? 

Le temps est une ressource critique. La technologie doit permettre une intégration ciblée et pragmatique, capable de réduire les délais de déploiement sans nécessiter des phases d’entraînement interminables. À cela s’ajoute, la capacité d’industrialiser la solution.

8. Le ROI est-il mesurable ? 

L’IA doit servir la performance opérationnelle. Il est essentiel d’exiger des indicateurs clairs sur le retour sur investissement et l’efficacité, comme l’optimisation du traitement des messages entrants et des pièces jointes.

9. Qui maîtrise la configuration (autonomie) ? 

Pour garantir l’agilité, les équipes métiers doivent pouvoir conserver la main sur l’outil. L’IA doit être transparente et « blanche », permettant aux utilisateurs de comprendre et d’ajuster les décisions sans dépendance technique excessive.

La collaboration entre le fournisseur de la solution d’IA, qui agit en tant qu’expert, et celui du client doit être très rapprochée.

10. Le prestataire possède-t-il sa propre technologie ? 

Il est préférable de s’appuyer sur un partenaire disposant d’une technologie propriétaire ou open-source. C’est un gage de pérennité, d’indépendance stratégique et de capacité à faire évoluer le produit en fonction des besoins clients.

Ces réponses sont au cœur de l’identité même de Miralia (ex-Golem.ai). Killian Vermersch et ses équipes ont la conviction que l’intelligence artificielle ne s’imposera durablement que par la confiance.

En s’appuyant sur une technologie d’IA neuro-symbolique propriétaire, explicable et frugale, Miralia a su convaincre les leaders de l’assurance et de la banque. La start-up, qui a enregistré une croissance de 100 % en un an, démontre qu’il est possible de concilier innovation technologique et exigences de conformité.

 

À propos de Miralia

Miralia (ex Golem.ai), fondée en 2016 est une startup française spécialisée dans le traitement intelligent et automatisé des messages entrants.. Sa solution basée sur une IA neuro-symbolique propriétaire permet aux entreprises de mieux gérer leurs messages entrants et leurs pièces jointes tout en offrant une explicabilité totale sur chaque décision. Aujourd’hui, Miralia accompagne les acteurs des services financiers mais aussi de la défense,  du retail et du tourisme dans l’optimisation de leur relation client tout en garantissant l’explicabilité des décisions. La startup a obtenu une dizaine de distinctions telles que le trophée French AssurTech de la startup au plus gros potentiel en 2025.

Miralia compte une trentaine de collaborateurs.

Pour plus d’informations : https://miralia.ai

Ne manquez rien de nos contenus exclusifs !

Recevez nos conseils et actualités directement dans votre boîte mail.
Pas de spam, juste l’essentiel pour rester informé.

Nous ne spammons pas ! Consultez notre politique de confidentialité pour plus d’informations.

par Stéphane

Stéphane Poignant est formateur RH et créateur de jeux sérieux, de guides pratiques et de contenus qui font bouger les lignes. Il explore les coulisses du SIRH, de la data RH et du learning by doing. https://www.linkedin.com/in/stephanepoignant/