IA et souveraineté numérique : réduire la dépendance sans freiner l’innovation
Et si une IA pouvait détecter votre stress en réunion, votre lassitude en visio ou votre niveau d’engagement sur un projet, sans que vous ne disiez un mot ?
Ces technologies dites “émotionnelles” — capables d’analyser expressions faciales, voix ou gestes — progressent. Leur promesse : mieux comprendre l’humain pour optimiser la performance. Leur réalité juridique en Europe est beaucoup plus claire : dans le monde du travail, l’inférence des émotions est en principe interdite.
Une interdiction explicite dans l’AI Act
Le Règlement (UE) 2024/1689 (“AI Act”) interdit « la mise sur le marché, la mise en service ou l’usage de systèmes d’IA visant à inférer les émotions d’une personne dans le cadre du travail (et de l’éducation) », sauf si l’usage est prévu pour des raisons médicales ou de sécurité (article 5, point (f)).
Source : Parlement et Conseil de l’UE, Règlement (UE) 2024/1689 du 13 juin 2024, JOUE L, 12.7.2024, art. 5 – https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Cette interdiction s’applique depuis le 2 février 2025 pour les pratiques prohibées.
Source : Commission européenne, “Regulatory framework on AI” – https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
Le texte souligne en outre les doutes scientifiques entourant ces systèmes (fiabilité, biais, variabilité culturelle) et les risques d’atteinte aux droits fondamentaux, aggravés par le lien de subordination au travail.
Source : Règlement (UE) 2024/1689, considérants et art. 5 – https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Un terrain déjà sensible au regard du RGPD
Au-delà de l’AI Act, le RGPD encadre strictement les traitements de données personnelles. Les autorités européennes ont rappelé que, dans la relation employeur-salarié, le consentement est rarement libre, en raison du déséquilibre de pouvoir.
Source : G29 (aujourd’hui CEPD), Opinion 2/2017 on data processing at work – https://ec.europa.eu/newsroom/article29/items/610169
La CNIL a, à plusieurs reprises, sanctionné des dispositifs de surveillance jugés disproportionnés (ex. surveillance continue ou intrusive des salariés).
Source : CNIL, “Surveillance excessive des salariés : sanction de 40 000 euros” – https://www.cnil.fr
Autrement dit : même sans interdiction spécifique, la barre juridique serait déjà très haute.
Performance vs. vie privée : un faux dilemme ?
L’idée d’améliorer l’engagement ou le service client grâce à la détection d’émotions peut séduire. Pourtant, dans le cadre professionnel européen, la question n’est plus seulement éthique : elle est réglementairement tranchée.
La performance ne peut justifier l’inférence émotionnelle au travail, sauf cas médicaux ou de sécurité clairement établis et documentés. Dans ces hypothèses exceptionnelles, les exigences cumulées de l’AI Act et du RGPD imposent :
-
une justification stricte de nécessité et proportionnalité,
-
une information transparente des personnes concernées,
-
une limitation des finalités et des durées de conservation,
-
des garanties techniques et organisationnelles renforcées.
Une nouvelle zone grise… ou une ligne rouge ?
L’AI Act ne laisse guère de place à l’ambiguïté : dans le monde du travail, l’inférence des émotions constitue une ligne rouge.
Pour les dirigeants, DRH et DSI, l’enjeu stratégique n’est donc pas d’exploiter ces technologies, mais de :
-
sécuriser la gouvernance IA,
-
cartographier les usages à risque,
-
privilégier des approches centrées sur l’organisation du travail plutôt que sur la captation de l’intime,
-
intégrer dès aujourd’hui les exigences combinées de l’AI Act et du RGPD.
L’IA peut améliorer l’efficacité collective. Mais lorsqu’elle prétend interpréter l’invisible — stress, moral, engagement — elle entre dans un champ que le droit européen considère désormais comme trop sensible pour être laissé à l’expérimentation en entreprise.