
Recrutement, promotions, bonus : si une IA aide à la décision, vous devez pouvoir l'expliquer. Le point sur la conformité et l'explicabilité (XAI) fin 2025.
L'actualité juridique de cet automne 2025 a été marquée par plusieurs contentieux aux prud'hommes en Europe. Le motif ? Des employés contestant des décisions (refus de mobilité interne, calcul de part variable) basées sur des recommandations d'IA opaques.
L'AI Act est clair, et le RGPD l'était déjà : le droit à l'explication humaine est fondamental dès lors qu'une décision a un impact significatif sur une personne.
Chez Iskar.ai, nous intégrons des modules d'explicabilité (XAI) dans tous nos projets RH (comme pour l'OPCObot). Voici ce que vous risquez et comment vous protéger.
La "Boîte Noire" n'est plus une excuse recevable
Dire au juge "C'est l'algorithme qui a calculé le score de 42/100, on ne sait pas pourquoi" équivaut aujourd'hui à un défaut de justification.
Si vous utilisez des LLM pour analyser des CV ou des évaluations annuelles, vous devez être capables de tracer le raisonnement. C'est techniquement complexe avec les réseaux de neurones, mais obligatoire.
3 Niveaux de Conformité Technique
Pour nos clients, nous mettons en place trois garde-fous :
1. Le "Chain of Thought" Loggé
Nous ne demandons pas juste au modèle "Ce candidat est-il bon ?". Nous lui demandons : "Analyse ce candidat critère par critère, cite les passages du CV qui justifient ta note, et donne une conclusion".
Ce raisonnement intermédiaire est stocké en base de données (inviolable) pour servir de preuve en cas de litige.
2. L'Humain dans la boucle (HITL)
L'IA ne doit jamais prendre la décision finale (sauf cas triviaux). Elle doit proposer une décision. Le manager RH doit valider activement la proposition.
Attention : Si le manager valide 100% des propositions en 2 secondes chacune, le juge requalifiera cela en décision automatisée de fait.
3. Les Tests de Biais (Fairness)
Avant la mise en production, nous passons le modèle au crible de datasets de test pour vérifier qu'il ne pénalise pas certains profils (âge, genre, origine géographique). Ce rapport d'audit doit être annexé à votre registre des traitements.
Conclusion
L'IA dans les RH est un levier de performance formidable pour réduire les tâches administratives et détecter des talents cachés. Mais c'est un terrain miné juridiquement.
Votre outil de tri de CV est-il conforme aux standards de novembre 2025 ?
Ne prenez pas le risque d'une "class action".
Parlons conformité et éthique de vos algos.



