Juridique

IA & RH : Comment justifier une décision algorithmique ? (Droit à l'explication)

Sacha Kargerman

Sacha Kargerman

CEO & Co-Founder

4 min de lecture
IA & RH : Comment justifier une décision algorithmique ? (Droit à l'explication)

Recrutement, promotions, bonus : si une IA aide à la décision, vous devez pouvoir l'expliquer. Le point sur la conformité et l'explicabilité (XAI) fin 2025.

L'actualité juridique de cet automne 2025 a été marquée par plusieurs contentieux aux prud'hommes en Europe. Le motif ? Des employés contestant des décisions (refus de mobilité interne, calcul de part variable) basées sur des recommandations d'IA opaques.

L'AI Act est clair, et le RGPD l'était déjà : le droit à l'explication humaine est fondamental dès lors qu'une décision a un impact significatif sur une personne.

Chez Iskar.ai, nous intégrons des modules d'explicabilité (XAI) dans tous nos projets RH (comme pour l'OPCObot). Voici ce que vous risquez et comment vous protéger.

La "Boîte Noire" n'est plus une excuse recevable

Dire au juge "C'est l'algorithme qui a calculé le score de 42/100, on ne sait pas pourquoi" équivaut aujourd'hui à un défaut de justification.

Si vous utilisez des LLM pour analyser des CV ou des évaluations annuelles, vous devez être capables de tracer le raisonnement. C'est techniquement complexe avec les réseaux de neurones, mais obligatoire.

3 Niveaux de Conformité Technique

Pour nos clients, nous mettons en place trois garde-fous :

1. Le "Chain of Thought" Loggé

Nous ne demandons pas juste au modèle "Ce candidat est-il bon ?". Nous lui demandons : "Analyse ce candidat critère par critère, cite les passages du CV qui justifient ta note, et donne une conclusion".
Ce raisonnement intermédiaire est stocké en base de données (inviolable) pour servir de preuve en cas de litige.

2. L'Humain dans la boucle (HITL)

L'IA ne doit jamais prendre la décision finale (sauf cas triviaux). Elle doit proposer une décision. Le manager RH doit valider activement la proposition.
Attention : Si le manager valide 100% des propositions en 2 secondes chacune, le juge requalifiera cela en décision automatisée de fait.

3. Les Tests de Biais (Fairness)

Avant la mise en production, nous passons le modèle au crible de datasets de test pour vérifier qu'il ne pénalise pas certains profils (âge, genre, origine géographique). Ce rapport d'audit doit être annexé à votre registre des traitements.

Conclusion

L'IA dans les RH est un levier de performance formidable pour réduire les tâches administratives et détecter des talents cachés. Mais c'est un terrain miné juridiquement.

Votre outil de tri de CV est-il conforme aux standards de novembre 2025 ?
Ne prenez pas le risque d'une "class action".
Parlons conformité et éthique de vos algos.

Sacha Kargerman

À propos de l'auteur

Sacha Kargerman

CEO & Co-Fondateur d'Iskar.ai. Expert en transformation digitale avec 15 ans d'expérience. Ancien Directeur Digital France chez AstraZeneca, il a piloté des projets internationaux complexes dans la pharma et la santé avant de co-fonder Codixis en 2015.