Machine Learning
Expert
Correction d’un modèle biaisé générant discrimination indirecte
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
fairness
bias-mitigation
ethics
model-evaluation
bugfix
Scénario Technique
Contexte : Un modèle de scoring RH présente des disparités de performance selon certains groupes. Le Problème : Des variables corrélées à des attributs sensibles introduisent un biais indirect. Extrait logique actuelle : Utilisation brute de toutes les variables disponibles Contraintes : Identifier sources de biais. Évaluer équité via métriques adaptées. Ajuster modèle ou features pour réduire discrimination. Livrable attendu : Proposer une stratégie d’audit et mitigation du biais tout en maintenant performance globale.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.