Machine Learning
Expert
Correction d’un modèle biaisé générant discrimination indirecte

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

fairness
bias-mitigation
ethics
model-evaluation
bugfix

Scénario Technique

Contexte : Un modèle de scoring RH présente des disparités de performance selon certains groupes. Le Problème : Des variables corrélées à des attributs sensibles introduisent un biais indirect. Extrait logique actuelle : Utilisation brute de toutes les variables disponibles Contraintes : Identifier sources de biais. Évaluer équité via métriques adaptées. Ajuster modèle ou features pour réduire discrimination. Livrable attendu : Proposer une stratégie d’audit et mitigation du biais tout en maintenant performance globale.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    Machine Learning - Correction d’un modèle biaisé générant discrimination indirecte | Test Technique & Recrutement