NLP
Fondamental
Correction d’un modèle sans séparation train/validation cohérente

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

evaluation
cross-validation
classification
pipeline
bugfix

Scénario Technique

Contexte : Un modèle NLP est évalué sur un seul split arbitraire. Le Problème : Les performances varient fortement selon le découpage. Extrait logique actuelle : train_test_split(texts, labels) Sans validation multiple. Contraintes : Introduire validation croisée ou plusieurs splits. Comparer stabilité des résultats. Livrable attendu : Proposer une stratégie d’évaluation plus robuste pour un modèle NLP supervisé.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis