NLP
Fondamental
Correction d’un modèle sans séparation train/validation cohérente
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
evaluation
cross-validation
classification
pipeline
bugfix
Scénario Technique
Contexte : Un modèle NLP est évalué sur un seul split arbitraire. Le Problème : Les performances varient fortement selon le découpage. Extrait logique actuelle : train_test_split(texts, labels) Sans validation multiple. Contraintes : Introduire validation croisée ou plusieurs splits. Comparer stabilité des résultats. Livrable attendu : Proposer une stratégie d’évaluation plus robuste pour un modèle NLP supervisé.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.