PyTorch
Fondamental
Correction d’un modèle entraîné sans remise à zéro des gradients
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
gradient
optimizer
bugfix
training-loop
pytorch
Scénario Technique
Contexte : Un modèle converge mal et la perte semble instable. Le Problème : Les gradients ne sont pas réinitialisés à chaque itération. Extrait logique actuelle : loss.backward() optimizer.step() Sans optimizer.zero_grad(). Contraintes : Ajouter remise à zéro des gradients avant backward(). Comparer stabilité d’entraînement. Livrable attendu : Corriger la boucle d’entraînement afin de garantir mise à jour correcte des poids.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.