PyTorch
Fondamental
Correction d’un modèle sans désactivation des gradients en inférence
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
inference
no-grad
optimization
bugfix
memory-management
Scénario Technique
Contexte : L’inférence consomme trop de mémoire et est lente. Le Problème : Les gradients restent activés pendant la phase de test. Extrait logique actuelle : outputs = model(X_test) Sans torch.no_grad(). Contraintes : Encapsuler l’inférence dans torch.no_grad(). Comparer consommation mémoire et vitesse. Livrable attendu : Corriger la phase d’inférence pour optimiser performance et consommation mémoire.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.