PyTorch
Fondamental
Correction d’un modèle sans désactivation des gradients en inférence

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

inference
no-grad
optimization
bugfix
memory-management

Scénario Technique

Contexte : L’inférence consomme trop de mémoire et est lente. Le Problème : Les gradients restent activés pendant la phase de test. Extrait logique actuelle : outputs = model(X_test) Sans torch.no_grad(). Contraintes : Encapsuler l’inférence dans torch.no_grad(). Comparer consommation mémoire et vitesse. Livrable attendu : Corriger la phase d’inférence pour optimiser performance et consommation mémoire.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    PyTorch - Correction d’un modèle sans désactivation des gradients en inférence | Test Technique & Recrutement