PyTorch
Expert
Conception d’un entraînement distribué multi-GPU avec PyTorch Distributed

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

distributed-training
multi-gpu
ddp
scalability
architecture

Scénario Technique

Contexte : Une entreprise entraîne un modèle de vision profond sur plusieurs millions d’images haute résolution. Le Problème : L’entraînement sur un seul GPU est trop lent et ne respecte pas les contraintes de délai. Contraintes : Utiliser torch.distributed et DistributedDataParallel. Gérer correctement le partitionnement des données avec DistributedSampler. Assurer synchronisation des gradients et reproductibilité des expériences. Livrable attendu : Proposer une architecture d’entraînement distribuée complète incluant gestion des devices, data loading et validation des performances.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    PyTorch - Conception d’un entraînement distribué multi-GPU avec PyTorch Distributed | Test Technique & Recrutement