Hadoop
Expert
Optimisation avancée d’un job MapReduce multi-étapes
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
mapreduce
workflow
optimization
performance
big-data
Scénario Technique
Contexte : Un workflow MapReduce complexe enchaîne plusieurs étapes intermédiaires sur HDFS. Le Problème : Les écritures et lectures intermédiaires provoquent une latence importante et une surcharge disque. Contraintes : Réduire les I/O inutiles. Utiliser combiners ou chaining si possible. Maintenir la cohérence des résultats finaux. Livrable attendu : Proposer une refonte technique du workflow MapReduce permettant d’améliorer significativement les performances globales.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.