Hadoop
Avancé
Optimisation d’une lecture HDFS avec compression adaptée
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
compression
hdfs
performance
optimization
big-data
Scénario Technique
Contexte : Les données stockées dans HDFS sont volumineuses et les temps de lecture sont élevés. Le Problème : Les fichiers ne sont pas compressés ou utilisent un format peu performant. Contraintes : Choisir un format de compression compatible MapReduce (Snappy, Gzip). Maintenir la possibilité de traitement distribué efficace. Éviter une surcharge CPU excessive. Livrable attendu : Proposer une stratégie de compression adaptée aux workloads analytiques permettant d’améliorer les performances de lecture et stockage.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.