Hadoop
Avancé
Optimisation d’une lecture HDFS avec compression adaptée

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

compression
hdfs
performance
optimization
big-data

Scénario Technique

Contexte : Les données stockées dans HDFS sont volumineuses et les temps de lecture sont élevés. Le Problème : Les fichiers ne sont pas compressés ou utilisent un format peu performant. Contraintes : Choisir un format de compression compatible MapReduce (Snappy, Gzip). Maintenir la possibilité de traitement distribué efficace. Éviter une surcharge CPU excessive. Livrable attendu : Proposer une stratégie de compression adaptée aux workloads analytiques permettant d’améliorer les performances de lecture et stockage.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    Hadoop - Optimisation d’une lecture HDFS avec compression adaptée | Test Technique & Recrutement