Apache Spark
Fondamental
Écriture d’un DataFrame au format Parquet
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
parquet
dataframe
storage
etl
big-data
Scénario Technique
Contexte : Les données transformées doivent être stockées pour des analyses ultérieures. Le Problème : Aucun mécanisme d’écriture optimisé n’est encore en place. Contraintes : Écrire le DataFrame au format Parquet. Activer le mode overwrite si nécessaire. Optimiser la compression par défaut. Livrable attendu : Fournir un exemple de code Spark permettant d’écrire efficacement les données au format Parquet.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.