Apache Spark
Fondamental
Écriture d’un DataFrame au format Parquet

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

parquet
dataframe
storage
etl
big-data

Scénario Technique

Contexte : Les données transformées doivent être stockées pour des analyses ultérieures. Le Problème : Aucun mécanisme d’écriture optimisé n’est encore en place. Contraintes : Écrire le DataFrame au format Parquet. Activer le mode overwrite si nécessaire. Optimiser la compression par défaut. Livrable attendu : Fournir un exemple de code Spark permettant d’écrire efficacement les données au format Parquet.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis