Apache Spark
Fondamental
Création d’un job Spark pour analyser des ventes quotidiennes
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
dataframe
csv
aggregation
etl
big-data
Scénario Technique
Contexte : Votre entreprise reçoit chaque jour un fichier CSV contenant les transactions réalisées sur la plateforme. Le Problème : Aucun traitement distribué n’est encore en place pour agréger rapidement les ventes quotidiennes. Contraintes : Utiliser Apache Spark pour lire un fichier CSV. Calculer le total des ventes par jour. Utiliser les DataFrames API. Éviter toute logique locale non distribuée. Livrable attendu : Écrire un job Spark simple permettant de charger les données et produire une agrégation par date avec un affichage du résultat.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.