Apache Spark
Fondamental
Création d’un job Spark pour analyser des ventes quotidiennes

Type d'évaluation

Mise en situation réelle

Analyse

Intelligence Artificielle

Compétences ciblées

dataframe
csv
aggregation
etl
big-data

Scénario Technique

Contexte : Votre entreprise reçoit chaque jour un fichier CSV contenant les transactions réalisées sur la plateforme. Le Problème : Aucun traitement distribué n’est encore en place pour agréger rapidement les ventes quotidiennes. Contraintes : Utiliser Apache Spark pour lire un fichier CSV. Calculer le total des ventes par jour. Utiliser les DataFrames API. Éviter toute logique locale non distribuée. Livrable attendu : Écrire un job Spark simple permettant de charger les données et produire une agrégation par date avec un affichage du résultat.

Prêt à évaluer ce talent ?

Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.

Commencer le Défis
    Apache Spark - Création d’un job Spark pour analyser des ventes quotidiennes | Test Technique & Recrutement