Apache Spark
Fondamental
Agrégation simple avec groupBy et count
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
spark
pyspark
groupby
aggregation
dataframe
Scénario Technique
Contexte Une équipe analytique souhaite compter le nombre de commandes par pays à partir d'un fichier de commandes. Le Problème Le calcul est actuellement réalisé en Python natif avec une boucle, ce qui est inefficace sur un million de lignes. Contraintes Utiliser groupBy() et count() de PySpark. Trier les résultats par nombre de commandes décroissant. Aucune librairie externe. Livrable attendu Un script PySpark calculant le nombre de commandes par pays et affichant le résultat trié.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.