Apache Spark
Fondamental
Mise en place d’un filtrage simple avec Spark DataFrame
Type d'évaluation
Mise en situation réelle
Analyse
Intelligence Artificielle
Compétences ciblées
dataframe
filter
transformation
etl
big-data
Scénario Technique
Contexte : Une équipe souhaite analyser uniquement les transactions supérieures à 100 unités monétaires. Le Problème : Le filtrage n’est pas encore implémenté dans le pipeline Spark. Contraintes : Utiliser l’API DataFrame pour filtrer les lignes. Éviter toute transformation en RDD. Conserver les performances distribuées. Livrable attendu : Écrire un extrait de code Spark permettant de filtrer efficacement les transactions selon le montant.
Prêt à évaluer ce talent ?
Accédez à l'interface de test complète pour soumettre votre architecture ou votre code.