Introduction à Apache Spark
Spark est un outil permettant de faire du traitement de larges volumes de données, et ce, de manière distribuée (cluster computing). Le framework offre un modèle de programmation plus simple que celui d’Hadoop et permet des temps d’exécution jusqu’à 100 fois plus courts.
Le framework a le vent en poupe (presque autant que Docker) et il est en train de remplacer Hadoop à vitesse grand V. Car, il faut l’admettre, Hadoop, dans son orientation stricte MapReduce, est en train de mourir.
Cet article est donc le premier d’une série visant à faire découvrir Spark, son modèle de programmation, ainsi que son écosystème. Le code présenté sera écrit en Java.
Contexte
Spark est né en 2009 dans le laboratoire AMPLab de l’université de Berkeley en partant du principe que :
- d’une part, la RAM coûte de moins en moins cher et les serveurs en ont donc de plus en plus à disposition
- d’autre part, beaucoup de jeux de données dits “Big Data” ont une taille de l’ordre de 10 Go et ils tiennent donc en RAM.
Le projet a intégré l’incubateur Apache en juin 2013 et est devenu un “Top-Level Project” en février 2014.
La version 1.0.0 de Spark a été releasée en mai 2014 et le projet, aujourd’hui en version 1.1.0, poursuit une évolution rapide. L’écosystème Spark comporte ainsi aujourd’hui plusieurs outils :
- Spark pour les traitements “en batch”
- Spark Streaming pour le traitement en continu de flux de données
- MLlib pour le “machine learning”
- GraphX pour les calculs de graphes (encore en version alpha)
- Spark SQL, une implémentation SQL-like d’interrogation de données.
Par ailleurs, Spark s’intègre parfaitement avec l’écosystème Hadoop (notamment HDFS) et des intégrations avec Cassandra et ElasticSearch sont prévues.
Enfin, le framework est écrit en Scala et propose un binding Java qui permet de l’utiliser sans problème en Java. Java 8 est toutefois recommandé pour exploiter les expressions lambdas qui permettront d’écrire un code lisible.
Notions de base
L’élément de base que l’on manipulera est le RDD : Resilient Distributed Dataset.
Un RDD est une abstraction de collection sur laquelle les opérations sont effectuées de manière distribuée tout en étant tolérante aux pannes matérielles. Le traitement que l’on écrit semble ainsi s’exécuter au sein de notre JVM mais il sera découpé pour s’exécuter sur plusieurs noeuds. En cas de perte d’un noeud, le sous-traitement sera automatiquement relancé sur un autre noeud par le framework, sans que cela impacte le résultat.
Les éléments manipulés par le RDD (classes JavaRDD
, JavaPairRDD
…) peuvent être des objets simples (String, Integer…), nos propres classes, ou, plus couramment, des tuples (classe Tuple2
). Dans ce dernier cas, les opérations offertes par l’API permettront de manipuler la collection comme une map clé-valeur.
L’API exposée par le RDD permet d’effectuer des transformations sur les données :
map()
permet de transformer un élément en un autre élémentmapToPair()
permet de transformer un élément en un tuple clé-valeurfilter()
permet de filtrer les éléments en ne conservant que ceux qui correspondent à une expressionflatMap()
permet de découper un élément en plusieurs autres élémentsreduce()
etreduceByKey()
permet d’agréger des éléments entre eux- etc.
Ces transformations sont “lazy” : elles ne s’exécuteront que si une opération finale est réalisée en bout de chaîne. Les opérations finales disponibles sont :
count()
pour compter les élémentscollect()
pour récupérer les éléments dans une collection Java dans la JVM de l’exécuteur (dangereux en cluster)saveAsTextFile()
pour sauver le résultat dans des fichiers texte (voir plus loin)- etc.
Enfin, l’API permet de conserver temporairement un résultat intermédiaire grâce aux méthodes cache()
(stockage en mémoire) ou persist()
(stockage en mémoire ou sur disque, en fonction d’un paramètre).
Premiers pas
Pour un premier exemple de code, nous allons exploiter des données Open Data de la mairie de Paris, en l’occurence la liste des arbres d’alignement présents sur la commune de Paris.
Le fichier CSV peut-être téléchargé ici. Il comporte 103 589 enregistrements. En voici un extrait :
geom_x_y;circonfere;adresse;hauteurenm;espece;varieteouc;dateplanta
48.8648454814, 2.3094155344;140.0;COURS ALBERT 1ER;10.0;Aesculus hippocastanum;;
48.8782668139, 2.29806967519;100.0;PLACE DES TERNES;15.0;Tilia platyphyllos;;
48.889306184, 2.30400164126;38.0;BOULEVARD MALESHERBES;0.0;Platanus x hispanica;;
Ce fichier présente les caractéristiques suivantes :
- une ligne de header
- un enregistrement par ligne
- les champs d’un enregistrement sont séparés par un point-virgule.
Nous allons simplement compter les enregistrements pour lesquels la hauteur de l’arbre est renseignée et est supérieure à zéro.
Il faut d’abord créer un “contexte Spark”. Puisque nous écrivons du Java, la classe que nous utilisons est JavaSparkContext
et nous lui passons un objet de configuration contenant :
- un nom d’application (utile lorsque l’application est déployée en cluster)
- la référence vers un cluster Spark à utiliser, en l’occurence “local” pour exécuter les traitements au sein de la JVM courante.
SparkConf conf = new SparkConf()
.setAppName("arbres-alignement")
.setMaster("local");
JavaSparkContext sc = new JavaSparkContext(conf);
Nous pouvons ensuite écrire la suite de traitements et récupérer le résultat :
long count = sc.textFile("arbresalignementparis2010.csv")
.filter(line -> !line.startsWith("geom"))
.map(line -> line.split(";"))
.map(fields -> Float.parseFloat(fields[3]))
.filter(height -> height > 0)
.count();
System.out.println(count);
Détaillons ce code :
-
Nous commençons par demander à Spark de lire le fichier CSV. Spark sait nativement lire un fichier texte et le découper en lignes.
La méthode utilisée est
textFile()
et le type retourné estJavaRDD<String>
(un RDD de Strings).sc.textFile("arbresalignementparis2010.csv")
-
Nous filtrons directement la première ligne (la ligne de header). Ce filtrage est effectué par le contenu plutôt que par le numéro de ligne. En effet, les éléments du RDD ne sont pas ordonnés puisqu’un fichier peut être lu par fragments, notamment lorsqu’il s’agit d’un gros fichier lu sur un cluster.
La méthode utilisée est
filter()
et elle ne modifie par le type retourné qui reste doncJavaRDD<String>
..filter(line -> !line.startsWith("geom"))
-
Les lignes peuvent ensuite être découpées en champs. Nous utilisons une expression lambda qui peut être lue de la façon suivante : pour chaque élément que nous appellerons
line
, retourne le résultat de l’expressionline.split(";")
.L’opération
map()
est utilisée et le type retourné devientJavaRDD<String[]>
..map(line -> line.split(";"))
-
Le champ contenant la hauteur de l’arbre peut ensuite être parsé. Nous ne conservons que cette valeur : les autres champs ne sont pas conservés.
L’opération
map()
est à nouveau utilisée et le type retourné devientJavaRDD<Float>
..map(fields -> Float.parseFloat(fields[3]))
-
Nous filtrons ensuite les éléments pour ne conserver que les hauteurs supérieures à zéro.
L’opération
filter()
est à nouveau utilisée. Le type reste doncJavaRDD<Float>
..filter(height -> height > 0)
-
Enfin, nous comptons les éléments du RDD.
L’opération finale
count()
est utilisée et unlong
est retourné..count()
Voici un extrait de ce qui est produit sur la console :
...
14/10/29 17:09:54 INFO FileInputFormat: Total input paths to process : 1
14/10/29 17:09:54 INFO SparkContext: Starting job: count at FirstSteps.java:26
14/10/29 17:09:54 INFO DAGScheduler: Got job 0 (count at FirstSteps.java:26) with 1 output partitions (allowLocal=false)
...
14/10/29 17:09:54 INFO TaskSetManager: Starting task 0.0 in stage 0.0 (TID 0, localhost, PROCESS_LOCAL, 1242 bytes)
14/10/29 17:09:54 INFO Executor: Running task 0.0 in stage 0.0 (TID 0)
14/10/29 17:09:54 INFO HadoopRDD: Input split: file:/Users/aseigneurin/dev/spark-samples/data/arbresalignementparis2010.csv:0+8911344
...
14/10/29 17:09:55 INFO SparkContext: Job finished: count at FirstSteps.java:26, took 0.475835815 s
32112
Spark a exécuté les traitements en local, au sein de la JVM.
Le fichier a été lu en un seul bloc. En effet, celui-ci fait 9 Mo et, par défaut, Spark découpe les fichiers en blocs de 32 Mo.
Le résultat (32112) est obtenu en moins d’une demi-seconde. Ce temps d’exécution n’est pas, en soi, impressionant, mais nous verrons la puissance du framework lorsque nous manipulerons des fichiers plus volumineux.
Conclusion
Le code écrit avec Spark présente l’intérêt d’être à la fois compact et lisible. Nous verrons dans les prochains posts qu’il est possible de manipuler des volumes très importants de données, même pour des opérations manipulant l’ensemble du dataset, et ce, sans devoir modifier le code.
Vous pouvez retrouver l’exemple complet de code sur GitHub.
Vous aimez cette série d’articles sur Spark et souhaitez faire découvrir l’outil à vos équipes ? Invitez-moi pour un Brown Bag Lunch !