Retour
Python sur Spark avec Databricks
Objectifs de la formation
Maîtriser la librairie PySpark afin d'utiliser Apache Spark avec le langage de programmation Python sur un environnement Databricks.
Contenu de la formation
- Présentation de Databricks Historique Différence entre l'utilisation Administrateur et Utilisateur Comment mettre en place un projet sur Databricks/AWS Comment créer un cluster de calcul avec Databricks/AWS Gestion des notebooks, des utilisateurs et des ressources - Introduction à Spark Rappels sur le Big Data Présentation de Spark: Spark RDD, Spark SQL, Spark MLlib, Spark GraphX Configurer un Spark Context et une Spark Session Gestion de la mémoire sous Spark - Présentation de PySpark et l'API Pyspark RDD Présentation de Pyspark et fonctionnement avec les Java Virtual Machines Présentation de l'API Pyspark RDD et manipulation de données non structurées Mise en pratique avec des fichiers textes (comptage de mots, nettoyage d'un fichier texte structuré) et avec des opérations d'agrégation sur PairRDDs - Utilisation de l'API Pyspark SQL Présentation de l'API Pyspark SQL Lecture de fichiers csv, json, parquet et sauvegarde de fichier Nettoyage et manipulation de données Groupby et agrégation Jointure de tables Lien entre SQL et Python Manipulation d'objets Row, et Window Manipulation de dates Utilisation de User Defined Function et de Pandas User Defined functions Présentation de Pyspark Pandas Nombreuses mises en pratique sur des jeux de données - Introduction au Machine Learning Qu'est-ce que le Machine Learning? Apprentissages supervisé et non supervisé Compromis Biais Variance Modèles Linéaires Modèles Non Linéaires Modèles ensemblistes Modèles de clustering Métriques et évaluation des performances - Machine Learning avec PySpark Différence entre MLlib SQL et MLlib RDD Les transformations de processing sur les données et notions de Pipeline Mise en pratique avec des modèles de Machine Learning sur des problématiques de clustering, de classification (données numériques et texte) Evaluation des performances avec Pyspark MLlib Utilisation de la librairie Xgboost sous un environnement Spark Utilisation de Pandas UDF pour faire tourner des modèles scikit-learn ou tensorflow en inférence
Résultats de la formation
Attestation de formation
Conditions spécifiques d'accès à la formation
Pour suivre ce stage dans de bonnes conditions, il est recommande d avoir suivi en amont la formation Python - Bases et introduction aux librairies scientifiques ou d avoir atteint par la pratique un niveau equivalent
Métier formé
Data / Big data
Niveau d'étude visé
Sans le Bac
Type d'immersion professionnelle
Formation initiale
Organisme de formation
Data Value
Durée de la formation
1 mois
Modalités de formation
formation entièrement présentielle
Prochaine(s) session(s)
- 28/10/2024 - 01/11/2024