Retour

Python sur Spark avec Databricks

Objectifs de la formation

Maîtriser la librairie PySpark afin d'utiliser Apache Spark avec le langage de programmation Python sur un environnement Databricks.

Contenu de la formation

- Présentation de Databricks Historique Différence entre l'utilisation Administrateur et Utilisateur Comment mettre en place un projet sur Databricks/AWS Comment créer un cluster de calcul avec Databricks/AWS Gestion des notebooks, des utilisateurs et des ressources - Introduction à Spark Rappels sur le Big Data Présentation de Spark: Spark RDD, Spark SQL, Spark MLlib, Spark GraphX Configurer un Spark Context et une Spark Session Gestion de la mémoire sous Spark - Présentation de PySpark et l'API Pyspark RDD Présentation de Pyspark et fonctionnement avec les Java Virtual Machines Présentation de l'API Pyspark RDD et manipulation de données non structurées Mise en pratique avec des fichiers textes (comptage de mots, nettoyage d'un fichier texte structuré) et avec des opérations d'agrégation sur PairRDDs - Utilisation de l'API Pyspark SQL Présentation de l'API Pyspark SQL Lecture de fichiers csv, json, parquet et sauvegarde de fichier Nettoyage et manipulation de données Groupby et agrégation Jointure de tables Lien entre SQL et Python Manipulation d'objets Row, et Window Manipulation de dates Utilisation de User Defined Function et de Pandas User Defined functions Présentation de Pyspark Pandas Nombreuses mises en pratique sur des jeux de données - Introduction au Machine Learning Qu'est-ce que le Machine Learning? Apprentissages supervisé et non supervisé Compromis Biais Variance Modèles Linéaires Modèles Non Linéaires Modèles ensemblistes Modèles de clustering Métriques et évaluation des performances - Machine Learning avec PySpark Différence entre MLlib SQL et MLlib RDD Les transformations de processing sur les données et notions de Pipeline Mise en pratique avec des modèles de Machine Learning sur des problématiques de clustering, de classification (données numériques et texte) Evaluation des performances avec Pyspark MLlib Utilisation de la librairie Xgboost sous un environnement Spark Utilisation de Pandas UDF pour faire tourner des modèles scikit-learn ou tensorflow en inférence

Résultats de la formation

Attestation de formation

Conditions spécifiques d'accès à la formation

Pour suivre ce stage dans de bonnes conditions, il est recommande d avoir suivi en amont la formation Python - Bases et introduction aux librairies scientifiques ou d avoir atteint par la pratique un niveau equivalent

Métier formé

Data / Big data

Niveau d'étude visé

Sans le Bac

Type d'immersion professionnelle

Formation initiale

Organisme de formation

Data Value

Durée de la formation

1 mois

Modalités de formation

formation entièrement présentielle

Prochaine(s) session(s)

  • 28/10/2024 - 01/11/2024

Lieu de formation

33 Rue de la Republique 69002 Lyon 2e