Retour
Python - calcul parallèle
Objectifs de la formation
Comprendre le paradigme de la programmation parallèle Identifier les goulots d'étranglement et les parties parallélisables de votre programme Avoir une bonne compréhension du paysage des librairies de calcul parallèle disponibles pour Python Savoir développer des applications parallélisées (multithreading, multiprocessing, calcul distribué, cloud computing) Exécuter des calculs sur GPU (cartes graphiques) Créer des workflows de traitement de données
Contenu de la formation
- Etat de l'art de la discipline et concepts de base Historique des supercalculateurs Comprendre les différentes architectures disponibles pour le calcul parallèle (CPU, GPU, TPU, ASIC, FPGA, NUMA... ) Tout n'est pas parallélisable : comprendre les limites de la programmation parallèle Présentation du paysage de calcul parallèle avec Python Travaux pratiques Identifier les capacités matérielles de votre ordinateur. Mesurer les performances/limites de votre configuration (disques, mémoire, processeurs, ...). Configurer son environnement de calcul parallèle. Administrer une ferme de serveurs avec ansible - Les concepts de la programmation parallèle Comprendre la terminologie: programmation asynchrone, concurrente, distribuée, multithreading, multiprocessing, ... Multithreading : paralléliser le code de votre programme - mise en oeuvre des concepts de base Comprendre les limites du multithreading en Python Multiprocessing : paralléliser votre programme sur plusieurs processeurs et mécanismes de synchronisation (verrous, sémaphores, barrières, pools de process...) Travaux pratiques Application des concepts de base aux travers d'exercices pratiques. Mesurer les différences de performances entre les librairies multithreading et multiprocessing. Premier cluster de calcul distribué avec les Managers et Proxy. - Le calcul sur GPU Un GPU ne se programme pas comme un CPU. Comprendre les architectures GPU : kernels, mémoire, threads, ... Travailler avec des cartes graphiques externes (eGPU) Mise en oeuvre des principales librairies Python pour GPU: Cupy, PyCUDA, Numba et RapidsAI Travaux pratiques Identifier quand un GPU devient plus intéressant qu'un CPU. Traitement d'images, calcul matriciel, tester la fiabilité d'un mot de passe, ... - Calcul distribué Les principales librairies : Celery, Dask et PySpark Déployer et superviser un cluster de calcul parallèle avec chacune des librairies Exécuter des calculs sur un cluster Travaux pratiques Batch de tâches avec Celery. Calcul numérique et analyse de données avec Dask (array et dataframe) Analyse de données avec les DataFrames Spark et la librairie Koalas. - Créer un pipeline de traitement de données Présentation des librairies Luigi et Airflow Concevoir et superviser son workflow Travaux pratiques Réaliser un workflow sur un ensemble de fichiers volumineux et le superviser avec Airflow. - Tour d'horizon des autres librairies Python pour le calcul parallèle La compilation Just In Time avec Numba Greenlets : vers un meilleur multithreading MPI4Py : Message Passing Interface Pythran : Le transpileur qui convertit votre code Python en C++ Travaux pratiques Exercices de base illustrant les principes de chacune des librairies
Résultats de la formation
Attestation d'acquis ou de compétences;Attestation de suivi de présence
Conditions spécifiques d'accès à la formation
Pour suivre ce stage dans de bonnes conditions, il est recommande d avoir suivi en amont la formation Python - Bases et introduction aux librairies scientifiques
Métier formé
Développement
Niveau d'étude visé
Sans le Bac
Type d'immersion professionnelle
Formation initiale
Organisme de formation
Data Value
Durée de la formation
1 mois
Modalités de formation
formation entièrement présentielle
Prochaine(s) session(s)
- 09/12/2024 - 13/12/2024