Objectifs
- Comprendre le Machine Learning et l’Intelligence Artificielle
- Catégoriser les différentes approches : clustering, classification, régression…
- Choisir, structurer et adapter les données pertinentes pour des résultats pertinents
- Apprendre le langage python et ses librairies scientifiques (scikit-learn, pandas)
- Mettre en œuvre des cas concrets (prédiction, clustering)
- Mesurer la pertinence des modèles mis en œuvre
- Traiter des gros volumes de données en parallélisant les traitements : Spark et Dask
- Déployer un modèle en production
- Introduction au Deep Learning
Programme
JOUR 1 Les bases du machine learning • Quelques exemples en guise d’introduction • Généraliser : un principe fondateur du Machine Learning pour permettre la prédiction et la segmentation • Algorithmes supervisés et non supervisés • Appropriation du vocabulaire du Data Scientist Premiers pas • Collecter et stocker les données • Analyser, comprendre, nettoyer et structurer les données : Le Feature Engineering • Apprentissage et création d’un modèle • Evaluation du modèle • Amélioration du modèle
JOUR 2
Le langage python • La syntaxe du langage • Les outils de développement : Jupyter notebook • Les librairies du data scientist : Pandas, Scikit-learn • Analyser et comprendre les données • Matplotlib et Seaborn : Des librairies de data visualisation pour Python Choisir les algorithmes de machine learning • Comprendre les enjeux • Tour d’horizon des principaux algorithmes • Classification : k-Nearest Neighbors (k-NN), • Arbre de décision, Random Forest, XGBoost • Régression : Régression logistique • Clustering : K-Means, DBScan • Les différentes méthodes de scoring JOUR 3 Concepts avancés • Validation croisée • Ensemble Machine Learning : cumulez les algorithmes pour une meilleure précision • Automatiser les manipulations de données avec un pipeline Traiter les données en parallèle • Pourquoi paralléliser ? • Adapter les algorithmes • Une complexité complémentaire • Les frameworks de distribution à disposition : Spark et Dask JOUR 4 Déployer en production • Intégrer un pipeline à une chaine de déploiement automatisée (continuous delivery) • Packager un modèle : Predicive Model Markup Language • Créer un endpoint REST avec python Flask • Déployer dans le cloud Le Deep Learning • Présentation générale : les réseaux de neurones • Les réseaux convolutionnels : Analyse d’images • Les réseaux récurrents • Comprendre par l’exemple : Pytorch & Keras
Avis
"La clarté de la présentation, les sujets traités sont un vrai plus dans cette formation" Jimmy Delas (Lead Developper @Ector)