Détails :
Durée :
5 Jours
Prérequis :
Public :
Objectifs :
Au terme de cette formation, vous saurez :
- Comprendre le fonctionnement général d'un réseau de neurones.
- Connaitre les principales architectures utilisées en computer vision.
- Comprendre le NLP (Natural Language Processing) et l'architecture Transformer.
- Comprendre l'IA Générative
- Savoir combiner un réseau de neurones avec un apprentissage par renforcement
- Connaitre les aspects avancés de configuration de Tensorflow.
Demande de devis :
Devis :
Si vous souhaitez être contacté et obtenir plus d'informations sur cette formation
veuillez remplir notre formulaire de mise en relation.
Cursus de formation :
Programme détaillé de la formation :
- L’histoire du Deep Learning
- Intelligence Artificielle, Machine Learning et Deep Learning
- L'avènement de l'approche Neuronale
- Machine Learning VS Deep Learning : les différences
- Pourquoi Python ?
- Rappels Python (le langage, la communauté (PyPi),...)
- Avantages de Python dans le domaine du Machine Learning
- Rappels NumPy/SciPy/MatPlotLib/Pandas
- Quelques librairies complémentaires OpenCV/Scikit-Image/TQDM/...
- Nos environnements de développement : PyCharm et JupyterLab
- Présentation et installation de TensorFlow
- Comparaison avec PyTorch
- Théorie générale : les Math derrière le Deep Learning
- Qu'est-ce qu'un neurone artificiel (Perceptron) ?
- Le fonctionnement général
- Fonction d'activation et fonction de perte
- La notion de rétropropagation
- La notion de dataset
- Les principaux types de réseaux de neurones : DNN/CNN/RNN/...
- Quelques premiers
- Exemple d'une régression
- Exemple de classification
- Persistance des modèles
- Qu'est-ce qu'un réseau neuronal convolutif (CNN) ?
- Principe de convolution
- MNIST CNN Classifier
- Exemple sur des images plus conséquence et utilisation de l'API Sequence
- Les différentes API de Tensorflow (API séquentielle, API fonctionnelle et approche orientée objet)
- Modèle d'Inception
- ResNet (Réseaux Résiduels) et couches profondes
- Réseaux Auto-Encodeur
- Qu'est-ce qu'un réseau Auto-Encodeur (Encodeur/Espace latent/Décodeur) ?
- Débruitage MNIST via AE
- Débruitage MNIST via AE + Classifier
- Génération d'images à partir d'un espace latent et d'un décodeur
- Réseau Auto-Encodeur Variationnel (VAE)
- Qu'est-ce qu'un réseau Auto-Encodeur Variationnel ?
- Analyse de la distribution dans l'espace latent
- Les GANs (Generative Adversarial Networks)
- Les modèles de diffusions et les outils "text-to-images"
- Les IA conversationnelles
- Présentation de ChatGPT et de ses différents modèles GPT
- Présentation de Claude, Gemini, Llama, Deep Seek, …
- Notions de LLM (Large Language Model)
- L'approche RNN (Recurrent Neural Network)
- Présentation de l'approche récurrente
- Long Short-Term Memory (LSTM)
- La notion d'attention
- L'approche Transformer
- Présentation de l'article "Attention is all you need"
- Qu'est-ce qu'un "Transformer" ?
- Mise en oeuvre d'un Transformer avec Keras
- Déployer un LLM en local
- Utilisation de l'API Transformers (Hugging Face)
- Utilisation des logiciels Jan et Ollama
- Computer Vision et architecture Transformer : ViT
- Génération d'images et de vidéos
- Modèle TTS (Text-To-Speech)
- Architectures multimodales
- RAG vs Fine Tuning
- Principes et avantages de l'apprentissage par renforcement
- Algorithmes populaires : Q-learning, Deep Q Network (DQN), Policy Gradient, etc
- Exemples d'application : jeux, optimisation, …
- Utilisation de callbacks
- Utilisation de TensorBoard
- Activer le mode GPU
- Traitements distribués avec TensorFlow
Introduction au Deep Learning
Computer vision et reseaux convolutifs
NLP (Natural Language Processing)
Tour d'horizon de l'IA Générative
Apprentissage par renforcement
Aspects avancés de TensorFlow
Conclusion