Détails :
Durée :
5 Jours
Prérequis :
Public :
Objectifs :
Au terme de cette formation, vous saurez :
- Comprendre le fonctionnement général d'un réseau de neurones.
- Connaitre les principales architectures utilisées en computer vision.
- Comprendre le NLP (Natural Language Processing) et l'architecture Transformer.
- Comprendre l'IA Générative
- Savoir combiner un réseau de neurones avec un apprentissage par renforcement
- Connaitre les aspects avancés de configuration de Tensorflow.
Demande de devis :
Devis :
Si vous souhaitez être contacté et obtenir plus d'informations sur cette formation
veuillez remplir notre formulaire de mise en relation.
Cursus de formation :
Programme détaillé de la formation :
- L’histoire du Deep Learning
- Intelligence Artificielle, Machine Learning et Deep Learning
- L'avènement de l'approche Neuronale
- Machine Learning VS Deep Learning : les différences
- Pourquoi Python ?
- Rappels Python (le langage, la communauté (PyPi),...)
- Avantages de Python dans le domaine du Machine Learning
- Rappels NumPy/SciPy/MatPlotLib/Pandas
- Quelques librairies complémentaires OpenCV/Scikit-Image/TQDM/...
- Nos environnements de développement : PyCharm et JupyterLab
- Présentation et installation de TensorFlow
- Comparaison avec PyTorch
- Théorie générale : les Math derrière le Deep Learning
- Qu'est-ce qu'un neurone artificiel (Perceptron) ?
- Le fonctionnement général
- Fonction d'activation et fonction de perte
- La notion de rétropropagation
- La notion de dataset
- Les principaux types de réseaux de neurones : DNN/CNN/RNN/...
- Quelques premiers
- Exemple d'une régression
- Exemple de classification
- Persistance des modèles
- Qu'est-ce qu'un réseau neuronal convolutif (CNN) ?
- Principe de convolution
- MNIST CNN Classifier
- Exemple sur des images plus conséquence et utilisation de l'API Sequence
- Les différentes API de Tensorflow (API séquentielle, API fonctionnelle et approche orientée objet)
- Modèle d'Inception
- ResNet (Réseaux Résiduels) et couches profondes
- Réseaux Auto-Encodeur
- Qu'est-ce qu'un réseau Auto-Encodeur (Encodeur/Espace latent/Décodeur) ?
- Débruitage MNIST via AE
- Débruitage MNIST via AE + Classifier
- Génération d'images à partir d'un espace latent et d'un décodeur
- Réseau Auto-Encodeur Variationnel (VAE)
- Qu'est-ce qu'un réseau Auto-Encodeur Variationnel ?
- Analyse de la distribution dans l'espace latent
- Les GANs (Generative Adversarial Networks)
- Les modèles de diffusions et les outils "text-to-images"
- Les IA conversationnelles
- Présentation de ChatGPT et de ses différents modèles GPT
- Présentation de Claude, Gemini, Llama, Deep Seek, …
- Notions de LLM (Large Language Model)
- L'approche RNN (Recurrent Neural Network)
- Présentation de l'approche récurrente
- Long Short-Term Memory (LSTM)
- La notion d'attention
- L'approche Transformer
- Présentation de l'article "Attention is all you need"
- Qu'est-ce qu'un "Transformer" ?
- Mise en oeuvre d'un Transformer avec Keras
- Déployer un LLM en local
- Utilisation de l'API Transformers (Hugging Face)
- Utilisation des logiciels Jan et Ollama
- Computer Vision et architecture Transformer : ViT
- Génération d'images et de vidéos
- Modèle TTS (Text-To-Speech)
- Architectures multimodales
- RAG vs Fine Tuning
- Principes et avantages de l'apprentissage par renforcement
- Algorithmes populaires : Q-learning, Deep Q Network (DQN), Policy Gradient, etc
- Exemples d'application : jeux, optimisation, …
- Utilisation de callbacks
- Utilisation de TensorBoard
- Activer le mode GPU
- Traitements distribués avec TensorFlow
Introduction au Deep Learning
Computer vision et reseaux convolutifs
NLP (Natural Language Processing)
Tour d'horizon de l'IA Générative
Apprentissage par renforcement
Aspects avancés de TensorFlow
Conclusion
Espace client
