Formation - Infini Software
Infini Software - Organisme de formation en informatique
Maintenez vos compétences à jour grâce à nos formations
Rechercher
☎ 06 63 33 14 06 Espace client



Cursus « Deep Learning & IA » :
Deep Learning avec Python et Keras et Tensorflow

Détails :

Durée :
5 Jours
Prérequis :
Bien connaître la programmation Python. Une bonne connaissance des librairies Numpy, Scipy, Matplotlib et Pandas est aussi recommandée.
Public :
Développeurs ou ingénieurs scientifiques désireux d'apprendre à mettre en oeuvre des réseaux de neurones en Python.
Objectifs :
Le Deep Learning est une branche du machine learning qui utilise des réseaux de neurones profonds pour apprendre automatiquement des représentations complexes à partir de grandes quantités de données.

Au terme de cette formation, vous saurez :
  • Comprendre le fonctionnement général d'un réseau de neurones.
  • Connaitre les principales architectures utilisées en computer vision.
  • Comprendre le NLP (Natural Language Processing) et l'architecture Transformer.
  • Comprendre l'IA Générative
  • Savoir combiner un réseau de neurones avec un apprentissage par renforcement
  • Connaitre les aspects avancés de configuration de Tensorflow.

Demande de devis :

Devis :
Si vous souhaitez être contacté et obtenir plus d'informations sur cette formation veuillez remplir notre formulaire de mise en relation.

Cursus de formation :

Cursus :




Programme détaillé de la formation :

    Introduction au Deep Learning
    • L’histoire du Deep Learning
      • Intelligence Artificielle, Machine Learning et Deep Learning
      • L'avènement de l'approche Neuronale
      • Machine Learning VS Deep Learning : les différences
    • Pourquoi Python ?
      • Rappels Python (le langage, la communauté (PyPi),...)
      • Avantages de Python dans le domaine du Machine Learning
      • Rappels NumPy/SciPy/MatPlotLib/Pandas
      • Quelques librairies complémentaires OpenCV/Scikit-Image/TQDM/...
      • Nos environnements de développement : PyCharm et JupyterLab
      • Présentation et installation de TensorFlow
      • Comparaison avec PyTorch
    • Théorie générale : les Math derrière le Deep Learning
      • Qu'est-ce qu'un neurone artificiel (Perceptron) ?
      • Le fonctionnement général
      • Fonction d'activation et fonction de perte
      • La notion de rétropropagation
      • La notion de dataset
      • Les principaux types de réseaux de neurones : DNN/CNN/RNN/...
    • Quelques premiers
      • Exemple d'une régression
      • Exemple de classification
    • Persistance des modèles
    Computer vision et reseaux convolutifs
    • Qu'est-ce qu'un réseau neuronal convolutif (CNN) ?
      • Principe de convolution
      • MNIST CNN Classifier
      • Exemple sur des images plus conséquence et utilisation de l'API Sequence
    • Les différentes API de Tensorflow (API séquentielle, API fonctionnelle et approche orientée objet)
    • Modèle d'Inception
    • ResNet (Réseaux Résiduels) et couches profondes
    • Réseaux Auto-Encodeur
      • Qu'est-ce qu'un réseau Auto-Encodeur (Encodeur/Espace latent/Décodeur) ?
      • Débruitage MNIST via AE
      • Débruitage MNIST via AE + Classifier
      • Génération d'images à partir d'un espace latent et d'un décodeur
    • Réseau Auto-Encodeur Variationnel (VAE)
      • Qu'est-ce qu'un réseau Auto-Encodeur Variationnel ?
      • Analyse de la distribution dans l'espace latent
    • Les GANs (Generative Adversarial Networks)
    • Les modèles de diffusions et les outils "text-to-images"
    NLP (Natural Language Processing)
    • Les IA conversationnelles
      • Présentation de ChatGPT et de ses différents modèles GPT
      • Présentation de Claude, Gemini, Llama, Deep Seek, …
      • Notions de LLM (Large Language Model)
    • L'approche RNN (Recurrent Neural Network)
      • Présentation de l'approche récurrente
      • Long Short-Term Memory (LSTM)
      • La notion d'attention
    • L'approche Transformer
      • Présentation de l'article "Attention is all you need"
      • Qu'est-ce qu'un "Transformer" ?
      • Mise en oeuvre d'un Transformer avec Keras
    • Déployer un LLM en local
      • Utilisation de l'API Transformers (Hugging Face)
      • Utilisation des logiciels Jan et Ollama
    Tour d'horizon de l'IA Générative
    • Computer Vision et architecture Transformer : ViT
    • Génération d'images et de vidéos
    • Modèle TTS (Text-To-Speech)
    • Architectures multimodales
    • RAG vs Fine Tuning
    Apprentissage par renforcement
    • Principes et avantages de l'apprentissage par renforcement
    • Algorithmes populaires : Q-learning, Deep Q Network (DQN), Policy Gradient, etc
    • Exemples d'application : jeux, optimisation, …
    Aspects avancés de TensorFlow
    • Utilisation de callbacks
    • Utilisation de TensorBoard
    • Activer le mode GPU
    • Traitements distribués avec TensorFlow
    Conclusion
    Déclaration d'activité enregistrée sous le n° 93 06 11543 06 du préfet de région de Provence-Alpes-Côte d'Azur.