Formation Generative AI & LLM
Cette formation s'adresse à un public souhaitant acquérir les connaissances nécessaires pour comprendre et mettre en œuvre les Large Language Models (LLM).
Les participants auront l'occasion d'approfondir leur compréhension des différents aspects des Large Language Models, tels que :
- leur fonctionnement
- les applications pratiques
- les stratégies d’amélioration et personnalisation des résultats de l’inférence
- le développement d’un service de RAG (Retrieval Augmented Generation) via LangChain
Objectifs
<div class="wrapper-block"><div class="wrapper-objectives"> <div class="icons-check"> </div>Compréhension des forces et faiblesses des LLMs</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Les bases théoriques des LLMs</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Utilisation des services LLMs propriétaires les plus répandus</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Utilisation de LLMs via Colab</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Zero- et Few-Shot Learning</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Fine Tuning avec LoRa</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Utilisation de LangChain</div><div class="wrapper-objectives"> <div class="icons-check"> </div>Création d'un service de RAG</div></div>
Note
Public cible
- Data Scientist
- Data Engineer
- ML Engineer
- Software Engineer
Prérequis
- Connaissance du langage Python
- Utilisation de Notebooks
Taux d'abandon
Programme détaillé
Attention : Ce programme de formation est en cours de révision et pourrait subir des modifications importantes. Restez à l'affût pour les dernières mises à jour.
Introduction aux LLMs
- L’IA Générative
- Qu’est-ce qu’un LLM ?
- Les cas d’usage principaux
Les principaux modèles du marché
- GPT
- PaLM
- LLaMa
- Claude
- Les autres
- Outils de benchmarking et comparaison
Tour d’horizon des solutions as-a-Service
- Azure OpenAI
- Google Cloud Platform Vertex AI
- HuggingFace
Exploitation
- Utilisation d’un LLM via Notebook
- Déploiement d’un LLM sur AWS SageMaker
Les fondations des LLMs
- Le Natural Language Processing
- Transformers
- Encoders et Decoders
- Architecture Decoder-Only Transformer
- Embeddings
- Tokenizers
Stratégie d’inférence
- Zero-Shot Learning
- Few-Shot Learning
- Fine Tuning
Augmentation de la base de connaissance
- RAG
- Processing de texte structuré
- Vectorisation
- Les base de données vecteurs
- Exploitation de la donnée
- Domain adaptation
Fine Tuning
- Les concepts clé
- Les techniques PEFT
- LoRa
- Prefix Tuning
- Prompt Tuning
Performances et Consommation
- Quantisation
- Knowledge distillation & Pruning
- LLM sur CPU ou GPU