Formation Generative AI & LLM
Cette formation s'adresse à un public souhaitant acquérir les connaissances nécessaires pour comprendre et mettre en œuvre les Large Language Models (LLM).
Les participants auront l'occasion d'approfondir leur compréhension des différents aspects des Large Language Models, tels que :
- leur fonctionnement
- les applications pratiques
- les stratégies d’amélioration et personnalisation des résultats de l’inférence
- le développement d’un service de RAG (Retrieval Augmented Generation) via LangChain
Objectifs
- Analyser les capacités et limitations des modèles de langage (LLMs)
- Expliquer les principes fondamentaux du fonctionnement des LLMs (architecture, entraînement, inférence)
- Manipuler les principales APIs de LLMs propriétaires (OpenAI, Claude, etc.)
- Déployer et exécuter des LLMs dans l'environnement Google Colab
- Concevoir des prompts efficaces pour le zero-shot et few-shot learning
- Réaliser un fine-tuning de modèle en utilisant la technique LoRa
- Développer des applications en utilisant le framework LangChain
- Construire un système de RAG (Retrieval-Augmented Generation) fonctionnel
- Évaluer la qualité des réponses générées par les différentes approches
Public cible
- Data Scientist
- Data Engineer
- ML Engineer
- Software Engineer
Prérequis
- Connaissance du langage Python
- Utilisation de Notebooks
Programme détaillé
Attention : Ce programme de formation est en cours de révision et pourrait subir des modifications importantes. Restez à l'affût pour les dernières mises à jour.
Introduction aux LLMs
- L’IA Générative
- Qu’est-ce qu’un LLM ?
- Les cas d’usage principaux
Les principaux modèles du marché
- GPT
- Gemini
- LLaMa
- Claude
- Les autres
- Outils de benchmarking et comparaison
Exploitation
- Utilisation d’un LLM via Notebook
Les fondations des LLMs
- Le Natural Language Processing
- Transformers
- Encoders et Decoders
- Architecture Decoder-Only Transformer
- Embeddings
- Tokenizers
Stratégie d’inférence
- Zero-Shot Learning
- Few-Shot Learning
- Fine Tuning
Augmentation de la base de connaissance
- RAG
- Pré-Processing
- Vectorisation
- Les base de données vecteurs
- Exploitation de la donnée
Fine Tuning
- Les concepts clé
- Les techniques PEFT
- LoRa
Performances et Consommation
- Quantisation
Ce qu’ils en disent…
Modalités d'évaluation
Un questionnaire d'auto-évaluation est envoyé aux participants avant et après la formation pour mesurer leur progression.
Pendant la formation :
Les acquis sont évalués tout au long de la formation par les formateurs sous forme de Quizz en ligne, questions réponses ou tour de table.
Le participant se verra délivrer une attestation de fin de formation à l’issue de la session
Organisation
Cette formation est en groupe de 6 à 12 personne en présentielle en intra-entreprise ou inter-entreprise en fonction du format souhaité par le commanditaire.
Modalités d'accès
Les sessions peuvent être programmées jusqu’ à 7 jours avant la date retenue, sous condition d’un formateur disponible et de la réception de la convention signée avant la session pour des groupes de 6 à 12 personnes .
Formateur(s)
Photos

Financer votre formation par un OPCO
Contacts

.png)





.png)






Formation IA Act

IA Générative pour Managers & Décideurs : clés, outils et bonnes pratiques

Data & AI Product Manager

L’Intelligence Artificielle selon Luc Julia

LLM & IA Générative - La Voie de la Raison

8 défis pour l’inférence locale de LLMs sur mobile
Nous vous accompagnons dans vos projets Data & IA

