Introduction à l'IA Générative & aux LLMs — Atelier de 3 jours
Atelier de 3 jours : LLMs, prompt engineering, fine-tuning (LoRA), RAG, déploiement.
Formateur : Dr. Yaé Ulrich Gaba Durée : 3 jours (18 heures) Niveau : Intermédiaire Langue : Français
Présentation
Cet atelier offre une introduction pratique à l’IA générative et aux grands modèles de langage (LLMs). Les participants apprennent le prompt engineering, le fine-tuning, la génération augmentée par récupération (RAG) et les stratégies de déploiement. L’atelier équilibre compréhension conceptuelle et implémentation pratique avec les APIs commerciales (OpenAI) et les modèles open-source.
Prérequis
- Programmation Python de base (variables, fonctions, boucles)
- Familiarité avec les concepts de machine learning (entraînement, inférence, évaluation)
- Une clé API OpenAI (niveau gratuit disponible sur platform.openai.com)
- Ordinateur portable avec Python 3.10+
Objectifs Pédagogiques
À la fin de cet atelier, les participants seront capables de :
- Comprendre l’architecture et les capacités des LLMs modernes
- Rédiger des prompts efficaces avec des techniques structurées
- Construire des applications avec l’API OpenAI et LangChain
- Implémenter des pipelines de Retrieval-Augmented Generation (RAG)
- Fine-tuner des modèles open-source sur des jeux de données personnalisés
- Évaluer les sorties des LLMs et déployer des applications de manière responsable
Logiciels Requis
- Python 3.10+
- Bibliothèques : openai, langchain, transformers, sentence-transformers, chromadb, gradio
- Optionnel : compte HuggingFace, accès GPU (Google Colab gratuit suffit)
Programme Jour par Jour
Jour 1 : Comprendre les LLMs & Prompt Engineering
Objectifs : Comprendre le fonctionnement des LLMs et maîtriser les techniques de prompt engineering.
| Horaire | Sujet |
|---|---|
| 09:00–10:00 | Le Paysage de l’IA Générative — De GPT à Claude en passant par l’open-source : chronologie, modèles clés, capacités et limites, tokens et fenêtres de contexte |
| 10:00–10:45 | Comment Fonctionnent les LLMs — Architecture Transformer (intuition, pas de mathématiques lourdes), pré-entraînement, instruction tuning, RLHF, capacités émergentes |
| 10:45–11:00 | Pause |
| 11:00–12:30 | Fondamentaux du Prompt Engineering — Zero-shot, few-shot, chaîne de pensée, role prompting, system prompts, sortie structurée (mode JSON), température et top-p |
| 12:30–14:00 | Déjeuner |
| 14:00–15:30 | Prompting Avancé — Chaînage de prompts, auto-cohérence, arbre de pensée, méta-prompting, modèles de prompts, gestion des longs contextes |
| 15:30–15:45 | Pause |
| 15:45–17:00 | API OpenAI — Authentification, complétions de chat, streaming, appel de fonctions / utilisation d’outils, API vision, gestion des coûts |
TP 1 : Construire une boîte à outils de prompt engineering : créer un ensemble de modèles de prompts réutilisables pour des tâches courantes (résumé, extraction, classification, génération de code). Tester avec différents modèles et comparer les sorties.
Devoir : Utiliser l’API OpenAI pour construire un script qui résume des articles académiques à partir de leurs résumés.
Jour 2 : Construction d’Applications — RAG & LangChain
Objectifs : Construire des applications pratiques alimentées par les LLMs avec RAG et des frameworks d’orchestration.
| Horaire | Sujet |
|---|---|
| 09:00–09:30 | Revue du devoir |
| 09:30–10:30 | Embeddings & Recherche Vectorielle — Qu’est-ce qu’un embedding, sentence-transformers, recherche par similarité, bases de données vectorielles (ChromaDB, FAISS), stratégies d’indexation |
| 10:30–10:45 | Pause |
| 10:45–12:30 | Retrieval-Augmented Generation — Architecture RAG, chargement de documents (PDF, web, CSV), stratégies de découpage, pipeline récupération + génération, gestion des hallucinations |
| 12:30–14:00 | Déjeuner |
| 14:00–15:30 | Essentiels de LangChain — Chaînes, agents, outils, mémoire, parseurs de sortie. Construction d’un agent de raisonnement multi-étapes |
| 15:30–15:45 | Pause |
| 15:45–17:00 | Construction d’un Système Q&R — De bout en bout : ingérer les documents, construire l’index vectoriel, créer la chaîne de récupération, ajouter la mémoire conversationnelle, déployer avec Gradio |
TP 2 : Construire un chatbot Q&R alimenté par RAG qui répond aux questions sur une collection d’articles de recherche (PDFs fournis). Le système doit citer ses sources et gérer le « je ne sais pas » de manière élégante.
Devoir : Étendre le chatbot pour gérer une nouvelle collection de documents pertinente pour votre recherche/travail.
Jour 3 : Fine-Tuning, Évaluation & Déploiement
Objectifs : Fine-tuner des modèles, évaluer les sorties rigoureusement et déployer de manière responsable.
| Horaire | Sujet |
|---|---|
| 09:00–09:30 | Revue du devoir |
| 09:30–10:30 | Concepts du Fine-Tuning — Quand fine-tuner vs. prompter vs. RAG, préparation des données, format d’instructions, LoRA et méthodes à paramètres efficaces |
| 10:30–10:45 | Pause |
| 10:45–12:00 | Fine-Tuning Pratique — Fine-tuner un petit modèle open-source (ex. : Mistral 7B / Llama) sur un jeu de données personnalisé avec HuggingFace Transformers + PEFT. Utilisation de Google Colab pour l’accès GPU |
| 12:00–12:30 | API de Fine-Tuning OpenAI — Préparation des données JSONL, lancement des tâches, évaluation des résultats, considérations de coût |
| 12:30–14:00 | Déjeuner |
| 14:00–15:00 | Évaluation — Évaluation humaine, métriques automatisées (BLEU, ROUGE, BERTScore), LLM-as-judge, frameworks d’évaluation, bases du red teaming |
| 15:00–15:15 | Pause |
| 15:15–16:00 | Déploiement & Éthique — Déploiement par API, interfaces Gradio/Streamlit, limitation de débit, filtrage de contenu, détection de biais, lignes directrices IA responsable, considérations du contexte africain |
| 16:00–17:00 | Projet Final & Bilan — Présentations des projets, discussion sur l’avenir des LLMs en recherche et industrie, questions, certificats |
TP 3 (Projet Final) : Choisir un projet :
- Assistant de recherche : chatbot RAG pour un domaine de recherche spécifique avec support de citations
- Analyseur de documents : extraction automatisée des résultats clés d’un corpus d’articles
- Classificateur personnalisé : modèle fine-tuné pour la classification de texte spécifique à un domaine (ex. : rapports médicaux, documents juridiques)
Évaluation
- TPs quotidiens (50 %) — Applications fonctionnelles et qualité du code
- Projet final (30 %) — Application de bout en bout présentée le Jour 3
- Participation (20 %) — Engagement et devoirs
Ressources
- Documentation OpenAI
- Documentation LangChain
- HuggingFace Transformers
- Guide de Prompt Engineering
- Article RAG (Lewis et al., 2020)
Certificat
Les participants ayant complété tous les TPs et le projet final reçoivent un certificat de complétion.