Introduction à l'IA Générative & aux LLMs — Atelier de 3 jours

Atelier de 3 jours : LLMs, prompt engineering, fine-tuning (LoRA), RAG, déploiement.

Formateur : Dr. Yaé Ulrich Gaba Durée : 3 jours (18 heures) Niveau : Intermédiaire Langue : Français


Présentation

Cet atelier offre une introduction pratique à l’IA générative et aux grands modèles de langage (LLMs). Les participants apprennent le prompt engineering, le fine-tuning, la génération augmentée par récupération (RAG) et les stratégies de déploiement. L’atelier équilibre compréhension conceptuelle et implémentation pratique avec les APIs commerciales (OpenAI) et les modèles open-source.

Prérequis

  • Programmation Python de base (variables, fonctions, boucles)
  • Familiarité avec les concepts de machine learning (entraînement, inférence, évaluation)
  • Une clé API OpenAI (niveau gratuit disponible sur platform.openai.com)
  • Ordinateur portable avec Python 3.10+

Objectifs Pédagogiques

À la fin de cet atelier, les participants seront capables de :

  1. Comprendre l’architecture et les capacités des LLMs modernes
  2. Rédiger des prompts efficaces avec des techniques structurées
  3. Construire des applications avec l’API OpenAI et LangChain
  4. Implémenter des pipelines de Retrieval-Augmented Generation (RAG)
  5. Fine-tuner des modèles open-source sur des jeux de données personnalisés
  6. Évaluer les sorties des LLMs et déployer des applications de manière responsable

Logiciels Requis

  • Python 3.10+
  • Bibliothèques : openai, langchain, transformers, sentence-transformers, chromadb, gradio
  • Optionnel : compte HuggingFace, accès GPU (Google Colab gratuit suffit)

Programme Jour par Jour

Jour 1 : Comprendre les LLMs & Prompt Engineering

Objectifs : Comprendre le fonctionnement des LLMs et maîtriser les techniques de prompt engineering.

Horaire Sujet
09:00–10:00 Le Paysage de l’IA Générative — De GPT à Claude en passant par l’open-source : chronologie, modèles clés, capacités et limites, tokens et fenêtres de contexte
10:00–10:45 Comment Fonctionnent les LLMs — Architecture Transformer (intuition, pas de mathématiques lourdes), pré-entraînement, instruction tuning, RLHF, capacités émergentes
10:45–11:00 Pause
11:00–12:30 Fondamentaux du Prompt Engineering — Zero-shot, few-shot, chaîne de pensée, role prompting, system prompts, sortie structurée (mode JSON), température et top-p
12:30–14:00 Déjeuner
14:00–15:30 Prompting Avancé — Chaînage de prompts, auto-cohérence, arbre de pensée, méta-prompting, modèles de prompts, gestion des longs contextes
15:30–15:45 Pause
15:45–17:00 API OpenAI — Authentification, complétions de chat, streaming, appel de fonctions / utilisation d’outils, API vision, gestion des coûts

TP 1 : Construire une boîte à outils de prompt engineering : créer un ensemble de modèles de prompts réutilisables pour des tâches courantes (résumé, extraction, classification, génération de code). Tester avec différents modèles et comparer les sorties.

Devoir : Utiliser l’API OpenAI pour construire un script qui résume des articles académiques à partir de leurs résumés.


Jour 2 : Construction d’Applications — RAG & LangChain

Objectifs : Construire des applications pratiques alimentées par les LLMs avec RAG et des frameworks d’orchestration.

Horaire Sujet
09:00–09:30 Revue du devoir
09:30–10:30 Embeddings & Recherche Vectorielle — Qu’est-ce qu’un embedding, sentence-transformers, recherche par similarité, bases de données vectorielles (ChromaDB, FAISS), stratégies d’indexation
10:30–10:45 Pause
10:45–12:30 Retrieval-Augmented Generation — Architecture RAG, chargement de documents (PDF, web, CSV), stratégies de découpage, pipeline récupération + génération, gestion des hallucinations
12:30–14:00 Déjeuner
14:00–15:30 Essentiels de LangChain — Chaînes, agents, outils, mémoire, parseurs de sortie. Construction d’un agent de raisonnement multi-étapes
15:30–15:45 Pause
15:45–17:00 Construction d’un Système Q&R — De bout en bout : ingérer les documents, construire l’index vectoriel, créer la chaîne de récupération, ajouter la mémoire conversationnelle, déployer avec Gradio

TP 2 : Construire un chatbot Q&R alimenté par RAG qui répond aux questions sur une collection d’articles de recherche (PDFs fournis). Le système doit citer ses sources et gérer le « je ne sais pas » de manière élégante.

Devoir : Étendre le chatbot pour gérer une nouvelle collection de documents pertinente pour votre recherche/travail.


Jour 3 : Fine-Tuning, Évaluation & Déploiement

Objectifs : Fine-tuner des modèles, évaluer les sorties rigoureusement et déployer de manière responsable.

Horaire Sujet
09:00–09:30 Revue du devoir
09:30–10:30 Concepts du Fine-Tuning — Quand fine-tuner vs. prompter vs. RAG, préparation des données, format d’instructions, LoRA et méthodes à paramètres efficaces
10:30–10:45 Pause
10:45–12:00 Fine-Tuning Pratique — Fine-tuner un petit modèle open-source (ex. : Mistral 7B / Llama) sur un jeu de données personnalisé avec HuggingFace Transformers + PEFT. Utilisation de Google Colab pour l’accès GPU
12:00–12:30 API de Fine-Tuning OpenAI — Préparation des données JSONL, lancement des tâches, évaluation des résultats, considérations de coût
12:30–14:00 Déjeuner
14:00–15:00 Évaluation — Évaluation humaine, métriques automatisées (BLEU, ROUGE, BERTScore), LLM-as-judge, frameworks d’évaluation, bases du red teaming
15:00–15:15 Pause
15:15–16:00 Déploiement & Éthique — Déploiement par API, interfaces Gradio/Streamlit, limitation de débit, filtrage de contenu, détection de biais, lignes directrices IA responsable, considérations du contexte africain
16:00–17:00 Projet Final & Bilan — Présentations des projets, discussion sur l’avenir des LLMs en recherche et industrie, questions, certificats

TP 3 (Projet Final) : Choisir un projet :

  • Assistant de recherche : chatbot RAG pour un domaine de recherche spécifique avec support de citations
  • Analyseur de documents : extraction automatisée des résultats clés d’un corpus d’articles
  • Classificateur personnalisé : modèle fine-tuné pour la classification de texte spécifique à un domaine (ex. : rapports médicaux, documents juridiques)

Évaluation

  • TPs quotidiens (50 %) — Applications fonctionnelles et qualité du code
  • Projet final (30 %) — Application de bout en bout présentée le Jour 3
  • Participation (20 %) — Engagement et devoirs

Ressources

Certificat

Les participants ayant complété tous les TPs et le projet final reçoivent un certificat de complétion.