Ask AmélieBlogÀ proposMéthodologieECNPASS

Glossaire Agent IA & Éducation — LLM, prompt, RAG, apprentissage

Définitions termes agents IA, modèles langages, techniques pédagogiques éducation. Sources : papers Anthropic/OpenAI, recherche apprentissage.

LLM

Large Language Model

Modèle réseau neuronal transformer pré-entraîné miliards paramètres. Apprend patterns texte massivement (Common Crawl 2+ trillion tokens). Capacité : prédire token suivant séquence + generalizer tâches non-vues. Exemples: GPT-4 (~1.7T params), Claude 3.5 (~100B params), LLaMA. Révolution NLP 2023-2026.

Voir aussi : gpt · claude · transformer

GPT

Generative Pre-trained Transformer

Architecture LLM OpenAI (GPT-3, GPT-3.5, GPT-4, GPT-4o). Séries descendantes : GPT-3 (175B params, 2020) → GPT-3.5 (optimisé instruction-tuning) → GPT-4 (multimodal 2023) → GPT-4o (omni audio-visual 2024). Dominant marché commercial. API OpenAI (~$0.015-0.10 per 1M tokens dépendant modèle).

Voir aussi : llm · claude · gemini · instruction tuning

Claude

Série LLM Anthropic (Claude 1 → 3.5 Sonnet 2024). Axe sécurité: Constitutional AI entraînement limite toxicité/bias. Claude 3.5 Sonnet : ~200K token context (vs GPT-4 128K). Prix: $0.003-0.03 input, $0.015-0.10 output per 1M tokens. Alternative OpenAI, fort sur code/reasoning. Fondateur Dario Amodei (ex-OpenAI).

Voir aussi : llm · gpt · gemini

Gemini

Série LLM Google DeepMind (Gemini 1.0, 1.5, 2.0 bêta 2025). Multimodal natif : text/image/audio/video. 1M token context (Gemini 1.5 Pro). API gratuit tier (limited), payant ~$0.005-0.10/1M tokens. Prompt caching (réduction coûts requêtes répétées). Concurrent OpenAI/Anthropic intégration écosystème Google.

Voir aussi : llm · gpt · claude

Prompt engineering

Art conception questions/instructions LLM maximisant réponse qualité. Techniques: few-shot examples, chain-of-thought (COT), role-playing, system prompts. Coûts: input tokens × prix/1M. Exemple bon prompt vs mauvais : +30% accuracy éducation. Outil: prompts.com, OpenAI cookbook. Métier émergent 2023-2024.

Voir aussi : rag · chain of thought · few shot

RAG

Retrieval Augmented Generation

Technique hybrid LLM + base documents: (1) requête utilisateur → (2) récupération documents pertinents (embedding vector similarity), (3) LLM génère réponse basée documents context. Avantages: facts actualisés, citations sources, réduction hallucinations. Frameworks: LangChain, LlamaIndex. Critique: latency retrieval (~100-500ms).

Voir aussi : llm · embedding · hallucination

Retrieval practice

Technique pédagogique : tester mémoire étudiant questions/quizzes → renforcer rétention long-terme (~70% gain vs passive reading). Mécanisme: retrieval succès = strengthening neural pathway. Évidence: 100+ études confirment. Agent IA pédagogique: quiz automatisé + feedback → retrieval practice optimal.

Spaced repetition

Algorithme mémoire: intervalles révision augmentent exponentiellement si succès (Ebbinghaus 1885). Exemple: jour 1 → 3j → 7j → 14j → 30j. Rétention: ~95% vs 50% cramming. Logiciels: Anki, Quizlet. Agents IA pédagogique: implémenter scheduler items selon difficulty + last-review date.

Interleaving

Mélanger topics/types problèmes dans pratique (vs blocage identique type). Exemple: maths mixte algèbre+géométrie exos au lieu bloc algebra 20 problèmes. Gain rétention: +20-30% interleaving vs blocked. Difficile initiale (frustration) mais long-terme superieur. Agents IA: curriculum dynamique interleaved items.

Deliberate practice

Entrainement intentionnel focuses effort sur weakness. Critères Ericsson: (1) objectif spécifique, (2) concentration effort maximal, (3) feedback immédiat, (4) correction erreurs. 10,000h mythe: vraie deliberate practice ~2-3 ans expertise (musique/chess). Agents pédagogique: identifier weakness → ajuster difficulty.

Metacognition

Conscience pensée propre: monitorage compréhension, identification gaps apprentissage, ajustement stratégie. Question metacog : 'Comprends-je vraiment?' vs surface comprehension. Agents IA: poser questions métacog → 'Peux-tu expliquer pourquoi?' → révéler misconceptions. Lien rétention: +40% avec metacognitive awareness.

Feedback

Information réponse apprenant vs objectif. Types: (1) knowledge of results (correct/incorrect), (2) corrective (pourquoi faux + correction), (3) process-oriented (comment améliorer). Délai: immédiat > 1 jour >> 1 semaine. Agents IA: feedback automatisé ~0ms latence vs humain 1+ jours. Effet: +30-50% gain apprentissage.

Formative assessment

Évaluation ongoing during apprentissage (quizzes, discussions) guidant instruction. Non-gradée (low-stakes). Objectif: identifier misconceptions → remediation. vs summative assessment (test final, gradé). Agents IA: quiz continu formative → adaptatif à progression. Gain: +20-25% scores vs summative seul.

Summative assessment

Évaluation finale (test, examen) mesurant maîtrise global. Gradée, high-stakes (impact notes/admission). Timing: fin unité/cours/année. Agents IA: moins utilisé (formative prioritaire), mais auto-examen possible. Tension: summative teste *transfer* (application nova contexte), plus difficile à designer.

Socratic method

Pédagogie Socrate (Platon): questions guidées révélant contradictions → apprenant construit compréhension. Vs sage-on-stage (lecteur donne réponses). Effectif: critique thinking + ownership. Agents IA: simuler méthode Socratique via prompts 'Peut-tu me dire comment tu arriverais à cette réponse?' → apprentissage profond.

Scaffolding

Support temporaire (analogie: échafaudage construction) réduisant difficulté tâche. Exemples: hints progressifs, worked examples, partially-solved problems. Retrait graduellement si progrès. Piaget-Vygotsky: support critique dev zone proximal. Agents IA: ajuster level hints/support dynamiquement → optimiser difficulty.

Zone of Proximal Development

Concept Vygotsky: écart entre ce apprenant peut faire seul vs avec aide expert. Apprentissage optimal: tâches légèrement difficiles (ZPD) + support graduel. ZPD trop facile = ennui, trop difficile = frustration. Agents IA: curriculum adaptatif visant ZPD continuellement.

Adaptive learning

Système ajuste contenu/difficulty dynamiquement performance apprenant. Algorithmes: IRT (Item Response Theory), probabilistic networks. Données trackées: temps réponse, errors, confidence → model learner state. Plateformes: Khan Academy (Mastery System), Knewton. Agents IA: parfait candidat adaptatif (decision-making real-time).

Personalization

Customisation contenu/pace learner profil. Approches: (1) learning styles (auditif/visuel/kinesthétique) [critiqué scientifiquement], (2) interests (histoire vs math), (3) prior knowledge. Agents IA: intégrer preferences + objective learning science (vs learning styles myth). Effectif: +10-20% engagement.

Gamification

Intégration mécaniques jeu (points, badges, leaderboards, quests) apprentissage. Effectivité: mitigée scientifiquement. Positif: intrinsic motivation court-terme. Négatif: addiction risk, gaming system (cheat badges), outcompete mastery. Agents IA: gamification légère (progress bar, achievement badges) efficace vs overdone.

Voir aussi : motivation · engagement

Microlearning

Contenu apprentissage très court (<5 min): micro-videos (1-2min), quiz (2 min), flashcard. Avantage: bite-sized, mobile-friendly, attention span modern learners. Risque: fragmentation conceptuelle (pas contexte global). Agents IA: micro-content generator (5-min lessons) + spaced repetition = engagement sustain.

Chunking

Groupement information unités cohérentes réduisant cognitive load. Exemple: numéro téléphone 06-12-34-56-78 chunked (vs 0612345678 random). Miller 7±2: max 7 chunks simultaneity mémoire court-terme. Agents pédagogique: présenter information chunked hiérarchiquement → rétention +30%.

Voir aussi : cognitive load · transfer

Retention

Mémoire long-terme information apprise. Mesurée: récall (libre) vs recognition (multi-choice). Facteurs: répétition (spaced répétition), encoding depth (elaboration vs rote), sleep consolidation. Agents IA: maximiser rétention via retrieval practice + spaced intervals optimisés.

Transfer

Application learning novel context (vs memorization isolated facts). Exemple: apprendre algèbre → appliquer physics. Difficile: ~10-15% learners transferent sans scaffolding. Agents IA: design varied problems + contextual analogies → augment transfer likelihood.

Voir aussi : chunking · retention · metacognition

Bloom's taxonomy

Framework 6 niveaux objectifs pédagogiques (Bloom 1956, revised Anderson/Krathwohl 2001): Remember → Understand → Apply → Analyze → Evaluate → Create. Progressif: Create = plus difficile. Agents IA: calibrer questions across levels (vs seul Remember level). Exemple: Analyze level = 'Compare deux approches' vs Remember = 'Définir terme'.

Ask Amélie : un coach IA qui maîtrise ce vocabulaire pour toi

1€ les 7 premiers jours · 29,90€/mois · Annulable

Démarrer →