Développement assisté par IA
Prototyper, construire et déployer avec les LLM comme partenaires de production
Ce cours forme une nouvelle génération de professionnels capables de produire des artefacts digitaux (sites, apps, prototypes, automatisations) en collaborant avec des modèles de langage. Pas "coder avec l'IA" comme raccourci paresseux, mais comprendre les architectures, diriger l'IA avec précision, et livrer du code de production.
Programme
Modules du cours
Comprendre les LLM
FondationFonctionnement d'un LLM : tokenisation, attention, context window, température. Différences entre GPT, Claude, Gemini, Mistral.
Prompt engineering appliqué au code
FondationSystem prompts, few-shot, chain-of-thought, contraintes de format. La qualité du résultat est proportionnelle à la clarté de la demande.
Les agents de code en production
IntermédiaireClaude Code, Cursor, Windsurf, GitHub Copilot : forces et faiblesses. Savoir quand utiliser quel outil.
Structurer un projet pour l'IA
IntermédiaireCLAUDE.md, conventions documentées, architecture lisible, fichiers de contexte. Un LLM ne peut contribuer efficacement qu'à un projet bien structuré.
Prototypage rapide
AvancéDe l'idée au déploiement en quelques heures avec Astro, Next.js, ou des stacks légères. v0, Bolt.new, Lovable.
Orchestration d'agents
AvancéHooks, skills, sous-agents personnalisés. Systèmes MCP (Model Context Protocol) pour connecter les LLM à des sources externes.
Évaluation et ROI
TransversalCoûts tokens, temps de review, dette technique. Quand l'IA accélère et quand elle ralentit. Calcul honnête du ROI.
Compétences acquises
Ce que l'étudiant sait faire en sortant
Maîtriser le prompt engineering appliqué au code
Utiliser Claude Code, Cursor, Windsurf comme outils de production
Structurer un projet pour qu'un LLM puisse y contribuer efficacement
Construire des hooks, skills et agents personnalisés
Prototyper un MVP fonctionnel déployé en quelques heures
Lire, comprendre et corriger du code généré par l'IA
Orchestrer des agents spécialisés en parallèle
Versionner, reviewer et déployer du code produit avec l'IA
Construire des systèmes MCP pour connecter LLM à des sources externes
Évaluer quand utiliser l'IA et quand ne pas l'utiliser
Lucidité professionnelle
Ce qu'on n'apprend pas dans les manuels
Au-delà des compétences techniques, la formation développe un regard critique sur les pratiques du marché.
Le Développement assisté par IA sans compréhension est dangereux
Accepter du code qu'on ne comprend pas, c'est accumuler de la dette technique invisible. L'IA accélère, elle ne remplace pas la compétence.
Le prompt est un outil de pensée
Un mauvais prompt produit du mauvais code, vite. La qualité du résultat est proportionnelle à la clarté de la demande.
Les LLM ont des patterns de faiblesse prévisibles
Sur-ingénierie, hallucination de dépendances, duplication, oubli du contexte long. Apprendre à les anticiper.
La vitesse ne vaut rien sans la qualité
Produire un prototype en 2h est impressionnant. Livrer un produit maintenable, sécurisé et performant est un métier.
L'IA ne remplace pas le développeur
Elle change son métier. Le professionnel de demain est un architecte-directeur qui conçoit, supervise et valide.
Le coût réel est souvent sous-estimé
Tokens API, temps de review/correction, dette technique accumulée, dépendance fournisseur. Calculer le ROI honnêtement.
Outils maîtrisés
Lexique professionnel
Format
Modalités d'intervention
Résultat
Prendre un brief, structurer un projet, produire un prototype fonctionnel déployé en quelques heures avec l'assistance d'un LLM, en sachant exactement ce que l'IA a fait et ce qu'il faut vérifier.