Domaines

Développement assisté par IA

Prototyper, construire et déployer avec les LLM comme partenaires de production

UFR IngéMédia, Université de Toulon|Bac+3 à Bac+5|Toulon, Var

Ce cours forme une nouvelle génération de professionnels capables de produire des artefacts digitaux (sites, apps, prototypes, automatisations) en collaborant avec des modèles de langage. Pas "coder avec l'IA" comme raccourci paresseux, mais comprendre les architectures, diriger l'IA avec précision, et livrer du code de production.

Programme

Modules du cours

01

Comprendre les LLM

Fondation

Fonctionnement d'un LLM : tokenisation, attention, context window, température. Différences entre GPT, Claude, Gemini, Mistral.

02

Prompt engineering appliqué au code

Fondation

System prompts, few-shot, chain-of-thought, contraintes de format. La qualité du résultat est proportionnelle à la clarté de la demande.

03

Les agents de code en production

Intermédiaire

Claude Code, Cursor, Windsurf, GitHub Copilot : forces et faiblesses. Savoir quand utiliser quel outil.

04

Structurer un projet pour l'IA

Intermédiaire

CLAUDE.md, conventions documentées, architecture lisible, fichiers de contexte. Un LLM ne peut contribuer efficacement qu'à un projet bien structuré.

05

Prototypage rapide

Avancé

De l'idée au déploiement en quelques heures avec Astro, Next.js, ou des stacks légères. v0, Bolt.new, Lovable.

06

Orchestration d'agents

Avancé

Hooks, skills, sous-agents personnalisés. Systèmes MCP (Model Context Protocol) pour connecter les LLM à des sources externes.

07

Évaluation et ROI

Transversal

Coûts tokens, temps de review, dette technique. Quand l'IA accélère et quand elle ralentit. Calcul honnête du ROI.

Compétences acquises

Ce que l'étudiant sait faire en sortant

01

Maîtriser le prompt engineering appliqué au code

02

Utiliser Claude Code, Cursor, Windsurf comme outils de production

03

Structurer un projet pour qu'un LLM puisse y contribuer efficacement

04

Construire des hooks, skills et agents personnalisés

05

Prototyper un MVP fonctionnel déployé en quelques heures

06

Lire, comprendre et corriger du code généré par l'IA

07

Orchestrer des agents spécialisés en parallèle

08

Versionner, reviewer et déployer du code produit avec l'IA

09

Construire des systèmes MCP pour connecter LLM à des sources externes

10

Évaluer quand utiliser l'IA et quand ne pas l'utiliser

Lucidité professionnelle

Ce qu'on n'apprend pas dans les manuels

Au-delà des compétences techniques, la formation développe un regard critique sur les pratiques du marché.

Le Développement assisté par IA sans compréhension est dangereux

Accepter du code qu'on ne comprend pas, c'est accumuler de la dette technique invisible. L'IA accélère, elle ne remplace pas la compétence.

Le prompt est un outil de pensée

Un mauvais prompt produit du mauvais code, vite. La qualité du résultat est proportionnelle à la clarté de la demande.

Les LLM ont des patterns de faiblesse prévisibles

Sur-ingénierie, hallucination de dépendances, duplication, oubli du contexte long. Apprendre à les anticiper.

La vitesse ne vaut rien sans la qualité

Produire un prototype en 2h est impressionnant. Livrer un produit maintenable, sécurisé et performant est un métier.

L'IA ne remplace pas le développeur

Elle change son métier. Le professionnel de demain est un architecte-directeur qui conçoit, supervise et valide.

Le coût réel est souvent sous-estimé

Tokens API, temps de review/correction, dette technique accumulée, dépendance fournisseur. Calculer le ROI honnêtement.

Outils maîtrisés

Claude Code (CLI)CursorWindsurfGitHub Copilotv0 (Vercel)Bolt.newLovableClaude API / SDKAstro / Next.js / ReactTailwind CSSGit / GitHubDockerVercel / Netlify

Lexique professionnel

LLMGPTClaudeGeminitokencontext windowprompt engineeringsystem promptfew-shotchain-of-thoughtRAGembeddingvector databasefine-tuningDéveloppement assisté par IAagentictool useMCPCLAUDE.mdhooksskillssubagentshallucinationgroundingguardrailsinferenceAI washinghuman-in-the-loop

Format

Modalités d'intervention

Workshop pratiquePrototypage en liveProjet de déploiement complet

Résultat

Prendre un brief, structurer un projet, produire un prototype fonctionnel déployé en quelques heures avec l'assistance d'un LLM, en sachant exactement ce que l'IA a fait et ce qu'il faut vérifier.