← Retour aux formations

IA Generative Open Source

Formation Complete - Du Debutant a l'Expert Architect IA
Maitrisez les modeles open source (Llama, DeepSeek, Mistral, Qwen), le fine-tuning (LoRA/QLoRA), le RAG, les agents IA autonomes, le hardware GPU et le deploiement production. 192 lecons, 100% open source.
192 Lecons 8 Phases 32 Semaines 100% Open Source Mentor 30 ans XP
0
Lecons Terminees
192
Lecons Totales
8
Phases
24
Modules
0%
Progression

Progression Globale

0 / 192 lecons completees

Approche Pedagogique 2026

Top-Down, Application-First

On commence par faire tourner un modele le 1er jour. La theorie vient enrichir la pratique, pas l'inverse. Inspire de UC Berkeley ML.

Pedagogie Active

L'apprenant est acteur : labs pratiques, mises en situation, projets reels. 70% de pratique, 30% de theorie.

Progression par Capacites

Construction couche par couche. Chaque phase debloque la suivante. Quiz de positionnement entre phases.

Projets End-to-End

Portfolio de projets deployables. Le recruteur regarde le resultat, pas le notebook. Contribution open source incluse.

Gamification

Systeme XP, badges Bronze/Argent/Or/Platine, achievements par module. Motivation par progression visible.

Mentorat Expert

Conseils d'un architecte IA avec 30 ans d'experience. Anecdotes terrain, pieges a eviter, bonnes pratiques industrie.

Les 8 Phases de la Formation

Phase 1

Fondations IA & Environnement

Python pour l'IA, mathematiques essentielles (algebre lineaire, probabilites, optimisation), deep learning fondamentaux avec PyTorch, premier Transformer from scratch.
PythonNumPyPyTorchMaths MLTransformersCNN/RNN
24 lecons4 semaines0/24
Phase 2

Modeles Open Source & Inference Locale

Ecosysteme Hugging Face, Ollama, llama.cpp, vLLM, LM Studio. Deployer Llama 4.1, DeepSeek, Mistral, Qwen en local. Quantization, formats GGUF, modeles specialises.
Hugging FaceOllamavLLMllama.cppGGUFQuantization
24 lecons4 semaines0/24
Phase 3

LLM : Comprendre & Utiliser

Architecture Transformer en profondeur, self-attention, tokenization, scaling laws, prompt engineering expert, applications pratiques (chatbots, code, data, traduction).
AttentionTokenizationPromptingCoTSecuriteApplications
24 lecons4 semaines0/24
Phase 4

Fine-Tuning & Adaptation

LoRA, QLoRA, PEFT, SFT, DPO, RLHF. Fine-tuner sur GPU consumer (24GB). Axolotl, Unsloth, TRL. Model merging, distributed training, deploiement modeles custom.
LoRAQLoRAPEFTDPOTRLUnsloth
24 lecons4 semaines0/24
Phase 5

RAG & Applications Avancees

Embeddings, vector databases (Qdrant, Chroma, pgvector), chunking, reranking, LangChain, LlamaIndex, RAG conversationnel, Graph RAG, evaluation RAGAS, production.
RAGVector DBLangChainLlamaIndexRAGASEmbeddings
24 lecons4 semaines0/24
Phase 6

Agents IA Autonomes

Patterns agentiques (ReAct, Plan-Execute), CrewAI, AutoGen, LangGraph, Smolagents, MCP, systemes multi-agents, agents browser, DevOps, data analysis, production.
CrewAIAutoGenLangGraphMCPMulti-AgentsReAct
24 lecons4 semaines0/24
Phase 7

Hardware, Optimisation & Deploiement

GPU (RTX 5090, H100, B200), dimensionnement VRAM, quantization avancee, KV cache, Flash Attention, MLOps/LLMOps, Docker/K8s pour IA, monitoring, FinOps.
GPUVRAMMLOpsLLMOpsDockerFinOps
24 lecons4 semaines0/24
Phase 8

Multimodal, Specialisation & Leadership

Vision-Language models, generation images/audio/video, IA sectorielle (sante, finance, juridique), ethique, EU AI Act, Green AI, strategie IA, projet capstone.
MultimodalVisionAudioEthiqueEU AI ActStrategie
24 lecons4 semaines0/24

Modeles Open Source de Reference 2026

Llama 4.1
Meta - 8B a 405B
Llama Community
DeepSeek V3
DeepSeek - 671B MoE
MIT
Mistral Large 2
Mistral AI - 123B
Apache 2.0
Qwen 3
Alibaba - 0.6B-235B
Apache 2.0
Gemma 3
Google - 1B-27B
Gemma License
Phi-4
Microsoft - 14B
MIT
FLUX.1
Black Forest - Images
Apache 2.0
Whisper v3
OpenAI - Audio STT
MIT
StarCoder 2
BigCode - Code
BigCode
Stable Diffusion 3.5
Stability - Images
Stability
Mistral Small 3
Mistral AI - 24B
Apache 2.0
Command R+
Cohere - 104B RAG
CC-BY-NC

Guide Hardware 2026

Debutant / Etudiant

RTX 4060 Ti 16GB, 32GB RAM, 1TB SSD. Modeles jusqu'a 13B quantizes, fine-tuning LoRA 7B.

~500 - 1 000 EUR

Praticien / Pro

RTX 4090/5090 24-32GB, 64-128GB RAM, 2TB SSD. Modeles 70B (Q4), QLoRA sur gros modeles.

~2 000 - 4 000 EUR

Expert / Equipe

2x RTX 4090/5090, 256GB RAM, 4TB SSD. Modeles 70B+ haute qualite, multi-GPU training.

~5 000 - 15 000 EUR

Cloud / Enterprise

H100 80GB, B200 192GB via RunPod/Lambda/Vast.ai. Pre-training, entrainement distribue, production.

$1.5 - 4/heure GPU