Projet pour créer et exécuter un LLM minimaliste basé sur GPT-2 Small, optimisé pour fonctionner sur CPU sans GPU.
# 1. Installer
pip install -r requirements.txt
# 2. Lancer
python main.pyC'est tout ! Le menu interactif vous guide.
QUICK_START.md- En 3 étapesdocs/guides/GUIDE_COMPLET.md- Guide exhaustif
docs/guides/ORGANISATION.md- Structure du projetdocs/guides/SCRIPTS.md- Documentation des scripts
docs/LIVRE_LLM_MINIMAL_V2.md- Livre completnotebooks/Livre/- Chapitres interactifs
docs/guides/EXPLICATION_LLM.md- Fonctionnementdocs/guides/APPRENTISSAGE_LLM.md- Comment apprendredocs/guides/GUIDE_FINETUNING.md- Fine-tuning
docs/guides/HALLUCINATIONS.md- Qualitédocs/guides/TELECHARGEMENT.md- Téléchargement
llm/
├── 📄 main.py # 🚀 Point d'entrée principal
├── 📄 README.md # Documentation
├── 📄 requirements.txt # Dépendances
│
├── 📁 scripts/ # Scripts exécutables
│ ├── chat/ # 💬 Chat interactif
│ │ ├── chat_ameliore.py # ⭐ Recommandé
│ │ ├── chat_entraine.py # Modèle fine-tuné
│ │ └── run_chat.py # Version simple
│ │
│ ├── training/ # 🎓 Entraînement
│ │ ├── apprendre_conversations.py
│ │ └── fine_tune_simple.py
│ │
│ ├── optimization/ # ⚡ Optimisation
│ │ ├── benchmark.py
│ │ ├── onnx_quantized.py
│ │ └── comparer_modeles.py
│ │
│ ├── api/ # 🌐 Interfaces
│ │ ├── interface_web.py # Gradio
│ │ └── api_serveur.py # REST API
│ │
│ └── tools/ # 🔧 Outils
│ ├── download_model.py
│ └── generer_texte.py
│
├── 📁 src/ # Code source modulaire
│ ├── models/ # Chargement & config
│ ├── inference/ # Génération & chat
│ └── training/ # Entraînement
│
├── 📁 data/ # Données
│ └── conversations/french/ # Données conversationnelles
│
├── 📁 docs/ # Documentation complète
│ ├── guides/ # Guides détaillés
│ └── LIVRE_*.md # Livre complet
│
├── 📁 notebooks/Livre/ # Chapitres interactifs
├── 📁 models_saved/ # Modèles sauvegardés
├── 📁 tests/ # Tests
└── 📁 output/ # Résultats
# Menu interactif
python main.py
# Raccourcis directs
python main.py chat # Chat
python main.py test # Test installation
python main.py benchmark # Benchmark
python main.py train # Entraînement
python main.py web # Interface web
python main.py api # API REST
python main.py download # Télécharger modèle| Modèle | Taille | Vitesse CPU | RAM |
|---|---|---|---|
| GPT-2 Small | 500 Mo | ~1 token/s | ~2 Go |
| DistilGPT2 | 250 Mo | ~2 tokens/s | ~1.5 Go |
| DistilGPT2 (int8) | 150 Mo | ~4-5 tokens/s | ~1 Go |
- ✅ LLM fonctionnel et compact (< 200 Mo)
- ✅ Exécution efficace sur CPU
- ✅ Vitesse d'inférence raisonnable
- ✅ Fine-tuning possible
- ✅ Documentation complète
- Les modèles sont téléchargés automatiquement depuis Hugging Face
- L'inférence sur CPU est plus lente qu'avec GPU, mais fonctionnelle
- Consultez
docs/guides/GUIDE_COMPLET.mdpour plus de détails