Skip to content

🤖 LLM Minimal - GPT-2 Small sur CPU Projet pour créer et exécuter un LLM minimaliste basé sur GPT-2 Small, optimisé pour fonctionner sur CPU sans GPU.

License

Notifications You must be signed in to change notification settings

michaelgermini/LLM-Minimal-GPT-2-Small-sur-CPU

Repository files navigation

🤖 LLM Minimal - GPT-2 Small sur CPU

Projet pour créer et exécuter un LLM minimaliste basé sur GPT-2 Small, optimisé pour fonctionner sur CPU sans GPU.

🚀 Démarrage Ultra-Rapide

# 1. Installer
pip install -r requirements.txt

# 2. Lancer
python main.py

C'est tout ! Le menu interactif vous guide.


📚 Documentation

🚀 Démarrage

📁 Organisation

📖 Livre

🎓 Apprentissage

🔧 Dépannage


📁 Structure du Projet

llm/
├── 📄 main.py                 # 🚀 Point d'entrée principal
├── 📄 README.md               # Documentation
├── 📄 requirements.txt        # Dépendances
│
├── 📁 scripts/                # Scripts exécutables
│   ├── chat/                  # 💬 Chat interactif
│   │   ├── chat_ameliore.py   # ⭐ Recommandé
│   │   ├── chat_entraine.py   # Modèle fine-tuné
│   │   └── run_chat.py        # Version simple
│   │
│   ├── training/              # 🎓 Entraînement
│   │   ├── apprendre_conversations.py
│   │   └── fine_tune_simple.py
│   │
│   ├── optimization/          # ⚡ Optimisation
│   │   ├── benchmark.py
│   │   ├── onnx_quantized.py
│   │   └── comparer_modeles.py
│   │
│   ├── api/                   # 🌐 Interfaces
│   │   ├── interface_web.py   # Gradio
│   │   └── api_serveur.py     # REST API
│   │
│   └── tools/                 # 🔧 Outils
│       ├── download_model.py
│       └── generer_texte.py
│
├── 📁 src/                    # Code source modulaire
│   ├── models/                # Chargement & config
│   ├── inference/             # Génération & chat
│   └── training/              # Entraînement
│
├── 📁 data/                   # Données
│   └── conversations/french/  # Données conversationnelles
│
├── 📁 docs/                   # Documentation complète
│   ├── guides/                # Guides détaillés
│   └── LIVRE_*.md             # Livre complet
│
├── 📁 notebooks/Livre/        # Chapitres interactifs
├── 📁 models_saved/           # Modèles sauvegardés
├── 📁 tests/                  # Tests
└── 📁 output/                 # Résultats

🧪 Commandes Rapides

# Menu interactif
python main.py

# Raccourcis directs
python main.py chat        # Chat
python main.py test        # Test installation
python main.py benchmark   # Benchmark
python main.py train       # Entraînement
python main.py web         # Interface web
python main.py api         # API REST
python main.py download    # Télécharger modèle

📊 Résultats Attendus

Modèle Taille Vitesse CPU RAM
GPT-2 Small 500 Mo ~1 token/s ~2 Go
DistilGPT2 250 Mo ~2 tokens/s ~1.5 Go
DistilGPT2 (int8) 150 Mo ~4-5 tokens/s ~1 Go

🎯 Objectifs

  • ✅ LLM fonctionnel et compact (< 200 Mo)
  • ✅ Exécution efficace sur CPU
  • ✅ Vitesse d'inférence raisonnable
  • ✅ Fine-tuning possible
  • ✅ Documentation complète

📝 Notes

  • Les modèles sont téléchargés automatiquement depuis Hugging Face
  • L'inférence sur CPU est plus lente qu'avec GPU, mais fonctionnelle
  • Consultez docs/guides/GUIDE_COMPLET.md pour plus de détails

About

🤖 LLM Minimal - GPT-2 Small sur CPU Projet pour créer et exécuter un LLM minimaliste basé sur GPT-2 Small, optimisé pour fonctionner sur CPU sans GPU.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages