Explanations for the choices :
- IA_local: AI models and applications
- SpeechToText: api, libraries...
- TextToSpeech: api, libraries...
- SpeechToSpeech: mix of SpeechToText and TextToSpeech parts
- Mehdi L'Hommeau: Tuteur
- Hugo Savoye
- Léa Mariot
- Manon Duboscq
(Pour Windows avec VSC)
Etape 1 : LM Studio
- Télécharger LM Studio : https://lmstudio.ai/
- Dans LM, télécharger une version d'ia (dans notre cas : dolphin-2.2.1-mistral-7b.Q5_K_M.gguf).
- Charger le modèle et lancer le serveur local.
Etape 2 : ffmpeg
- Télécharger ffmpeg-master-latest-win64-gpl.zip: https://github.com/BtbN/FFmpeg-Builds/releases
- Créer un dossier :
C:\ffmpeg
- Mettre les fichiers du répertoire bin (ffmpeg.exe ffplay.exe ffprobe.exe) dans
C:\ffmpeg
- Dans la barre de recherche Windows, aller dans : Variables d'environnement pour votre compte
- Cliquer sur Path, puis Modifier... et ajouter un nouveau chemin
C:\ffmpeg
Etape 3 :
- Aller sur VSC
- Dans un terminal, faire
git clone https://github.com/HugoSvy/assistant_ia
ou télécharger le projet sur github. - Installation des dépendances :
cd .\assistant_ia\
pip install -r requirements.txt --user
- Ajouter la clé d'api de elevenlabs :
self.clientEL = ElevenLabs(api_key="")