TaskingAI est une plateforme BaaS (Backend as a Service) pour le développement et déploiement d'agents basés sur LLM. Elle unifie l'intégration de centaines de modèles LLM et offre une interface utilisateur intuitive pour gérer les modules fonctionnels de votre application LLM, y compris les outils, les systèmes RAG, les assistants, l'historique des conversations, et bien plus encore.
- Plateforme LLM Tout-en-Un : Accédez à des centaines de modèles IA avec des API unifiées.
- Améliorations Abondantes : Améliorez les performances de l'agent LLM avec des centaines d'outils intégrés personnalisables et un système avancé de Retrieval-Augmented Generation (RAG).
- Flux de Travail Inspiré par le BaaS : Séparez la logique IA (côté serveur) du développement produit (côté client), offrant un chemin clair du prototypage basé sur console à des solutions évolutives utilisant des API RESTful et des SDK client.
- Déploiement en un Clic : Déployez vos agents IA en un clic en phase de production, et mettez-les à l'échelle facilement. Laissez TaskingAI s'occuper du reste.
- Efficacité Asynchrone : Exploitez les fonctionnalités asynchrones de Python FastAPI pour des calculs concurrentiels haute-performance, améliorant la réactivité et la scalabilité des applications.
- Console UI Intuitive : Simplifie la gestion de projet et permet les tests de workflow dans la console.
Modèles : TaskingAI se connecte à des centaines de LLM de divers fournisseurs, dont OpenAI, Anthropic, et plus. Nous permettons également aux utilisateurs d'intégrer des modèles hôtes locaux via Ollama, LM Studio et Local AI.
Plugins : TaskingAI prend en charge une large gamme de plugins intégrés pour renforcer vos agents IA, y compris la recherche Google, le lecteur de sites web, la récupération du marché boursier, et plus. Les utilisateurs peuvent également créer des outils personnalisés pour répondre à leurs besoins spécifiques.
LangChain est un framework d'outils pour le développement d'applications LLM, mais il présente des limitations pratiques :
- Sans État : Dépend de services client ou externes pour la gestion des données.
- Défis de Scalabilité : L'absence d'état impacte le traitement cohérent des données entre les sessions.
- Dépendances Externes : Dépend de ressources externes comme les SDK modèles et le stockage vectoriel.
Assistant API d'OpenAI excelle dans la fourniture de fonctionnalités de type GPT mais présente ses propres contraintes :
- Fonctionnalités Liées : Les intégrations comme les outils et les récupérations sont liées à chaque assistant, non adaptées pour des applications multi-locataires.
- Limites Propriétaires : Restreint aux modèles OpenAI, inappropriés pour des besoins divers.
- Limites de Personnalisation: Les utilisateurs ne peuvent pas personnaliser la configuration de l'agent comme le système de mémoire et de récupération.
- Prend en charge les usages avec ou sans état : Que ce soit pour suivre et gérer l'historique des messages et les sessions de conversation de l'agent, ou simplement faire des demandes de complétion de chat sans état, TaskingAI couvre les deux.
- Gestion modulaire découplée : Gestion découplée des outils, des systèmes RAG, des modèles de langue de l'agent. Et permet la combinaison libre de ces modules pour créer un puissant agent IA.
- Support Multi-Locataire : TaskingAI prend en charge le déploiement rapide après le développement et peut être utilisé dans des scénarios multi-locataires. Pas besoin de se soucier des services cloud, concentrez-vous simplement sur le développement d'agents IA.
- API Unifiée : TaskingAI fournit des API unifiées pour tous les modules, y compris les outils, les systèmes RAG, les modèles de langue, et plus encore. Super facile à gérer et à modifier les configurations de l'agent IA.
- Démos d'Applications Interactives
- Agents IA pour la Productivité en Entreprise
- Applications Native-Multi-Locataire pour les Entreprises
Merci de nous donner une ÉTOILE GRATUITE 🌟 si vous le trouvez utile 😇
Un moyen simple de lancer l'édition communautaire autohébergée de TaskingAI est via Docker.
- Docker et Docker Compose installés sur votre machine.
- Git installé pour cloner le dépôt.
- Environnement Python (au-dessus de Python 3.8) pour exécuter le SDK client.
Tout d'abord, clonez le dépôt TaskingAI (version communautaire) depuis GitHub.
git clone https://github.com/taskingai/taskingai.git
cd taskingai
À l'intérieur du dépôt cloné, allez dans le répertoire docker et lancez les services avec Docker Compose.
cd docker
-
Copiez
.env.example
en.env
:cp .env.example .env
-
Éditez le fichier
.env
: Ouvrez le fichier.env
dans votre éditeur de texte préféré et mettez à jour les configurations nécessaires. Assurez-vous que toutes les variables d'environnement requises sont correctement définies. -
Lancez Docker Compose : Exécutez la commande suivante pour démarrer tous les services :
docker-compose -p taskingai --env-file .env up -d
Une fois le service lancé, accédez à la console TaskingAI via votre navigateur à l'URL http://localhost:8080. Le nom d'utilisateur et le mot de passe par défaut sont admin
et TaskingAI321
.
Si vous avez déjà installé TaskingAI avec une version précédente et souhaitez mettre à jour vers la dernière version, mettez d'abord à jour le dépôt.
git pull origin master
Puis arrêtez le service docker actuel, mettez à niveau vers la dernière version en tirant l'image la plus récente, et enfin redémarrez le service.
cd docker
docker-compose -p taskingai down
docker-compose -p taskingai pull
docker-compose -p taskingai --env-file .env up -d
Ne vous inquiétez pas de la perte de données; vos données seront automatiquement migrées vers le nouveau schéma de version si nécessaire.
Cliquez sur l'image ci-dessus pour voir la vidéo de démo de la console TaskingAI.
Une fois la console opérationnelle, vous pouvez interagir de manière programmatique avec le serveur TaskingAI en utilisant le SDK client TaskingAI.
Assurez-vous d'avoir installé Python 3.8 ou une version supérieure, et configurez un environnement virtuel (optionnel mais recommandé).
Installez le SDK client Python TaskingAI en utilisant pip.
pip install taskingai
Voici un exemple de code client :
import taskingai
taskingai.init(api_key='YOUR_API_KEY', host='http://localhost:8080')
# Create a new assistant
assistant = taskingai.assistant.create_assistant(
model_id="YOUR_MODEL_ID",
memory="naive",
)
# Create a new chat
chat = taskingai.assistant.create_chat(
assistant_id=assistant.assistant_id,
)
# Send a user message
taskingai.assistant.create_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
text="Hello!",
)
# generate assistant response
assistant_message = taskingai.assistant.generate_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
)
print(assistant_message)
Notez que YOUR_API_KEY
et YOUR_MODEL_ID
doivent être remplacés par la clé API et l'ID du modèle de completion de chat réels que vous avez créés dans la console.
Vous pouvez en apprendre plus dans la documentation.
Veuillez consulter nos directives de contribution pour savoir comment contribuer au projet.
De plus, nous sommes ravis d'annoncer que TaskingAI possède désormais une communauté officielle sur Discord ! 🎊
Rejoignez notre serveur Discord pour :
• 💬 Engager des discussions sur TaskingAI, partager des idées et donner votre avis.
• 📚 Obtenir de l'aide, des conseils et des meilleures pratiques de la part d'autres utilisateurs et de notre équipe.
• 🚀 Restez informé des dernières nouvelles, mises à jour et sorties de fonctionnalités.
• 🤝 Réseauter avec des individus partageant les mêmes intérêts, passionnés par l'IA et l'automatisation des tâches.
TaskingAI est publié sous une licence open source spécifique de TaskingAI. En contribuant à ce projet, vous acceptez de respecter ses termes.
Pour le support, veuillez vous référer à notre documentation ou contactez-nous à support@tasking.ai.