TaskingAI ist eine BaaS (Backend as a Service) Plattform für die Entwicklung und Bereitstellung von LLM-basierten Agenten. Es integriert hunderte von LLM-Modellen und bietet eine intuitive Benutzeroberfläche zur Verwaltung der Funktionalmodule Ihrer LLM-Anwendung, einschließlich Tools, RAG-Systeme, Assistenten, Konversationshistorie und mehr.
- All-In-One-LLM-Plattform: Zugriff auf hunderte von KI-Modellen mit einheitlichen APIs.
- Reiche Erweiterungen: Verbessern Sie LLM-Agentenleistungen mit hunderten anpassbaren integrierten Tools und einem fortschrittlichen Retrieval-Augmented Generation (RAG) System.
- BaaS-inspirierter Workflow: Trennt die KI-Logik (serverseitig) von der Produktentwicklung (clientseitig) und bietet einen klaren Weg von der Prototypenerstellung auf Konsolenbasis zu skalierbaren Lösungen mittels RESTful APIs und Client-SDKs.
- Ein-Klick zur Produktion: Stellen Sie Ihre KI-Agenten mit einem Klick in die Produktionsphase und skalieren Sie sie einfach. Lassen Sie TaskingAI den Rest erledigen.
- Asynchrone Effizienz: Nutzen Sie die asynchronen Funktionen von Python FastAPI für hochleistungsfähige, gleichzeitige Berechnungen, um die Reaktionsfähigkeit und Skalierbarkeit der Anwendungen zu verbessern.
- Intuitive UI-Konsole: Vereinfacht das Projektmanagement und ermöglicht Workflow-Tests in der Konsole.
Modelle: TaskingAI verbindet sich mit hunderten LLMs von verschiedenen Anbietern, einschließlich OpenAI, Anthropic und mehr. Wir ermöglichen Benutzern auch die Integration lokaler Host-Modelle über Ollama, LM Studio und Local AI.
Plugins: TaskingAI unterstützt eine breite Palette integrierter Plugins, um Ihre KI-Agenten zu stärken, einschließlich Google-Suche, Webseitenleser, Aktienmarktabruf und mehr. Benutzer können auch benutzerdefinierte Tools erstellen, um ihre spezifischen Anforderungen zu erfüllen.
LangChain ist ein Werkzeug-Framework für die LLM-Anwendungsentwicklung, stößt jedoch auf praktische Einschränkungen:
- Zustandslosigkeit: Abhängig von clientseitigen oder externen Diensten für das Datenmanagement.
- Skalierbarkeitsprobleme: Zustandslosigkeit beeinträchtigt die konsistente Datenhandhabung über Sitzungen hinweg.
- Externe Abhängigkeiten: Abhängigkeit von externen Ressourcen wie Modell-SDKs und Vektorspeichern.
OpenAIs Assistant API ist hervorragend in der Bereitstellung von GPT-ähnlichen Funktionen, hat aber eigene Einschränkungen:
- Gebundene Funktionalitäten: Integrationen wie Tools und Retrievals sind an jeden Assistenten gebunden und nicht für Multi-Tenant-Anwendungen geeignet.
- Proprietäre Einschränkungen: Beschränkt auf OpenAI-Modelle, ungeeignet für vielfältige Anforderungen.
- Anpassungsgrenzen: Benutzer können die Agentenkonfiguration wie Speicher- und Retrievalsysteme nicht anpassen.
- Unterstützt sowohl Zustands- als auch zustandslose Verwendungen: Ob Nachrichtenhistorien und Agentenkonversationssitzungen nachverfolgt und verwaltet werden sollen oder nur zustandslose Chat-Abschlussanfragen gestellt werden sollen, TaskingAI deckt beide ab.
- Entkoppelte modulare Verwaltung: Entkoppelte Verwaltung von Tools, RAGs-Systemen, Sprachmodellen vom Agenten. Und ermöglicht die freie Kombination dieser Module, um einen leistungsstarken KI-Agenten zu erstellen.
- Multi-Tenant-Unterstützung: TaskingAI unterstützt schnelle Bereitstellung nach der Entwicklung und kann in Multi-Tenant-Szenarien verwendet werden. Keine Sorge um Cloud-Dienste, konzentrieren Sie sich einfach auf die Entwicklung von KI-Agenten.
- Einheitliche API: TaskingAI bietet einheitliche APIs für alle Module, einschließlich Tools, RAGs-Systeme, Sprachmodelle und mehr. Super einfach zu verwalten und Änderungen an den Konfigurationen des KI-Agenten vorzunehmen.
- Interaktive Anwendungsdemos
- KI-Agenten für Unternehmensproduktivität
- Multi-Tenant-KI-native Anwendungen für Unternehmen
Bitte geben Sie uns einen GRATIS STERN 🌟, wenn Sie es hilfreich finden 😇
Eine einfache Möglichkeit, die selbst gehostete TaskingAI Community Edition zu starten, ist über Docker.
- Docker und Docker Compose auf Ihrem Rechner installiert.
- Git installiert zum Klonen des Repository.
- Python-Umgebung (ab Python 3.8) zum Ausführen des Client-SDK.
Zuerst klonen Sie das TaskingAI (Community Edition) Repository von GitHub.
git clone https://github.com/taskingai/taskingai.git
cd taskingai
Wechseln Sie innerhalb des geklonten Repositorys in das Docker-Verzeichnis und starten Sie die Dienste mit Docker Compose.
cd docker
-
Kopiere
.env.example
zu.env
:cp .env.example .env
-
Bearbeite die
.env
Datei:Öffne die
.env
-Datei in deinem bevorzugten Texteditor und aktualisiere die notwendigen Konfigurationen. Stelle sicher, dass alle erforderlichen Umgebungsvariablen korrekt gesetzt sind. -
Starte Docker Compose: Führe den folgenden Befehl aus, um alle Dienste zu starten:
docker-compose -p taskingai --env-file .env up -d
Sobald der Dienst läuft, kannst du über deinen Browser mit der URL http://localhost:8080 auf die TaskingAI-Konsole zugreifen. Der Standardbenutzername und das Standardpasswort sind admin
und TaskingAI321
.
Wenn Sie TaskingAI bereits mit einer vorherigen Version installiert haben und auf die neueste Version upgraden möchten, aktualisieren Sie zuerst das Repository.
git pull origin master
Stoppen Sie dann den aktuellen Docker-Dienst, aktualisieren Sie auf die neueste Version, indem Sie das neueste Image ziehen, und starten Sie den Dienst schließlich neu.
cd docker
docker-compose -p taskingai down
docker-compose -p taskingai pull
docker-compose -p taskingai --env-file .env up -d
Keine Sorge wegen Datenverlust; Ihre Daten werden automatisch auf das neueste Schema migriert, falls erforderlich.
Klicken Sie auf das obige Bild, um das TaskingAI Console Demo Video anzusehen.
Sobald die Konsole läuft, können Sie programmgesteuert über das TaskingAI Client SDK mit dem TaskingAI-Server interagieren.
Stellen Sie sicher, dass Python 3.8 oder höher installiert ist, und richten Sie eine virtuelle Umgebung ein (optional, aber empfohlen).
Installieren Sie das TaskingAI Python Client SDK mit pip.
pip install taskingai
Hier ist ein Beispiel für Client-Code:
import taskingai
taskingai.init(api_key='YOUR_API_KEY', host='http://localhost:8080')
# Create a new assistant
assistant = taskingai.assistant.create_assistant(
model_id="YOUR_MODEL_ID",
memory="naive",
)
# Create a new chat
chat = taskingai.assistant.create_chat(
assistant_id=assistant.assistant_id,
)
# Send a user message
taskingai.assistant.create_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
text="Hello!",
)
# generate assistant response
assistant_message = taskingai.assistant.generate_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
)
print(assistant_message)
Bitte ersetzen Sie YOUR_API_KEY
und YOUR_MODEL_ID
durch den tatsächlichen API-Schlüssel und die Chat-Vervollständigungs-Modell-ID, die Sie in der Konsole erstellt haben.
Weitere Informationen finden Sie in der Dokumentation.
Bitte beachten Sie unsere Beitragsrichtlinien, um zu erfahren, wie Sie zum Projekt beitragen können.
Außerdem freuen wir uns, ankündigen zu können, dass TaskingAI jetzt eine offizielle Discord-Community hat! 🎊
Treten Sie unserem Discord-Server bei, um:
• 💬 Diskussionen über TaskingAI zu führen, Ideen auszutauschen und Feedback zu geben.
• 📚 Unterstützung, Tipps und bewährte Methoden von anderen Nutzern und unserem Team zu erhalten.
• 🚀 Auf dem Laufenden über die neuesten Nachrichten, Updates und Feature-Veröffentlichungen zu bleiben.
• 🤝 Mit Gleichgesinnten zu vernetzen, die eine Leidenschaft für KI und Aufgabenautomatisierung teilen.
TaskingAI wird unter einer spezifischen TaskingAI Open Source License veröffentlicht. Mit Ihrem Beitrag zu diesem Projekt stimmen Sie zu, sich an dessen Bedingungen zu halten.
Für Unterstützung lesen Sie bitte unsere Dokumentation oder kontaktieren Sie uns unter support@tasking.ai.