TaskingAI は、LLMベースのエージェント開発とデプロイメントのためのBaaS(Backend as a Service)プラットフォームです。数百のLLMモデルの統合を統一し、ツール、RAGシステム、アシスタント、会話履歴など、LLMアプリケーションの機能モジュールを管理する直感的なユーザーインターフェイスを提供します。
- オールインワンLLMプラットフォーム:数百のAIモデルに統一APIでアクセスできます。
- 豊富な拡張機能:数百のカスタマイズ可能な内蔵ツールと高度なリトリーバル強化生成(RAG)システムでLLMエージェントのパフォーマンスを向上させます。
- BaaSインスパイアのワークフロー:AIロジック(サーバー側)と製品開発(クライアント側)を分離し、コンソールベースのプロトタイピングからスケーラブルなソリューションへの明確な経路を提供します。
- ワンクリックで本番導入:AIエージェントをワンクリックで本番段階にデプロイし、簡単にスケールアップします。TaskingAIが残りの処理を行います。
- 非同期効率:Python FastAPIの非同期機能を利用して高性能な並列計算を行い、アプリケーションの応答性とスケーラビリティを向上させます。
- 直感的なUIコンソール:プロジェクト管理を簡素化し、コンソール内でワークフローをテストできます。
モデル:TaskingAIは、OpenAIやAnthropicなど、さまざまなプロバイダーから数百のLLMを接続します。また、Ollama、LM Studio、Local AIを介してローカルホストモデルを統合することも可能です。
プラグイン:TaskingAIは、Google検索、ウェブサイトリーダー、株式市場検索など、多くの内蔵プラグインをサポートしており、AIエージェントを強化します。ユーザーは特定のニーズに合わせたカスタムツールも作成できます。
LangChain はLLMアプリケーション開発のためのツールフレームワークですが、実際の制約があります:
- ステートレス:データ管理にクライアントサイドや外部サービスに依存しています。
- スケーラビリティの課題:ステートレス性がセッション間でのデータの一貫した取り扱いに影響を与えます。
- 外部依存性:モデルSDKやベクトルストレージなどの外部リソースに依存しています。
OpenAIのAssistant API はGPTのような機能を提供することに優れているものの、以下の制約があります:
- 機能の結びつき:ツールや検索の統合が各アシスタントに結びついていて、マルチテナントアプリケーションには適していません。
- 専有の制限:OpenAIモデルに限定されており、多様なニーズには適していません。
- カスタマイズの制約:ユーザーはエージェントの構成をカスタマイズできません(メモリや検索システムなど)。
- ステートフルおよびステートレスの両方をサポート:メッセージ履歴やエージェント会話セッションを追跡および管理するか、またはステートレスなチャット完了リクエストを行うだけか、どちらも対応できます。
- モジュールの分離管理:ツール、RAGシステム、言語モデルの管理をエージェントから分離し、これらのモジュールを自由に組み合わせて強力なAIエージェントを構築できます。
- マルチテナントサポート:開発後の迅速なデプロイをサポートし、マルチテナントのシナリオでも利用可能です。クラウドサービスについて心配する必要はなく、AIエージェントの開発に専念できます。
- 統一API:タスクごとに統一されたAPIを提供し、ツール、RAGシステム、言語モデルなどの構成を簡単に管理および変更できます。
- インタラクティブアプリのデモ
- 企業の生産性向上のためのAIエージェント
- ビジネス用のマルチテナントAIネイティブアプリケーション
これが役立つと感じたなら、ぜひ 無料スター🌟 をください 😇
自ホストのTaskingAIコミュニティエディションを起動する簡単な方法は Docker を利用することです。
- DockerとDocker Composeがインストールされたマシン。
- リポジトリをクローンするためのGitのインストール。
- クライアントSDKを実行するためのPython環境(Python 3.8以上)。
まず、GitHubからTaskingAI(コミュニティエディション)をクローンします。
git clone https://github.com/taskingai/taskingai.git
cd taskingai
クローンしたリポジトリの中でdockerディレクトリに移動し、Docker Composeを使ってサービスを起動します。
cd docker
-
.env.example
を.env
にコピーします:cp .env.example .env
-
.env
ファイルを編集します: お好みのテキストエディタで.env
ファイルを開き、必要な設定を更新してください。必要な環境変数が正しく設定されていることを確認してください。 -
Docker Composeを起動します: 以下のコマンドを実行して、すべてのサービスを開始します:
docker-compose -p taskingai --env-file .env up -d
サービスが起動したら、URL http://localhost:8080 をブラウザで開いてTaskingAIコンソールにアクセスします。デフォルトのユーザー名とパスワードはadmin
とTaskingAI321
です。
既に以前のバージョンのTaskingAIをインストールしていて、最新バージョンにアップグレードしたい場合は、まずリポジトリを更新します。
git pull origin master
次に、現在のdockerサービスを停止し、最新のイメージをプルしてアップグレードし、最後にサービスを再起動します。
cd docker
docker-compose -p taskingai down
docker-compose -p taskingai pull
docker-compose -p taskingai --env-file .env up -d
データ損失の心配はありません。必要に応じて、データは自動的に最新バージョンスキーマに移行されます。
上の画像をクリックして、TaskingAIコンソールデモビデオを視聴してください。
コンソールが起動したら、TaskingAIクライアントSDKを使用してプログラム的にTaskingAIサーバーと対話します。
Python 3.8以上がインストールされていることを確認し、仮想環境を設定します(任意ですが推奨)。
pipを使用してTaskingAI PythonクライアントSDKをインストールします。
pip install taskingai
以下はクライアントのコード例です:
import taskingai
taskingai.init(api_key='YOUR_API_KEY', host='http://localhost:8080')
# 新しいアシスタントを作成
assistant = taskingai.assistant.create_assistant(
model_id="YOUR_MODEL_ID",
memory="naive",
)
# 新しいチャットを作成
chat = taskingai.assistant.create_chat(
assistant_id=assistant.assistant_id,
)
# ユーザーのメッセージを送信
taskingai.assistant.create_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
text="Hello!",
)
# アシスタントの応答を生成
assistant_message = taskingai.assistant.generate_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
)
print(assistant_message)
YOUR_API_KEY
と YOUR_MODEL_ID
は、コンソールで作成した実際のAPIキーとチャット完了モデルIDに置き換えてください。
詳細はドキュメントをご覧ください。
プロジェクトへの貢献方法については、貢献ガイドラインをご覧ください。
また、TaskingAIに公式Discordコミュニティができたことをお知らせいたします! 🎊
Discordサーバーに参加することで:
• 💬 TaskingAIについての議論に参加し、アイデアを共有し、フィードバックを提供。
• 📚 他のユーザーや私たちのチームからのサポート、ヒント、ベストプラクティスを受け取る。
• 🚀 最新のニュース、アップデート、機能リリースを常に更新。
• 🤝 AIとタスク自動化に情瞭のある同じ志を持つ人々とネットワーキング。
TaskingAIは特定のTaskingAIオープンソースライセンスの下でリリースされています。このプロジェクトに貢献することで、その条項に従うことに同意したことになります。
サポートについては、ドキュメントを参照するか、support@tasking.aiまでお問い合わせください。