Skip to content

各プロバイダーの利用LLMを増やす、マルチモーダル対応も増やす #392

@tegnike

Description

@tegnike

対応手順

  1. Vercel AI SDKの各プロバイダーのページから利用可能モデルを確認する。
  2. 利用可能モデルをこのイシューに列挙する
  3. さらにマルチモーダルが利用可能なモデルは更に別途列挙する
  4. コードを修正する
  5. コードを修正する時、現在マルチモーダルはプロバイダー単位で決められているのを、モデル単位にすることに注意する

https://ai-sdk.dev/providers/ai-sdk-providers

注意

  • GoogleはGoogle Generative AIのことを指す。
  • 対象は以下のLLMである。
- OpenAI
- Anthropic
- Google Gemini
- Azure OpenAI
- xAI
- Groq
- Cohere
- Mistral AI
- Perplexity
- Fireworks
- DeepSeek
- OpenRouter

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions