From 8cefa6b82e9e03811a7b587dc11afc30a97a2f03 Mon Sep 17 00:00:00 2001 From: Chenhe Gu Date: Wed, 10 Apr 2024 20:10:21 +0800 Subject: [PATCH 1/4] Update README.md (#3281) --- README.md | 285 ++++++++++++++++++++++++++++++++++-------------------- 1 file changed, 181 insertions(+), 104 deletions(-) diff --git a/README.md b/README.md index d3729a71fce2c5..777979fadd8665 100644 --- a/README.md +++ b/README.md @@ -1,96 +1,168 @@ -[![](./images/GitHub_README_cover.png)](https://dify.ai) +![cover-v5-3](https://github.com/langgenius/dify/assets/13230914/e542f5da-57e3-4d99-80c1-c7697468d111) +

- English | - 简体中文 | - 日本語 | - Español | - Klingon | - Français + Dify Cloud · + Self-hosting · + Documentation · + Commercial inquiry

- Static Badge + Static Badge + + Static Badge - chat on Discord - follow on Twitter - Docker Pulls + Docker Pulls + + Commits last month + + Issues closed + + Discussion posts

- - 📌 Check out Dify Premium on AWS and deploy it to your own AWS VPC with one-click. - + Commits last month + Commits last month + Commits last month + Commits last month + Commits last month + Commits last month

-**Dify** is an open-source LLM app development platform. Dify's intuitive interface combines a RAG pipeline, AI workflow orchestration, agent capabilities, model management, observability features and more, letting you quickly go from prototype to production. - -https://github.com/langgenius/dify/assets/13230914/979e7a68-f067-4bbc-b38e-2deb2cc2bbb5 - - -## Using Dify Cloud - -You can try out [Dify Cloud](https://dify.ai) now. It provides all the capabilities of the self-deployed version, and includes 200 free GPT-4 calls. - -## Dify for Enterprise / Organizations - -[Schedule a meeting with us](#Direct-Meetings) or [send us an email](mailto:business@dify.ai?subject=[GitHub]Business%20License%20Inquiry) to discuss enterprise needs. - -For startups and small businesses using AWS, check out [Dify Premium on AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-t22mebxzwjhu6) and deploy it to your own AWS VPC with one-click. It's an affordable AMI offering with the option to create apps with custom logo and branding. - -## Features - -![](./images/models.png) - -**1. Workflow**: Create and test complex AI workflows on a visual canvas, with pre-built nodes taking advantage of the power of all the following features and beyond. - -**2. Extensive LLM support**: Seamless integration with hundreds of proprietary / open-source LLMs and dozens of inference providers, including GPT, Mistral, Llama2, and OpenAI API-compatible models. A full list of supported model providers is kept [here](https://docs.dify.ai/getting-started/readme/model-providers). - -**3. Prompt IDE**: Visual orchestration of applications and services based on any LLMs. Easily share with your team. - -**4. RAG Engine**: Includes various RAG capabilities based on full-text indexing or vector database embeddings, allowing direct upload of PDFs, TXTs, and other text formats. - -**5. AI Agent**: Based on Function Calling and ReAct, the Agent inference framework allows users to customize tools, what you see is what you get. Dify provides more than a dozen built-in tools for AI agents, such as Google Search, DELL·E, Stable Diffusion, WolframAlpha, etc. - -**6. LLMOps**: Monitor and analyze application logs and performance, continuously improving Prompts, datasets, or models based on production data. - - -## Dify vs. LangChain vs. Assistants API - -| Feature | Dify.AI | Assistants API | LangChain | -|---------|---------|----------------|-----------| -| **Programming Approach** | API-oriented | API-oriented | Python Code-oriented | -| **Ecosystem Strategy** | Open Source | Close Source | Open Source | -| **RAG Engine** | Supported | Supported | Not Supported | -| **Prompt IDE** | Included | Included | None | -| **Supported LLMs** | Rich Variety | OpenAI-only | Rich Variety | -| **Local Deployment** | Supported | Not Supported | Not Applicable | - - -## Before You Start - -**Star us on GitHub, and be instantly notified for new releases!** -![star-us](https://github.com/langgenius/dify/assets/100913391/95f37259-7370-4456-a9f0-0bc01ef8642f) -- [Website](https://dify.ai) -- [Docs](https://docs.dify.ai) -- [Deployment Docs](https://docs.dify.ai/getting-started/install-self-hosted) -- [FAQ](https://docs.dify.ai/getting-started/faq) - - -## Install the Community Edition - -### System Requirements - -Before installing Dify, make sure your machine meets the following minimum system requirements: - -- CPU >= 2 Core -- RAM >= 4GB - -### Quick Start +# +Dify is an open-source LLM app development platform. Its intuitive interface combines RAG pipeline, AI workflow, agent capabilities, model management, observability features and more, letting you quickly go from prototype to production. + + +[![](./images/models.png)](https://github.com/langgenius/dify/assets/13230914/979e7a68-f067-4bbc-b38e-2deb2cc2bbb5) + +**1. Workflow**: + Build and test powerful AI workflows on a visual canvas, leveraging all the following features and beyond. + +**2. Comprehensive model support**: + Seamless integration with hundreds of proprietary / open-source LLMs from dozens of inference providers and self-hosted solutions, covering GPT, Mistral, Llama2, and any OpenAI API-compatible models. A full list of supported model providers can be found [here](https://docs.dify.ai/getting-started/readme/model-providers). + +![providers-2](https://github.com/langgenius/dify/assets/13230914/dc6e615c-9c3b-482f-a405-eea64555c83f) + + +**3. Prompt IDE**: + Intuitive interface for crafting prompts, comparing model performance, and adding additional features such as text-to-speech to a chat-based app. + +**4. RAG Pipeline**: + Extensive RAG capabilities that cover everything from document ingestion to retrieval, with out-of-box support for text extraction from PDFs, PPTs, and other common document formats. + +**5. Agent capabilities**: + You can define agents based on LLM Function Calling or ReAct, and add pre-built or custom tools for the agent. Dify provides 50+ built-in tools for AI agents, such as Google Search, DELL·E, Stable Diffusion and WolframAlpha. + +**6. LLMOps**: + Monitor and analyze application logs and performance over time. You could continuously improve prompts, datasets, and models based on production data and annotations. + +**7. Backend-as-a-Service**: + All of Dify's offerings come with corresponding APIs, so you could effortlessly integrate Dify into your own business logic. + + +## Feature Comparison + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
FeatureDify.AILangChainFlowiseOpenAI Assistants API
Programming ApproachAPI + App-orientedPython CodeApp-orientedAPI-oriented
Supported LLMsRich VarietyRich VarietyRich VarietyOpenAI-only
RAG Engine
Agent
Workflow
Observability
Enterprise Feature (SSO/Access control)
Local Deployment
+ +## Using Dify + +- **Cloud
** +We host a [Dify Cloud](https://dify.ai) service for anyone to try with zero setup. It provides all the capabilities of the self-deployed version, and includes 200 free GPT-4 calls in the sandbox plan. + +- **Self-hosting Dify Community Edition
** +Quickly get Dify running in your environment with this [starter guide](#quick-start). +Use our [documentation](https://docs.dify.ai) for further references and more in-depth instructions. + +- **Dify for Enterprise / Organizations
** +We provide additional enterprise-centric features. [Schedule a meeting with us](https://cal.com/guchenhe/30min) or [send us an email](mailto:business@dify.ai?subject=[GitHub]Business%20License%20Inquiry) to discuss enterprise needs.
+ > For startups and small businesses using AWS, check out [Dify Premium on AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-t22mebxzwjhu6) and deploy it to your own AWS VPC with one-click. It's an affordable AMI offering with the option to create apps with custom logo and branding. + + +## Staying ahead + +Star Dify on GitHub and be instantly notified of new releases. + +![star-us](https://github.com/langgenius/dify/assets/13230914/b823edc1-6388-4e25-ad45-2f6b187adbb4) + + +## Quick Start +> Before installing Dify, make sure your machine meets the following minimum system requirements: +> +>- CPU >= 2 Core +>- RAM >= 4GB + +
The easiest way to start the Dify server is to run our [docker-compose.yml](docker/docker-compose.yaml) file. Before running the installation command, make sure that [Docker](https://docs.docker.com/get-docker/) and [Docker Compose](https://docs.docker.com/compose/install/) are installed on your machine: @@ -99,58 +171,63 @@ cd docker docker compose up -d ``` -After running, you can access the Dify dashboard in your browser at [http://localhost/install](http://localhost/install) and start the initialization installation process. +After running, you can access the Dify dashboard in your browser at [http://localhost/install](http://localhost/install) and start the initialization process. -#### Deploy with Helm Chart +> If you'd like to contribute to Dify or do additional development, refer to our [guide to deploying from source code](https://docs.dify.ai/getting-started/install-self-hosted/local-source-code) -[Helm Chart](https://helm.sh/) version, which allows Dify to be deployed on Kubernetes. +## Next steps -- [Helm Chart by @LeoQuote](https://github.com/douban/charts/tree/master/charts/dify) -- [Helm Chart by @BorisPolonsky](https://github.com/BorisPolonsky/dify-helm) - -### Configuration +If you need to customize the configuration, please refer to the comments in our [docker-compose.yml](docker/docker-compose.yaml) file and manually set the environment configuration. After making the changes, please run `docker-compose up -d` again. You can see the full list of environment variables [here](https://docs.dify.ai/getting-started/install-self-hosted/environments). -If you need to customize the configuration, please refer to the comments in our [docker-compose.yml](docker/docker-compose.yaml) file and manually set the environment configuration. After making the changes, please run `docker-compose up -d` again. You can see the full list of environment variables in our [docs](https://docs.dify.ai/getting-started/install-self-hosted/environments). +If you'd like to configure a highly-available setup, there are community-contributed [Helm Charts](https://helm.sh/) which allow Dify to be deployed on Kubernetes. +- [Helm Chart by @LeoQuote](https://github.com/douban/charts/tree/master/charts/dify) +- [Helm Chart by @BorisPolonsky](https://github.com/BorisPolonsky/dify-helm) -## Star History - -[![Star History Chart](https://api.star-history.com/svg?repos=langgenius/dify&type=Date)](https://star-history.com/#langgenius/dify&Date) ## Contributing For those who'd like to contribute code, see our [Contribution Guide](https://github.com/langgenius/dify/blob/main/CONTRIBUTING.md). - At the same time, please consider supporting Dify by sharing it on social media and at events and conferences. -### Projects made by community -- [Chatbot Chrome Extension by @charli117](https://github.com/langgenius/chatbot-chrome-extension) +> We are looking for contributors to help with translating Dify to languages other than Mandarin or English. If you are interested in helping, please see the [i18n README](https://github.com/langgenius/dify/blob/main/web/i18n/README.md) for more information, and leave us a comment in the `global-users` channel of our [Discord Community Server](https://discord.gg/8Tpq4AcN9c). -### Contributors +**Contributors** -### Translations - -We are looking for contributors to help with translating Dify to languages other than Mandarin or English. If you are interested in helping, please see the [i18n README](https://github.com/langgenius/dify/blob/main/web/i18n/README.md) for more information, and leave us a comment in the `global-users` channel of our [Discord Community Server](https://discord.gg/8Tpq4AcN9c). - -## Community & Support +## Community & Contact * [Github Discussion](https://github.com/langgenius/dify/discussions). Best for: sharing feedback and asking questions. * [GitHub Issues](https://github.com/langgenius/dify/issues). Best for: bugs you encounter using Dify.AI, and feature proposals. See our [Contribution Guide](https://github.com/langgenius/dify/blob/main/CONTRIBUTING.md). -* [Email Support](mailto:hello@dify.ai?subject=[GitHub]Questions%20About%20Dify). Best for: questions you have about using Dify.AI. +* [Email](mailto:support@dify.ai?subject=[GitHub]Questions%20About%20Dify). Best for: questions you have about using Dify.AI. * [Discord](https://discord.gg/FngNHpbcY7). Best for: sharing your applications and hanging out with the community. * [Twitter](https://twitter.com/dify_ai). Best for: sharing your applications and hanging out with the community. -### Direct Meetings +Or, schedule a meeting directly with a team member: + + + + + + + + + + + + + + +
Point of ContactPurpose
Git-Hub-README-Button-3xBusiness enquiries & product feedback
Git-Hub-README-Button-2xContributions, issues & feature requests
+ +## Star History + +[![Star History Chart](https://api.star-history.com/svg?repos=langgenius/dify&type=Date)](https://star-history.com/#langgenius/dify&Date) -| Point of Contact | Purpose | -| :----------------------------------------------------------: | :----------------------------------------------------------: | -| Git-Hub-README-Button-3x | Business enquiries & product feedback. | -| Git-Hub-README-Button-2x | Contributions, issues & feature requests | ## Security Disclosure From b6de97ad530a4b362f2527b249e97d4d06b69c41 Mon Sep 17 00:00:00 2001 From: Jyong <76649700+JohnJyong@users.noreply.github.com> Date: Wed, 10 Apr 2024 20:37:22 +0800 Subject: [PATCH 2/4] Remove langchain dataset retrival agent logic (#3311) --- api/core/app/apps/chat/app_runner.py | 2 + api/core/app/apps/completion/app_runner.py | 2 + api/core/rag/retrieval/agent/fake_llm.py | 59 --- api/core/rag/retrieval/agent/llm_chain.py | 46 --- .../agent/multi_dataset_router_agent.py | 179 -------- .../retrieval/agent/output_parser/__init__.py | 0 .../structed_multi_dataset_router_agent.py | 259 ------------ .../retrieval/agent_based_dataset_executor.py | 117 ------ api/core/rag/retrieval/dataset_retrieval.py | 381 +++++++++++++----- .../{agent => output_parser}/__init__.py | 0 .../output_parser/structured_chat.py | 0 .../multi_dataset_function_call_router.py | 0 .../router}/multi_dataset_react_route.py | 22 +- .../knowledge_retrieval_node.py | 240 ++--------- 14 files changed, 341 insertions(+), 966 deletions(-) delete mode 100644 api/core/rag/retrieval/agent/fake_llm.py delete mode 100644 api/core/rag/retrieval/agent/llm_chain.py delete mode 100644 api/core/rag/retrieval/agent/multi_dataset_router_agent.py delete mode 100644 api/core/rag/retrieval/agent/output_parser/__init__.py delete mode 100644 api/core/rag/retrieval/agent/structed_multi_dataset_router_agent.py delete mode 100644 api/core/rag/retrieval/agent_based_dataset_executor.py rename api/core/rag/retrieval/{agent => output_parser}/__init__.py (100%) rename api/core/rag/retrieval/{agent => }/output_parser/structured_chat.py (100%) rename api/core/{workflow/nodes/knowledge_retrieval => rag/retrieval/router}/multi_dataset_function_call_router.py (100%) rename api/core/{workflow/nodes/knowledge_retrieval => rag/retrieval/router}/multi_dataset_react_route.py (90%) diff --git a/api/core/app/apps/chat/app_runner.py b/api/core/app/apps/chat/app_runner.py index d51f3db5409eec..ba2095076fa404 100644 --- a/api/core/app/apps/chat/app_runner.py +++ b/api/core/app/apps/chat/app_runner.py @@ -156,6 +156,8 @@ def run(self, application_generate_entity: ChatAppGenerateEntity, dataset_retrieval = DatasetRetrieval() context = dataset_retrieval.retrieve( + app_id=app_record.id, + user_id=application_generate_entity.user_id, tenant_id=app_record.tenant_id, model_config=application_generate_entity.model_config, config=app_config.dataset, diff --git a/api/core/app/apps/completion/app_runner.py b/api/core/app/apps/completion/app_runner.py index 649d73d96180fa..40102f89996ba8 100644 --- a/api/core/app/apps/completion/app_runner.py +++ b/api/core/app/apps/completion/app_runner.py @@ -116,6 +116,8 @@ def run(self, application_generate_entity: CompletionAppGenerateEntity, dataset_retrieval = DatasetRetrieval() context = dataset_retrieval.retrieve( + app_id=app_record.id, + user_id=application_generate_entity.user_id, tenant_id=app_record.tenant_id, model_config=application_generate_entity.model_config, config=dataset_config, diff --git a/api/core/rag/retrieval/agent/fake_llm.py b/api/core/rag/retrieval/agent/fake_llm.py deleted file mode 100644 index ab5152b38d8c8c..00000000000000 --- a/api/core/rag/retrieval/agent/fake_llm.py +++ /dev/null @@ -1,59 +0,0 @@ -import time -from collections.abc import Mapping -from typing import Any, Optional - -from langchain.callbacks.manager import CallbackManagerForLLMRun -from langchain.chat_models.base import SimpleChatModel -from langchain.schema import AIMessage, BaseMessage, ChatGeneration, ChatResult - - -class FakeLLM(SimpleChatModel): - """Fake ChatModel for testing purposes.""" - - streaming: bool = False - """Whether to stream the results or not.""" - response: str - - @property - def _llm_type(self) -> str: - return "fake-chat-model" - - def _call( - self, - messages: list[BaseMessage], - stop: Optional[list[str]] = None, - run_manager: Optional[CallbackManagerForLLMRun] = None, - **kwargs: Any, - ) -> str: - """First try to lookup in queries, else return 'foo' or 'bar'.""" - return self.response - - @property - def _identifying_params(self) -> Mapping[str, Any]: - return {"response": self.response} - - def get_num_tokens(self, text: str) -> int: - return 0 - - def _generate( - self, - messages: list[BaseMessage], - stop: Optional[list[str]] = None, - run_manager: Optional[CallbackManagerForLLMRun] = None, - **kwargs: Any, - ) -> ChatResult: - output_str = self._call(messages, stop=stop, run_manager=run_manager, **kwargs) - if self.streaming: - for token in output_str: - if run_manager: - run_manager.on_llm_new_token(token) - time.sleep(0.01) - - message = AIMessage(content=output_str) - generation = ChatGeneration(message=message) - llm_output = {"token_usage": { - 'prompt_tokens': 0, - 'completion_tokens': 0, - 'total_tokens': 0, - }} - return ChatResult(generations=[generation], llm_output=llm_output) diff --git a/api/core/rag/retrieval/agent/llm_chain.py b/api/core/rag/retrieval/agent/llm_chain.py deleted file mode 100644 index f2c5d4ca33042b..00000000000000 --- a/api/core/rag/retrieval/agent/llm_chain.py +++ /dev/null @@ -1,46 +0,0 @@ -from typing import Any, Optional - -from langchain import LLMChain as LCLLMChain -from langchain.callbacks.manager import CallbackManagerForChainRun -from langchain.schema import Generation, LLMResult -from langchain.schema.language_model import BaseLanguageModel - -from core.app.entities.app_invoke_entities import ModelConfigWithCredentialsEntity -from core.entities.message_entities import lc_messages_to_prompt_messages -from core.model_manager import ModelInstance -from core.rag.retrieval.agent.fake_llm import FakeLLM - - -class LLMChain(LCLLMChain): - model_config: ModelConfigWithCredentialsEntity - """The language model instance to use.""" - llm: BaseLanguageModel = FakeLLM(response="") - parameters: dict[str, Any] = {} - - def generate( - self, - input_list: list[dict[str, Any]], - run_manager: Optional[CallbackManagerForChainRun] = None, - ) -> LLMResult: - """Generate LLM result from inputs.""" - prompts, stop = self.prep_prompts(input_list, run_manager=run_manager) - messages = prompts[0].to_messages() - prompt_messages = lc_messages_to_prompt_messages(messages) - - model_instance = ModelInstance( - provider_model_bundle=self.model_config.provider_model_bundle, - model=self.model_config.model, - ) - - result = model_instance.invoke_llm( - prompt_messages=prompt_messages, - stream=False, - stop=stop, - model_parameters=self.parameters - ) - - generations = [ - [Generation(text=result.message.content)] - ] - - return LLMResult(generations=generations) diff --git a/api/core/rag/retrieval/agent/multi_dataset_router_agent.py b/api/core/rag/retrieval/agent/multi_dataset_router_agent.py deleted file mode 100644 index be24731d46a394..00000000000000 --- a/api/core/rag/retrieval/agent/multi_dataset_router_agent.py +++ /dev/null @@ -1,179 +0,0 @@ -from collections.abc import Sequence -from typing import Any, Optional, Union - -from langchain.agents import BaseSingleActionAgent, OpenAIFunctionsAgent -from langchain.agents.openai_functions_agent.base import _format_intermediate_steps, _parse_ai_message -from langchain.callbacks.base import BaseCallbackManager -from langchain.callbacks.manager import Callbacks -from langchain.prompts.chat import BaseMessagePromptTemplate -from langchain.schema import AgentAction, AgentFinish, AIMessage, SystemMessage -from langchain.tools import BaseTool -from pydantic import root_validator - -from core.app.entities.app_invoke_entities import ModelConfigWithCredentialsEntity -from core.entities.message_entities import lc_messages_to_prompt_messages -from core.model_manager import ModelInstance -from core.model_runtime.entities.message_entities import PromptMessageTool -from core.rag.retrieval.agent.fake_llm import FakeLLM - - -class MultiDatasetRouterAgent(OpenAIFunctionsAgent): - """ - An Multi Dataset Retrieve Agent driven by Router. - """ - model_config: ModelConfigWithCredentialsEntity - - class Config: - """Configuration for this pydantic object.""" - - arbitrary_types_allowed = True - - @root_validator - def validate_llm(cls, values: dict) -> dict: - return values - - def should_use_agent(self, query: str): - """ - return should use agent - - :param query: - :return: - """ - return True - - def plan( - self, - intermediate_steps: list[tuple[AgentAction, str]], - callbacks: Callbacks = None, - **kwargs: Any, - ) -> Union[AgentAction, AgentFinish]: - """Given input, decided what to do. - - Args: - intermediate_steps: Steps the LLM has taken to date, along with observations - **kwargs: User inputs. - - Returns: - Action specifying what tool to use. - """ - if len(self.tools) == 0: - return AgentFinish(return_values={"output": ''}, log='') - elif len(self.tools) == 1: - tool = next(iter(self.tools)) - rst = tool.run(tool_input={'query': kwargs['input']}) - # output = '' - # rst_json = json.loads(rst) - # for item in rst_json: - # output += f'{item["content"]}\n' - return AgentFinish(return_values={"output": rst}, log=rst) - - if intermediate_steps: - _, observation = intermediate_steps[-1] - return AgentFinish(return_values={"output": observation}, log=observation) - - try: - agent_decision = self.real_plan(intermediate_steps, callbacks, **kwargs) - if isinstance(agent_decision, AgentAction): - tool_inputs = agent_decision.tool_input - if isinstance(tool_inputs, dict) and 'query' in tool_inputs and 'chat_history' not in kwargs: - tool_inputs['query'] = kwargs['input'] - agent_decision.tool_input = tool_inputs - else: - agent_decision.return_values['output'] = '' - return agent_decision - except Exception as e: - raise e - - def real_plan( - self, - intermediate_steps: list[tuple[AgentAction, str]], - callbacks: Callbacks = None, - **kwargs: Any, - ) -> Union[AgentAction, AgentFinish]: - """Given input, decided what to do. - - Args: - intermediate_steps: Steps the LLM has taken to date, along with observations - **kwargs: User inputs. - - Returns: - Action specifying what tool to use. - """ - agent_scratchpad = _format_intermediate_steps(intermediate_steps) - selected_inputs = { - k: kwargs[k] for k in self.prompt.input_variables if k != "agent_scratchpad" - } - full_inputs = dict(**selected_inputs, agent_scratchpad=agent_scratchpad) - prompt = self.prompt.format_prompt(**full_inputs) - messages = prompt.to_messages() - prompt_messages = lc_messages_to_prompt_messages(messages) - - model_instance = ModelInstance( - provider_model_bundle=self.model_config.provider_model_bundle, - model=self.model_config.model, - ) - - tools = [] - for function in self.functions: - tool = PromptMessageTool( - **function - ) - - tools.append(tool) - - result = model_instance.invoke_llm( - prompt_messages=prompt_messages, - tools=tools, - stream=False, - model_parameters={ - 'temperature': 0.2, - 'top_p': 0.3, - 'max_tokens': 1500 - } - ) - - ai_message = AIMessage( - content=result.message.content or "", - additional_kwargs={ - 'function_call': { - 'id': result.message.tool_calls[0].id, - **result.message.tool_calls[0].function.dict() - } if result.message.tool_calls else None - } - ) - - agent_decision = _parse_ai_message(ai_message) - return agent_decision - - async def aplan( - self, - intermediate_steps: list[tuple[AgentAction, str]], - callbacks: Callbacks = None, - **kwargs: Any, - ) -> Union[AgentAction, AgentFinish]: - raise NotImplementedError() - - @classmethod - def from_llm_and_tools( - cls, - model_config: ModelConfigWithCredentialsEntity, - tools: Sequence[BaseTool], - callback_manager: Optional[BaseCallbackManager] = None, - extra_prompt_messages: Optional[list[BaseMessagePromptTemplate]] = None, - system_message: Optional[SystemMessage] = SystemMessage( - content="You are a helpful AI assistant." - ), - **kwargs: Any, - ) -> BaseSingleActionAgent: - prompt = cls.create_prompt( - extra_prompt_messages=extra_prompt_messages, - system_message=system_message, - ) - return cls( - model_config=model_config, - llm=FakeLLM(response=''), - prompt=prompt, - tools=tools, - callback_manager=callback_manager, - **kwargs, - ) diff --git a/api/core/rag/retrieval/agent/output_parser/__init__.py b/api/core/rag/retrieval/agent/output_parser/__init__.py deleted file mode 100644 index e69de29bb2d1d6..00000000000000 diff --git a/api/core/rag/retrieval/agent/structed_multi_dataset_router_agent.py b/api/core/rag/retrieval/agent/structed_multi_dataset_router_agent.py deleted file mode 100644 index 7035ec8e2f7834..00000000000000 --- a/api/core/rag/retrieval/agent/structed_multi_dataset_router_agent.py +++ /dev/null @@ -1,259 +0,0 @@ -import re -from collections.abc import Sequence -from typing import Any, Optional, Union, cast - -from langchain import BasePromptTemplate, PromptTemplate -from langchain.agents import Agent, AgentOutputParser, StructuredChatAgent -from langchain.agents.structured_chat.base import HUMAN_MESSAGE_TEMPLATE -from langchain.agents.structured_chat.prompt import PREFIX, SUFFIX -from langchain.callbacks.base import BaseCallbackManager -from langchain.callbacks.manager import Callbacks -from langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, SystemMessagePromptTemplate -from langchain.schema import AgentAction, AgentFinish, OutputParserException -from langchain.tools import BaseTool - -from core.app.entities.app_invoke_entities import ModelConfigWithCredentialsEntity -from core.rag.retrieval.agent.llm_chain import LLMChain - -FORMAT_INSTRUCTIONS = """Use a json blob to specify a tool by providing an action key (tool name) and an action_input key (tool input). -The nouns in the format of "Thought", "Action", "Action Input", "Final Answer" must be expressed in English. -Valid "action" values: "Final Answer" or {tool_names} - -Provide only ONE action per $JSON_BLOB, as shown: - -``` -{{{{ - "action": $TOOL_NAME, - "action_input": $INPUT -}}}} -``` - -Follow this format: - -Question: input question to answer -Thought: consider previous and subsequent steps -Action: -``` -$JSON_BLOB -``` -Observation: action result -... (repeat Thought/Action/Observation N times) -Thought: I know what to respond -Action: -``` -{{{{ - "action": "Final Answer", - "action_input": "Final response to human" -}}}} -```""" - - -class StructuredMultiDatasetRouterAgent(StructuredChatAgent): - dataset_tools: Sequence[BaseTool] - - class Config: - """Configuration for this pydantic object.""" - - arbitrary_types_allowed = True - - def should_use_agent(self, query: str): - """ - return should use agent - Using the ReACT mode to determine whether an agent is needed is costly, - so it's better to just use an Agent for reasoning, which is cheaper. - - :param query: - :return: - """ - return True - - def plan( - self, - intermediate_steps: list[tuple[AgentAction, str]], - callbacks: Callbacks = None, - **kwargs: Any, - ) -> Union[AgentAction, AgentFinish]: - """Given input, decided what to do. - - Args: - intermediate_steps: Steps the LLM has taken to date, - along with observations - callbacks: Callbacks to run. - **kwargs: User inputs. - - Returns: - Action specifying what tool to use. - """ - if len(self.dataset_tools) == 0: - return AgentFinish(return_values={"output": ''}, log='') - elif len(self.dataset_tools) == 1: - tool = next(iter(self.dataset_tools)) - rst = tool.run(tool_input={'query': kwargs['input']}) - return AgentFinish(return_values={"output": rst}, log=rst) - - if intermediate_steps: - _, observation = intermediate_steps[-1] - return AgentFinish(return_values={"output": observation}, log=observation) - - full_inputs = self.get_full_inputs(intermediate_steps, **kwargs) - - try: - full_output = self.llm_chain.predict(callbacks=callbacks, **full_inputs) - except Exception as e: - raise e - - try: - agent_decision = self.output_parser.parse(full_output) - if isinstance(agent_decision, AgentAction): - tool_inputs = agent_decision.tool_input - if isinstance(tool_inputs, dict) and 'query' in tool_inputs: - tool_inputs['query'] = kwargs['input'] - agent_decision.tool_input = tool_inputs - elif isinstance(tool_inputs, str): - agent_decision.tool_input = kwargs['input'] - else: - agent_decision.return_values['output'] = '' - return agent_decision - except OutputParserException: - return AgentFinish({"output": "I'm sorry, the answer of model is invalid, " - "I don't know how to respond to that."}, "") - - @classmethod - def create_prompt( - cls, - tools: Sequence[BaseTool], - prefix: str = PREFIX, - suffix: str = SUFFIX, - human_message_template: str = HUMAN_MESSAGE_TEMPLATE, - format_instructions: str = FORMAT_INSTRUCTIONS, - input_variables: Optional[list[str]] = None, - memory_prompts: Optional[list[BasePromptTemplate]] = None, - ) -> BasePromptTemplate: - tool_strings = [] - for tool in tools: - args_schema = re.sub("}", "}}}}", re.sub("{", "{{{{", str(tool.args))) - tool_strings.append(f"{tool.name}: {tool.description}, args: {args_schema}") - formatted_tools = "\n".join(tool_strings) - unique_tool_names = set(tool.name for tool in tools) - tool_names = ", ".join('"' + name + '"' for name in unique_tool_names) - format_instructions = format_instructions.format(tool_names=tool_names) - template = "\n\n".join([prefix, formatted_tools, format_instructions, suffix]) - if input_variables is None: - input_variables = ["input", "agent_scratchpad"] - _memory_prompts = memory_prompts or [] - messages = [ - SystemMessagePromptTemplate.from_template(template), - *_memory_prompts, - HumanMessagePromptTemplate.from_template(human_message_template), - ] - return ChatPromptTemplate(input_variables=input_variables, messages=messages) - - @classmethod - def create_completion_prompt( - cls, - tools: Sequence[BaseTool], - prefix: str = PREFIX, - format_instructions: str = FORMAT_INSTRUCTIONS, - input_variables: Optional[list[str]] = None, - ) -> PromptTemplate: - """Create prompt in the style of the zero shot agent. - - Args: - tools: List of tools the agent will have access to, used to format the - prompt. - prefix: String to put before the list of tools. - input_variables: List of input variables the final prompt will expect. - - Returns: - A PromptTemplate with the template assembled from the pieces here. - """ - suffix = """Begin! Reminder to ALWAYS respond with a valid json blob of a single action. Use tools if necessary. Respond directly if appropriate. Format is Action:```$JSON_BLOB```then Observation:. -Question: {input} -Thought: {agent_scratchpad} -""" - - tool_strings = "\n".join([f"{tool.name}: {tool.description}" for tool in tools]) - tool_names = ", ".join([tool.name for tool in tools]) - format_instructions = format_instructions.format(tool_names=tool_names) - template = "\n\n".join([prefix, tool_strings, format_instructions, suffix]) - if input_variables is None: - input_variables = ["input", "agent_scratchpad"] - return PromptTemplate(template=template, input_variables=input_variables) - - def _construct_scratchpad( - self, intermediate_steps: list[tuple[AgentAction, str]] - ) -> str: - agent_scratchpad = "" - for action, observation in intermediate_steps: - agent_scratchpad += action.log - agent_scratchpad += f"\n{self.observation_prefix}{observation}\n{self.llm_prefix}" - - if not isinstance(agent_scratchpad, str): - raise ValueError("agent_scratchpad should be of type string.") - if agent_scratchpad: - llm_chain = cast(LLMChain, self.llm_chain) - if llm_chain.model_config.mode == "chat": - return ( - f"This was your previous work " - f"(but I haven't seen any of it! I only see what " - f"you return as final answer):\n{agent_scratchpad}" - ) - else: - return agent_scratchpad - else: - return agent_scratchpad - - @classmethod - def from_llm_and_tools( - cls, - model_config: ModelConfigWithCredentialsEntity, - tools: Sequence[BaseTool], - callback_manager: Optional[BaseCallbackManager] = None, - output_parser: Optional[AgentOutputParser] = None, - prefix: str = PREFIX, - suffix: str = SUFFIX, - human_message_template: str = HUMAN_MESSAGE_TEMPLATE, - format_instructions: str = FORMAT_INSTRUCTIONS, - input_variables: Optional[list[str]] = None, - memory_prompts: Optional[list[BasePromptTemplate]] = None, - **kwargs: Any, - ) -> Agent: - """Construct an agent from an LLM and tools.""" - cls._validate_tools(tools) - if model_config.mode == "chat": - prompt = cls.create_prompt( - tools, - prefix=prefix, - suffix=suffix, - human_message_template=human_message_template, - format_instructions=format_instructions, - input_variables=input_variables, - memory_prompts=memory_prompts, - ) - else: - prompt = cls.create_completion_prompt( - tools, - prefix=prefix, - format_instructions=format_instructions, - input_variables=input_variables - ) - - llm_chain = LLMChain( - model_config=model_config, - prompt=prompt, - callback_manager=callback_manager, - parameters={ - 'temperature': 0.2, - 'top_p': 0.3, - 'max_tokens': 1500 - } - ) - tool_names = [tool.name for tool in tools] - _output_parser = output_parser - return cls( - llm_chain=llm_chain, - allowed_tools=tool_names, - output_parser=_output_parser, - dataset_tools=tools, - **kwargs, - ) diff --git a/api/core/rag/retrieval/agent_based_dataset_executor.py b/api/core/rag/retrieval/agent_based_dataset_executor.py deleted file mode 100644 index cb475bcffb7910..00000000000000 --- a/api/core/rag/retrieval/agent_based_dataset_executor.py +++ /dev/null @@ -1,117 +0,0 @@ -import logging -from typing import Optional, Union - -from langchain.agents import AgentExecutor as LCAgentExecutor -from langchain.agents import BaseMultiActionAgent, BaseSingleActionAgent -from langchain.callbacks.manager import Callbacks -from langchain.tools import BaseTool -from pydantic import BaseModel, Extra - -from core.app.entities.app_invoke_entities import ModelConfigWithCredentialsEntity -from core.entities.agent_entities import PlanningStrategy -from core.entities.message_entities import prompt_messages_to_lc_messages -from core.helper import moderation -from core.memory.token_buffer_memory import TokenBufferMemory -from core.model_runtime.errors.invoke import InvokeError -from core.rag.retrieval.agent.multi_dataset_router_agent import MultiDatasetRouterAgent -from core.rag.retrieval.agent.output_parser.structured_chat import StructuredChatOutputParser -from core.rag.retrieval.agent.structed_multi_dataset_router_agent import StructuredMultiDatasetRouterAgent -from core.tools.tool.dataset_retriever.dataset_multi_retriever_tool import DatasetMultiRetrieverTool -from core.tools.tool.dataset_retriever.dataset_retriever_tool import DatasetRetrieverTool - - -class AgentConfiguration(BaseModel): - strategy: PlanningStrategy - model_config: ModelConfigWithCredentialsEntity - tools: list[BaseTool] - summary_model_config: Optional[ModelConfigWithCredentialsEntity] = None - memory: Optional[TokenBufferMemory] = None - callbacks: Callbacks = None - max_iterations: int = 6 - max_execution_time: Optional[float] = None - early_stopping_method: str = "generate" - # `generate` will continue to complete the last inference after reaching the iteration limit or request time limit - - class Config: - """Configuration for this pydantic object.""" - - extra = Extra.forbid - arbitrary_types_allowed = True - - -class AgentExecuteResult(BaseModel): - strategy: PlanningStrategy - output: Optional[str] - configuration: AgentConfiguration - - -class AgentExecutor: - def __init__(self, configuration: AgentConfiguration): - self.configuration = configuration - self.agent = self._init_agent() - - def _init_agent(self) -> Union[BaseSingleActionAgent, BaseMultiActionAgent]: - if self.configuration.strategy == PlanningStrategy.ROUTER: - self.configuration.tools = [t for t in self.configuration.tools - if isinstance(t, DatasetRetrieverTool) - or isinstance(t, DatasetMultiRetrieverTool)] - agent = MultiDatasetRouterAgent.from_llm_and_tools( - model_config=self.configuration.model_config, - tools=self.configuration.tools, - extra_prompt_messages=prompt_messages_to_lc_messages(self.configuration.memory.get_history_prompt_messages()) - if self.configuration.memory else None, - verbose=True - ) - elif self.configuration.strategy == PlanningStrategy.REACT_ROUTER: - self.configuration.tools = [t for t in self.configuration.tools - if isinstance(t, DatasetRetrieverTool) - or isinstance(t, DatasetMultiRetrieverTool)] - agent = StructuredMultiDatasetRouterAgent.from_llm_and_tools( - model_config=self.configuration.model_config, - tools=self.configuration.tools, - output_parser=StructuredChatOutputParser(), - verbose=True - ) - else: - raise NotImplementedError(f"Unknown Agent Strategy: {self.configuration.strategy}") - - return agent - - def should_use_agent(self, query: str) -> bool: - return self.agent.should_use_agent(query) - - def run(self, query: str) -> AgentExecuteResult: - moderation_result = moderation.check_moderation( - self.configuration.model_config, - query - ) - - if moderation_result: - return AgentExecuteResult( - output="I apologize for any confusion, but I'm an AI assistant to be helpful, harmless, and honest.", - strategy=self.configuration.strategy, - configuration=self.configuration - ) - - agent_executor = LCAgentExecutor.from_agent_and_tools( - agent=self.agent, - tools=self.configuration.tools, - max_iterations=self.configuration.max_iterations, - max_execution_time=self.configuration.max_execution_time, - early_stopping_method=self.configuration.early_stopping_method, - callbacks=self.configuration.callbacks - ) - - try: - output = agent_executor.run(input=query) - except InvokeError as ex: - raise ex - except Exception as ex: - logging.exception("agent_executor run failed") - output = None - - return AgentExecuteResult( - output=output, - strategy=self.configuration.strategy, - configuration=self.configuration - ) diff --git a/api/core/rag/retrieval/dataset_retrieval.py b/api/core/rag/retrieval/dataset_retrieval.py index ee728423262fce..5c2d4866569411 100644 --- a/api/core/rag/retrieval/dataset_retrieval.py +++ b/api/core/rag/retrieval/dataset_retrieval.py @@ -1,23 +1,40 @@ +import threading from typing import Optional, cast -from langchain.tools import BaseTool +from flask import Flask, current_app from core.app.app_config.entities import DatasetEntity, DatasetRetrieveConfigEntity from core.app.entities.app_invoke_entities import InvokeFrom, ModelConfigWithCredentialsEntity from core.callback_handler.index_tool_callback_handler import DatasetIndexToolCallbackHandler from core.entities.agent_entities import PlanningStrategy from core.memory.token_buffer_memory import TokenBufferMemory -from core.model_runtime.entities.model_entities import ModelFeature +from core.model_manager import ModelInstance, ModelManager +from core.model_runtime.entities.message_entities import PromptMessageTool +from core.model_runtime.entities.model_entities import ModelFeature, ModelType from core.model_runtime.model_providers.__base.large_language_model import LargeLanguageModel -from core.rag.retrieval.agent_based_dataset_executor import AgentConfiguration, AgentExecutor -from core.tools.tool.dataset_retriever.dataset_multi_retriever_tool import DatasetMultiRetrieverTool -from core.tools.tool.dataset_retriever.dataset_retriever_tool import DatasetRetrieverTool +from core.rag.datasource.retrieval_service import RetrievalService +from core.rag.models.document import Document +from core.rag.retrieval.router.multi_dataset_function_call_router import FunctionCallMultiDatasetRouter +from core.rag.retrieval.router.multi_dataset_react_route import ReactMultiDatasetRouter +from core.rerank.rerank import RerankRunner from extensions.ext_database import db -from models.dataset import Dataset +from models.dataset import Dataset, DatasetQuery, DocumentSegment +from models.dataset import Document as DatasetDocument + +default_retrieval_model = { + 'search_method': 'semantic_search', + 'reranking_enable': False, + 'reranking_model': { + 'reranking_provider_name': '', + 'reranking_model_name': '' + }, + 'top_k': 2, + 'score_threshold_enabled': False +} class DatasetRetrieval: - def retrieve(self, tenant_id: str, + def retrieve(self, app_id: str, user_id: str, tenant_id: str, model_config: ModelConfigWithCredentialsEntity, config: DatasetEntity, query: str, @@ -27,6 +44,8 @@ def retrieve(self, tenant_id: str, memory: Optional[TokenBufferMemory] = None) -> Optional[str]: """ Retrieve dataset. + :param app_id: app_id + :param user_id: user_id :param tenant_id: tenant id :param model_config: model config :param config: dataset config @@ -38,12 +57,22 @@ def retrieve(self, tenant_id: str, :return: """ dataset_ids = config.dataset_ids + if len(dataset_ids) == 0: + return None retrieve_config = config.retrieve_config # check model is support tool calling model_type_instance = model_config.provider_model_bundle.model_type_instance model_type_instance = cast(LargeLanguageModel, model_type_instance) + model_manager = ModelManager() + model_instance = model_manager.get_model_instance( + tenant_id=tenant_id, + model_type=ModelType.LLM, + provider=model_config.provider, + model=model_config.model + ) + # get model schema model_schema = model_type_instance.get_model_schema( model=model_config.model, @@ -59,56 +88,6 @@ def retrieve(self, tenant_id: str, if ModelFeature.TOOL_CALL in features \ or ModelFeature.MULTI_TOOL_CALL in features: planning_strategy = PlanningStrategy.ROUTER - - dataset_retriever_tools = self.to_dataset_retriever_tool( - tenant_id=tenant_id, - dataset_ids=dataset_ids, - retrieve_config=retrieve_config, - return_resource=show_retrieve_source, - invoke_from=invoke_from, - hit_callback=hit_callback - ) - - if len(dataset_retriever_tools) == 0: - return None - - agent_configuration = AgentConfiguration( - strategy=planning_strategy, - model_config=model_config, - tools=dataset_retriever_tools, - memory=memory, - max_iterations=10, - max_execution_time=400.0, - early_stopping_method="generate" - ) - - agent_executor = AgentExecutor(agent_configuration) - - should_use_agent = agent_executor.should_use_agent(query) - if not should_use_agent: - return None - - result = agent_executor.run(query) - - return result.output - - def to_dataset_retriever_tool(self, tenant_id: str, - dataset_ids: list[str], - retrieve_config: DatasetRetrieveConfigEntity, - return_resource: bool, - invoke_from: InvokeFrom, - hit_callback: DatasetIndexToolCallbackHandler) \ - -> Optional[list[BaseTool]]: - """ - A dataset tool is a tool that can be used to retrieve information from a dataset - :param tenant_id: tenant id - :param dataset_ids: dataset ids - :param retrieve_config: retrieve config - :param return_resource: return resource - :param invoke_from: invoke from - :param hit_callback: hit callback - """ - tools = [] available_datasets = [] for dataset_id in dataset_ids: # get dataset from dataset id @@ -127,56 +106,270 @@ def to_dataset_retriever_tool(self, tenant_id: str, continue available_datasets.append(dataset) - + all_documents = [] + user_from = 'account' if invoke_from in [InvokeFrom.EXPLORE, InvokeFrom.DEBUGGER] else 'end_user' if retrieve_config.retrieve_strategy == DatasetRetrieveConfigEntity.RetrieveStrategy.SINGLE: + all_documents = self.single_retrieve(app_id, tenant_id, user_id, user_from, available_datasets, query, + model_instance, + model_config, planning_strategy) + elif retrieve_config.retrieve_strategy == DatasetRetrieveConfigEntity.RetrieveStrategy.MULTIPLE: + all_documents = self.multiple_retrieve(app_id, tenant_id, user_id, user_from, + available_datasets, query, retrieve_config.top_k, + retrieve_config.score_threshold, + retrieve_config.reranking_model.get('reranking_provider_name'), + retrieve_config.reranking_model.get('reranking_model_name')) + + document_score_list = {} + for item in all_documents: + if 'score' in item.metadata and item.metadata['score']: + document_score_list[item.metadata['doc_id']] = item.metadata['score'] + + document_context_list = [] + index_node_ids = [document.metadata['doc_id'] for document in all_documents] + segments = DocumentSegment.query.filter( + DocumentSegment.dataset_id.in_(dataset_ids), + DocumentSegment.completed_at.isnot(None), + DocumentSegment.status == 'completed', + DocumentSegment.enabled == True, + DocumentSegment.index_node_id.in_(index_node_ids) + ).all() + + if segments: + index_node_id_to_position = {id: position for position, id in enumerate(index_node_ids)} + sorted_segments = sorted(segments, + key=lambda segment: index_node_id_to_position.get(segment.index_node_id, + float('inf'))) + for segment in sorted_segments: + if segment.answer: + document_context_list.append(f'question:{segment.content} answer:{segment.answer}') + else: + document_context_list.append(segment.content) + if show_retrieve_source: + context_list = [] + resource_number = 1 + for segment in sorted_segments: + dataset = Dataset.query.filter_by( + id=segment.dataset_id + ).first() + document = DatasetDocument.query.filter(DatasetDocument.id == segment.document_id, + DatasetDocument.enabled == True, + DatasetDocument.archived == False, + ).first() + if dataset and document: + source = { + 'position': resource_number, + 'dataset_id': dataset.id, + 'dataset_name': dataset.name, + 'document_id': document.id, + 'document_name': document.name, + 'data_source_type': document.data_source_type, + 'segment_id': segment.id, + 'retriever_from': invoke_from.to_source(), + 'score': document_score_list.get(segment.index_node_id, None) + } + + if invoke_from.to_source() == 'dev': + source['hit_count'] = segment.hit_count + source['word_count'] = segment.word_count + source['segment_position'] = segment.position + source['index_node_hash'] = segment.index_node_hash + if segment.answer: + source['content'] = f'question:{segment.content} \nanswer:{segment.answer}' + else: + source['content'] = segment.content + context_list.append(source) + resource_number += 1 + if hit_callback: + hit_callback.return_retriever_resource_info(context_list) + + return str("\n".join(document_context_list)) + return '' + + def single_retrieve(self, app_id: str, + tenant_id: str, + user_id: str, + user_from: str, + available_datasets: list, + query: str, + model_instance: ModelInstance, + model_config: ModelConfigWithCredentialsEntity, + planning_strategy: PlanningStrategy, + ): + tools = [] + for dataset in available_datasets: + description = dataset.description + if not description: + description = 'useful for when you want to answer queries about the ' + dataset.name + + description = description.replace('\n', '').replace('\r', '') + message_tool = PromptMessageTool( + name=dataset.id, + description=description, + parameters={ + "type": "object", + "properties": {}, + "required": [], + } + ) + tools.append(message_tool) + dataset_id = None + if planning_strategy == PlanningStrategy.REACT_ROUTER: + react_multi_dataset_router = ReactMultiDatasetRouter() + dataset_id = react_multi_dataset_router.invoke(query, tools, model_config, model_instance, + user_id, tenant_id) + + elif planning_strategy == PlanningStrategy.ROUTER: + function_call_router = FunctionCallMultiDatasetRouter() + dataset_id = function_call_router.invoke(query, tools, model_config, model_instance) + + if dataset_id: # get retrieval model config - default_retrieval_model = { - 'search_method': 'semantic_search', - 'reranking_enable': False, - 'reranking_model': { - 'reranking_provider_name': '', - 'reranking_model_name': '' - }, - 'top_k': 2, - 'score_threshold_enabled': False - } - - for dataset in available_datasets: + dataset = db.session.query(Dataset).filter( + Dataset.id == dataset_id + ).first() + if dataset: retrieval_model_config = dataset.retrieval_model \ if dataset.retrieval_model else default_retrieval_model # get top k top_k = retrieval_model_config['top_k'] - + # get retrieval method + if dataset.indexing_technique == "economy": + retrival_method = 'keyword_search' + else: + retrival_method = retrieval_model_config['search_method'] + # get reranking model + reranking_model = retrieval_model_config['reranking_model'] \ + if retrieval_model_config['reranking_enable'] else None # get score threshold - score_threshold = None + score_threshold = .0 score_threshold_enabled = retrieval_model_config.get("score_threshold_enabled") if score_threshold_enabled: score_threshold = retrieval_model_config.get("score_threshold") - tool = DatasetRetrieverTool.from_dataset( - dataset=dataset, - top_k=top_k, - score_threshold=score_threshold, - hit_callbacks=[hit_callback], - return_resource=return_resource, - retriever_from=invoke_from.to_source() - ) + results = RetrievalService.retrieve(retrival_method=retrival_method, dataset_id=dataset.id, + query=query, + top_k=top_k, score_threshold=score_threshold, + reranking_model=reranking_model) + self._on_query(query, [dataset_id], app_id, user_from, user_id) + if results: + self._on_retrival_end(results) + return results + return [] - tools.append(tool) - elif retrieve_config.retrieve_strategy == DatasetRetrieveConfigEntity.RetrieveStrategy.MULTIPLE: - tool = DatasetMultiRetrieverTool.from_dataset( - dataset_ids=[dataset.id for dataset in available_datasets], - tenant_id=tenant_id, - top_k=retrieve_config.top_k or 2, - score_threshold=retrieve_config.score_threshold, - hit_callbacks=[hit_callback], - return_resource=return_resource, - retriever_from=invoke_from.to_source(), - reranking_provider_name=retrieve_config.reranking_model.get('reranking_provider_name'), - reranking_model_name=retrieve_config.reranking_model.get('reranking_model_name') + def multiple_retrieve(self, + app_id: str, + tenant_id: str, + user_id: str, + user_from: str, + available_datasets: list, + query: str, + top_k: int, + score_threshold: float, + reranking_provider_name: str, + reranking_model_name: str): + threads = [] + all_documents = [] + dataset_ids = [dataset.id for dataset in available_datasets] + for dataset in available_datasets: + retrieval_thread = threading.Thread(target=self._retriever, kwargs={ + 'flask_app': current_app._get_current_object(), + 'dataset_id': dataset.id, + 'query': query, + 'top_k': top_k, + 'all_documents': all_documents, + }) + threads.append(retrieval_thread) + retrieval_thread.start() + for thread in threads: + thread.join() + # do rerank for searched documents + model_manager = ModelManager() + rerank_model_instance = model_manager.get_model_instance( + tenant_id=tenant_id, + provider=reranking_provider_name, + model_type=ModelType.RERANK, + model=reranking_model_name + ) + + rerank_runner = RerankRunner(rerank_model_instance) + all_documents = rerank_runner.run(query, all_documents, + score_threshold, + top_k) + self._on_query(query, dataset_ids, app_id, user_from, user_id) + if all_documents: + self._on_retrival_end(all_documents) + return all_documents + + def _on_retrival_end(self, documents: list[Document]) -> None: + """Handle retrival end.""" + for document in documents: + query = db.session.query(DocumentSegment).filter( + DocumentSegment.index_node_id == document.metadata['doc_id'] ) - tools.append(tool) + # if 'dataset_id' in document.metadata: + if 'dataset_id' in document.metadata: + query = query.filter(DocumentSegment.dataset_id == document.metadata['dataset_id']) + + # add hit count to document segment + query.update( + {DocumentSegment.hit_count: DocumentSegment.hit_count + 1}, + synchronize_session=False + ) + + db.session.commit() + + def _on_query(self, query: str, dataset_ids: list[str], app_id: str, user_from: str, user_id: str) -> None: + """ + Handle query. + """ + if not query: + return + for dataset_id in dataset_ids: + dataset_query = DatasetQuery( + dataset_id=dataset_id, + content=query, + source='app', + source_app_id=app_id, + created_by_role=user_from, + created_by=user_id + ) + db.session.add(dataset_query) + db.session.commit() + + def _retriever(self, flask_app: Flask, dataset_id: str, query: str, top_k: int, all_documents: list): + with flask_app.app_context(): + dataset = db.session.query(Dataset).filter( + Dataset.id == dataset_id + ).first() + + if not dataset: + return [] + + # get retrieval model , if the model is not setting , using default + retrieval_model = dataset.retrieval_model if dataset.retrieval_model else default_retrieval_model + + if dataset.indexing_technique == "economy": + # use keyword table query + documents = RetrievalService.retrieve(retrival_method='keyword_search', + dataset_id=dataset.id, + query=query, + top_k=top_k + ) + if documents: + all_documents.extend(documents) + else: + if top_k > 0: + # retrieval source + documents = RetrievalService.retrieve(retrival_method=retrieval_model['search_method'], + dataset_id=dataset.id, + query=query, + top_k=top_k, + score_threshold=retrieval_model['score_threshold'] + if retrieval_model['score_threshold_enabled'] else None, + reranking_model=retrieval_model['reranking_model'] + if retrieval_model['reranking_enable'] else None + ) - return tools + all_documents.extend(documents) diff --git a/api/core/rag/retrieval/agent/__init__.py b/api/core/rag/retrieval/output_parser/__init__.py similarity index 100% rename from api/core/rag/retrieval/agent/__init__.py rename to api/core/rag/retrieval/output_parser/__init__.py diff --git a/api/core/rag/retrieval/agent/output_parser/structured_chat.py b/api/core/rag/retrieval/output_parser/structured_chat.py similarity index 100% rename from api/core/rag/retrieval/agent/output_parser/structured_chat.py rename to api/core/rag/retrieval/output_parser/structured_chat.py diff --git a/api/core/workflow/nodes/knowledge_retrieval/multi_dataset_function_call_router.py b/api/core/rag/retrieval/router/multi_dataset_function_call_router.py similarity index 100% rename from api/core/workflow/nodes/knowledge_retrieval/multi_dataset_function_call_router.py rename to api/core/rag/retrieval/router/multi_dataset_function_call_router.py diff --git a/api/core/workflow/nodes/knowledge_retrieval/multi_dataset_react_route.py b/api/core/rag/retrieval/router/multi_dataset_react_route.py similarity index 90% rename from api/core/workflow/nodes/knowledge_retrieval/multi_dataset_react_route.py rename to api/core/rag/retrieval/router/multi_dataset_react_route.py index a2e3cd71a5a6a6..0ec01047b32745 100644 --- a/api/core/workflow/nodes/knowledge_retrieval/multi_dataset_react_route.py +++ b/api/core/rag/retrieval/router/multi_dataset_react_route.py @@ -12,8 +12,7 @@ from core.model_runtime.entities.message_entities import PromptMessage, PromptMessageRole, PromptMessageTool from core.prompt.advanced_prompt_transform import AdvancedPromptTransform from core.prompt.entities.advanced_prompt_entities import ChatModelMessage -from core.rag.retrieval.agent.output_parser.structured_chat import StructuredChatOutputParser -from core.workflow.nodes.knowledge_retrieval.entities import KnowledgeRetrievalNodeData +from core.rag.retrieval.output_parser.structured_chat import StructuredChatOutputParser from core.workflow.nodes.llm.llm_node import LLMNode FORMAT_INSTRUCTIONS = """Use a json blob to specify a tool by providing an action key (tool name) and an action_input key (tool input). @@ -55,11 +54,10 @@ def invoke( self, query: str, dataset_tools: list[PromptMessageTool], - node_data: KnowledgeRetrievalNodeData, model_config: ModelConfigWithCredentialsEntity, model_instance: ModelInstance, user_id: str, - tenant_id: str, + tenant_id: str ) -> Union[str, None]: """Given input, decided what to do. @@ -72,7 +70,8 @@ def invoke( return dataset_tools[0].name try: - return self._react_invoke(query=query, node_data=node_data, model_config=model_config, model_instance=model_instance, + return self._react_invoke(query=query, model_config=model_config, + model_instance=model_instance, tools=dataset_tools, user_id=user_id, tenant_id=tenant_id) except Exception as e: return None @@ -80,7 +79,6 @@ def invoke( def _react_invoke( self, query: str, - node_data: KnowledgeRetrievalNodeData, model_config: ModelConfigWithCredentialsEntity, model_instance: ModelInstance, tools: Sequence[PromptMessageTool], @@ -121,7 +119,7 @@ def _react_invoke( model_config=model_config ) result_text, usage = self._invoke_llm( - node_data=node_data, + completion_param=model_config.parameters, model_instance=model_instance, prompt_messages=prompt_messages, stop=stop, @@ -134,10 +132,11 @@ def _react_invoke( return agent_decision.tool return None - def _invoke_llm(self, node_data: KnowledgeRetrievalNodeData, + def _invoke_llm(self, completion_param: dict, model_instance: ModelInstance, prompt_messages: list[PromptMessage], - stop: list[str], user_id: str, tenant_id: str) -> tuple[str, LLMUsage]: + stop: list[str], user_id: str, tenant_id: str + ) -> tuple[str, LLMUsage]: """ Invoke large language model :param node_data: node data @@ -148,7 +147,7 @@ def _invoke_llm(self, node_data: KnowledgeRetrievalNodeData, """ invoke_result = model_instance.invoke_llm( prompt_messages=prompt_messages, - model_parameters=node_data.single_retrieval_config.model.completion_params, + model_parameters=completion_param, stop=stop, stream=True, user=user_id, @@ -203,7 +202,8 @@ def create_chat_prompt( ) -> list[ChatModelMessage]: tool_strings = [] for tool in tools: - tool_strings.append(f"{tool.name}: {tool.description}, args: {{'query': {{'title': 'Query', 'description': 'Query for the dataset to be used to retrieve the dataset.', 'type': 'string'}}}}") + tool_strings.append( + f"{tool.name}: {tool.description}, args: {{'query': {{'title': 'Query', 'description': 'Query for the dataset to be used to retrieve the dataset.', 'type': 'string'}}}}") formatted_tools = "\n".join(tool_strings) unique_tool_names = set(tool.name for tool in tools) tool_names = ", ".join('"' + name + '"' for name in unique_tool_names) diff --git a/api/core/workflow/nodes/knowledge_retrieval/knowledge_retrieval_node.py b/api/core/workflow/nodes/knowledge_retrieval/knowledge_retrieval_node.py index a1dce8b09d1de3..be3cec91525aba 100644 --- a/api/core/workflow/nodes/knowledge_retrieval/knowledge_retrieval_node.py +++ b/api/core/workflow/nodes/knowledge_retrieval/knowledge_retrieval_node.py @@ -1,28 +1,21 @@ -import threading from typing import Any, cast -from flask import Flask, current_app - from core.app.app_config.entities import DatasetRetrieveConfigEntity from core.app.entities.app_invoke_entities import ModelConfigWithCredentialsEntity from core.entities.agent_entities import PlanningStrategy from core.entities.model_entities import ModelStatus from core.errors.error import ModelCurrentlyNotSupportError, ProviderTokenNotInitError, QuotaExceededError from core.model_manager import ModelInstance, ModelManager -from core.model_runtime.entities.message_entities import PromptMessageTool from core.model_runtime.entities.model_entities import ModelFeature, ModelType from core.model_runtime.model_providers.__base.large_language_model import LargeLanguageModel -from core.rag.datasource.retrieval_service import RetrievalService -from core.rerank.rerank import RerankRunner +from core.rag.retrieval.dataset_retrieval import DatasetRetrieval from core.workflow.entities.base_node_data_entities import BaseNodeData from core.workflow.entities.node_entities import NodeRunResult, NodeType from core.workflow.entities.variable_pool import VariablePool from core.workflow.nodes.base_node import BaseNode from core.workflow.nodes.knowledge_retrieval.entities import KnowledgeRetrievalNodeData -from core.workflow.nodes.knowledge_retrieval.multi_dataset_function_call_router import FunctionCallMultiDatasetRouter -from core.workflow.nodes.knowledge_retrieval.multi_dataset_react_route import ReactMultiDatasetRouter from extensions.ext_database import db -from models.dataset import Dataset, DatasetQuery, Document, DocumentSegment +from models.dataset import Dataset, Document, DocumentSegment from models.workflow import WorkflowNodeExecutionStatus default_retrieval_model = { @@ -106,10 +99,45 @@ def _fetch_dataset_retriever(self, node_data: KnowledgeRetrievalNodeData, query: available_datasets.append(dataset) all_documents = [] + dataset_retrieval = DatasetRetrieval() if node_data.retrieval_mode == DatasetRetrieveConfigEntity.RetrieveStrategy.SINGLE.value: - all_documents = self._single_retrieve(available_datasets, node_data, query) + # fetch model config + model_instance, model_config = self._fetch_model_config(node_data) + # check model is support tool calling + model_type_instance = model_config.provider_model_bundle.model_type_instance + model_type_instance = cast(LargeLanguageModel, model_type_instance) + # get model schema + model_schema = model_type_instance.get_model_schema( + model=model_config.model, + credentials=model_config.credentials + ) + + if model_schema: + planning_strategy = PlanningStrategy.REACT_ROUTER + features = model_schema.features + if features: + if ModelFeature.TOOL_CALL in features \ + or ModelFeature.MULTI_TOOL_CALL in features: + planning_strategy = PlanningStrategy.ROUTER + all_documents = dataset_retrieval.single_retrieve( + available_datasets=available_datasets, + tenant_id=self.tenant_id, + user_id=self.user_id, + app_id=self.app_id, + user_from=self.user_from.value, + query=query, + model_config=model_config, + model_instance=model_instance, + planning_strategy=planning_strategy + ) elif node_data.retrieval_mode == DatasetRetrieveConfigEntity.RetrieveStrategy.MULTIPLE.value: - all_documents = self._multiple_retrieve(available_datasets, node_data, query) + all_documents = dataset_retrieval.multiple_retrieve(self.app_id, self.tenant_id, self.user_id, + self.user_from.value, + available_datasets, query, + node_data.multiple_retrieval_config.top_k, + node_data.multiple_retrieval_config.score_threshold, + node_data.multiple_retrieval_config.reranking_model.provider, + node_data.multiple_retrieval_config.reranking_model.model) context_list = [] if all_documents: @@ -184,87 +212,6 @@ def _extract_variable_selector_to_variable_mapping(cls, node_data: BaseNodeData) variable_mapping['query'] = node_data.query_variable_selector return variable_mapping - def _single_retrieve(self, available_datasets, node_data, query): - tools = [] - for dataset in available_datasets: - description = dataset.description - if not description: - description = 'useful for when you want to answer queries about the ' + dataset.name - - description = description.replace('\n', '').replace('\r', '') - message_tool = PromptMessageTool( - name=dataset.id, - description=description, - parameters={ - "type": "object", - "properties": {}, - "required": [], - } - ) - tools.append(message_tool) - # fetch model config - model_instance, model_config = self._fetch_model_config(node_data) - # check model is support tool calling - model_type_instance = model_config.provider_model_bundle.model_type_instance - model_type_instance = cast(LargeLanguageModel, model_type_instance) - # get model schema - model_schema = model_type_instance.get_model_schema( - model=model_config.model, - credentials=model_config.credentials - ) - - if not model_schema: - return None - planning_strategy = PlanningStrategy.REACT_ROUTER - features = model_schema.features - if features: - if ModelFeature.TOOL_CALL in features \ - or ModelFeature.MULTI_TOOL_CALL in features: - planning_strategy = PlanningStrategy.ROUTER - dataset_id = None - if planning_strategy == PlanningStrategy.REACT_ROUTER: - react_multi_dataset_router = ReactMultiDatasetRouter() - dataset_id = react_multi_dataset_router.invoke(query, tools, node_data, model_config, model_instance, - self.user_id, self.tenant_id) - - elif planning_strategy == PlanningStrategy.ROUTER: - function_call_router = FunctionCallMultiDatasetRouter() - dataset_id = function_call_router.invoke(query, tools, model_config, model_instance) - if dataset_id: - # get retrieval model config - dataset = db.session.query(Dataset).filter( - Dataset.id == dataset_id - ).first() - if dataset: - retrieval_model_config = dataset.retrieval_model \ - if dataset.retrieval_model else default_retrieval_model - - # get top k - top_k = retrieval_model_config['top_k'] - # get retrieval method - if dataset.indexing_technique == "economy": - retrival_method = 'keyword_search' - else: - retrival_method = retrieval_model_config['search_method'] - # get reranking model - reranking_model=retrieval_model_config['reranking_model'] \ - if retrieval_model_config['reranking_enable'] else None - # get score threshold - score_threshold = .0 - score_threshold_enabled = retrieval_model_config.get("score_threshold_enabled") - if score_threshold_enabled: - score_threshold = retrieval_model_config.get("score_threshold") - - results = RetrievalService.retrieve(retrival_method=retrival_method, dataset_id=dataset.id, - query=query, - top_k=top_k, score_threshold=score_threshold, - reranking_model=reranking_model) - self._on_query(query, [dataset_id]) - if results: - self._on_retrival_end(results) - return results - return [] - def _fetch_model_config(self, node_data: KnowledgeRetrievalNodeData) -> tuple[ ModelInstance, ModelConfigWithCredentialsEntity]: """ @@ -335,112 +282,3 @@ def _fetch_model_config(self, node_data: KnowledgeRetrievalNodeData) -> tuple[ parameters=completion_params, stop=stop, ) - - def _multiple_retrieve(self, available_datasets, node_data, query): - threads = [] - all_documents = [] - dataset_ids = [dataset.id for dataset in available_datasets] - for dataset in available_datasets: - retrieval_thread = threading.Thread(target=self._retriever, kwargs={ - 'flask_app': current_app._get_current_object(), - 'dataset_id': dataset.id, - 'query': query, - 'top_k': node_data.multiple_retrieval_config.top_k, - 'all_documents': all_documents, - }) - threads.append(retrieval_thread) - retrieval_thread.start() - for thread in threads: - thread.join() - # do rerank for searched documents - model_manager = ModelManager() - rerank_model_instance = model_manager.get_model_instance( - tenant_id=self.tenant_id, - provider=node_data.multiple_retrieval_config.reranking_model.provider, - model_type=ModelType.RERANK, - model=node_data.multiple_retrieval_config.reranking_model.model - ) - - rerank_runner = RerankRunner(rerank_model_instance) - all_documents = rerank_runner.run(query, all_documents, - node_data.multiple_retrieval_config.score_threshold, - node_data.multiple_retrieval_config.top_k) - self._on_query(query, dataset_ids) - if all_documents: - self._on_retrival_end(all_documents) - return all_documents - - def _on_retrival_end(self, documents: list[Document]) -> None: - """Handle retrival end.""" - for document in documents: - query = db.session.query(DocumentSegment).filter( - DocumentSegment.index_node_id == document.metadata['doc_id'] - ) - - # if 'dataset_id' in document.metadata: - if 'dataset_id' in document.metadata: - query = query.filter(DocumentSegment.dataset_id == document.metadata['dataset_id']) - - # add hit count to document segment - query.update( - {DocumentSegment.hit_count: DocumentSegment.hit_count + 1}, - synchronize_session=False - ) - - db.session.commit() - - def _on_query(self, query: str, dataset_ids: list[str]) -> None: - """ - Handle query. - """ - if not query: - return - for dataset_id in dataset_ids: - dataset_query = DatasetQuery( - dataset_id=dataset_id, - content=query, - source='app', - source_app_id=self.app_id, - created_by_role=self.user_from.value, - created_by=self.user_id - ) - db.session.add(dataset_query) - db.session.commit() - - def _retriever(self, flask_app: Flask, dataset_id: str, query: str, top_k: int, all_documents: list): - with flask_app.app_context(): - dataset = db.session.query(Dataset).filter( - Dataset.tenant_id == self.tenant_id, - Dataset.id == dataset_id - ).first() - - if not dataset: - return [] - - # get retrieval model , if the model is not setting , using default - retrieval_model = dataset.retrieval_model if dataset.retrieval_model else default_retrieval_model - - if dataset.indexing_technique == "economy": - # use keyword table query - documents = RetrievalService.retrieve(retrival_method='keyword_search', - dataset_id=dataset.id, - query=query, - top_k=top_k - ) - if documents: - all_documents.extend(documents) - else: - if top_k > 0: - # retrieval source - documents = RetrievalService.retrieve(retrival_method=retrieval_model['search_method'], - dataset_id=dataset.id, - query=query, - top_k=top_k, - score_threshold=retrieval_model['score_threshold'] - if retrieval_model['score_threshold_enabled'] else None, - reranking_model=retrieval_model['reranking_model'] - if retrieval_model['reranking_enable'] else None - ) - - all_documents.extend(documents) - From d948b0b49b5f1e94a6bf3d47864540f7aec2bd6f Mon Sep 17 00:00:00 2001 From: Chenhe Gu Date: Wed, 10 Apr 2024 22:05:27 +0800 Subject: [PATCH 3/4] add german translations (#3322) --- web/i18n/de-DE/app-annotation.ts | 87 +++++ web/i18n/de-DE/app-api.ts | 82 +++++ web/i18n/de-DE/app-debug.ts | 409 +++++++++++++++++++++ web/i18n/de-DE/app-log.ts | 69 ++++ web/i18n/de-DE/app-overview.ts | 139 +++++++ web/i18n/de-DE/app.ts | 54 +++ web/i18n/de-DE/billing.ts | 115 ++++++ web/i18n/de-DE/common.ts | 505 ++++++++++++++++++++++++++ web/i18n/de-DE/custom.ts | 30 ++ web/i18n/de-DE/dataset-creation.ts | 130 +++++++ web/i18n/de-DE/dataset-documents.ts | 349 ++++++++++++++++++ web/i18n/de-DE/dataset-hit-testing.ts | 28 ++ web/i18n/de-DE/dataset-settings.ts | 33 ++ web/i18n/de-DE/dataset.ts | 47 +++ web/i18n/de-DE/explore.ts | 41 +++ web/i18n/de-DE/layout.ts | 4 + web/i18n/de-DE/login.ts | 59 +++ web/i18n/de-DE/register.ts | 4 + web/i18n/de-DE/run-log.ts | 23 ++ web/i18n/de-DE/share-app.ts | 74 ++++ web/i18n/de-DE/tools.ts | 115 ++++++ web/i18n/de-DE/workflow.ts | 333 +++++++++++++++++ web/i18n/language.ts | 27 +- 23 files changed, 2744 insertions(+), 13 deletions(-) create mode 100644 web/i18n/de-DE/app-annotation.ts create mode 100644 web/i18n/de-DE/app-api.ts create mode 100644 web/i18n/de-DE/app-debug.ts create mode 100644 web/i18n/de-DE/app-log.ts create mode 100644 web/i18n/de-DE/app-overview.ts create mode 100644 web/i18n/de-DE/app.ts create mode 100644 web/i18n/de-DE/billing.ts create mode 100644 web/i18n/de-DE/common.ts create mode 100644 web/i18n/de-DE/custom.ts create mode 100644 web/i18n/de-DE/dataset-creation.ts create mode 100644 web/i18n/de-DE/dataset-documents.ts create mode 100644 web/i18n/de-DE/dataset-hit-testing.ts create mode 100644 web/i18n/de-DE/dataset-settings.ts create mode 100644 web/i18n/de-DE/dataset.ts create mode 100644 web/i18n/de-DE/explore.ts create mode 100644 web/i18n/de-DE/layout.ts create mode 100644 web/i18n/de-DE/login.ts create mode 100644 web/i18n/de-DE/register.ts create mode 100644 web/i18n/de-DE/run-log.ts create mode 100644 web/i18n/de-DE/share-app.ts create mode 100644 web/i18n/de-DE/tools.ts create mode 100644 web/i18n/de-DE/workflow.ts diff --git a/web/i18n/de-DE/app-annotation.ts b/web/i18n/de-DE/app-annotation.ts new file mode 100644 index 00000000000000..8b96da2752c717 --- /dev/null +++ b/web/i18n/de-DE/app-annotation.ts @@ -0,0 +1,87 @@ +const translation = { + title: 'Anmerkungen', + name: 'Antwort Anmerkung', + editBy: 'Antwort bearbeitet von {{author}}', + noData: { + title: 'Keine Anmerkungen', + description: 'Sie können Anmerkungen während des App-Debuggings bearbeiten oder hier Anmerkungen in großen Mengen importieren für eine hochwertige Antwort.', + }, + table: { + header: { + question: 'Frage', + answer: 'Antwort', + createdAt: 'erstellt am', + hits: 'Treffer', + actions: 'Aktionen', + addAnnotation: 'Anmerkung hinzufügen', + bulkImport: 'Massenimport', + bulkExport: 'Massenexport', + clearAll: 'Alle Anmerkungen löschen', + }, + }, + editModal: { + title: 'Antwort Anmerkung bearbeiten', + queryName: 'Benutzeranfrage', + answerName: 'Geschichtenerzähler Bot', + yourAnswer: 'Ihre Antwort', + answerPlaceholder: 'Geben Sie hier Ihre Antwort ein', + yourQuery: 'Ihre Anfrage', + queryPlaceholder: 'Geben Sie hier Ihre Anfrage ein', + removeThisCache: 'Diese Anmerkung entfernen', + createdAt: 'Erstellt am', + }, + addModal: { + title: 'Antwort Anmerkung hinzufügen', + queryName: 'Frage', + answerName: 'Antwort', + answerPlaceholder: 'Antwort hier eingeben', + queryPlaceholder: 'Anfrage hier eingeben', + createNext: 'Eine weitere annotierte Antwort hinzufügen', + }, + batchModal: { + title: 'Massenimport', + csvUploadTitle: 'Ziehen Sie Ihre CSV-Datei hierher oder ', + browse: 'durchsuchen', + tip: 'Die CSV-Datei muss der folgenden Struktur entsprechen:', + question: 'Frage', + answer: 'Antwort', + contentTitle: 'Inhaltsabschnitt', + content: 'Inhalt', + template: 'Laden Sie die Vorlage hier herunter', + cancel: 'Abbrechen', + run: 'Batch ausführen', + runError: 'Batch-Ausführung fehlgeschlagen', + processing: 'In Batch-Verarbeitung', + completed: 'Import abgeschlossen', + error: 'Importfehler', + ok: 'OK', + }, + errorMessage: { + answerRequired: 'Antwort erforderlich', + queryRequired: 'Frage erforderlich', + }, + viewModal: { + annotatedResponse: 'Antwort Anmerkung', + hitHistory: 'Trefferhistorie', + hit: 'Treffer', + hits: 'Treffer', + noHitHistory: 'Keine Trefferhistorie', + }, + hitHistoryTable: { + query: 'Anfrage', + match: 'Übereinstimmung', + response: 'Antwort', + source: 'Quelle', + score: 'Punktzahl', + time: 'Zeit', + }, + initSetup: { + title: 'Initialeinrichtung Antwort Anmerkung', + configTitle: 'Einrichtung Antwort Anmerkung', + confirmBtn: 'Speichern & Aktivieren', + configConfirmBtn: 'Speichern', + }, + embeddingModelSwitchTip: 'Anmerkungstext-Vektorisierungsmodell, das Wechseln von Modellen wird neu eingebettet, was zusätzliche Kosten verursacht.', +} + +export default translation diff --git a/web/i18n/de-DE/app-api.ts b/web/i18n/de-DE/app-api.ts new file mode 100644 index 00000000000000..91f4589963041b --- /dev/null +++ b/web/i18n/de-DE/app-api.ts @@ -0,0 +1,82 @@ +const translation = { + apiServer: 'API Server', + apiKey: 'API Schlüssel', + status: 'Status', + disabled: 'Deaktiviert', + ok: 'In Betrieb', + copy: 'Kopieren', + copied: 'Kopiert', + play: 'Abspielen', + pause: 'Pause', + playing: 'Wiedergabe', + merMaind: { + rerender: 'Neu rendern', + }, + never: 'Nie', + apiKeyModal: { + apiSecretKey: 'API Geheimschlüssel', + apiSecretKeyTips: 'Um Missbrauch der API zu verhindern, schützen Sie Ihren API Schlüssel. Vermeiden Sie es, ihn als Klartext im Frontend-Code zu verwenden. :)', + createNewSecretKey: 'Neuen Geheimschlüssel erstellen', + secretKey: 'Geheimschlüssel', + created: 'ERSTELLT', + lastUsed: 'ZULETZT VERWENDET', + generateTips: 'Bewahren Sie diesen Schlüssel an einem sicheren und zugänglichen Ort auf.', + }, + actionMsg: { + deleteConfirmTitle: 'Diesen Geheimschlüssel löschen?', + deleteConfirmTips: 'Diese Aktion kann nicht rückgängig gemacht werden.', + ok: 'OK', + }, + completionMode: { + title: 'Completion App API', + info: 'Für die Erzeugung von hochwertigem Text, wie z.B. Artikel, Zusammenfassungen und Übersetzungen, verwenden Sie die Completion-Messages API mit Benutzereingaben. Die Texterzeugung basiert auf den Modellparametern und Vorlagen für Aufforderungen in Dify Prompt Engineering.', + createCompletionApi: 'Completion Nachricht erstellen', + createCompletionApiTip: 'Erstellen Sie eine Completion Nachricht, um den Frage-Antwort-Modus zu unterstützen.', + inputsTips: '(Optional) Geben Sie Benutzereingabefelder als Schlüssel-Wert-Paare an, die Variablen in Prompt Eng. entsprechen. Schlüssel ist der Variablenname, Wert ist der Parameterwert. Wenn der Feldtyp Select ist, muss der übermittelte Wert eine der voreingestellten Optionen sein.', + queryTips: 'Textinhalt der Benutzereingabe.', + blocking: 'Blockierender Typ, wartet auf die Fertigstellung der Ausführung und gibt Ergebnisse zurück. (Anfragen können unterbrochen werden, wenn der Prozess lang ist)', + streaming: 'Streaming Rückgaben. Implementierung der Streaming-Rückgabe basierend auf SSE (Server-Sent Events).', + messageFeedbackApi: 'Nachrichtenfeedback (Like)', + messageFeedbackApiTip: 'Bewerten Sie empfangene Nachrichten im Namen der Endbenutzer mit Likes oder Dislikes. Diese Daten sind auf der Seite Logs & Annotations sichtbar und werden für zukünftige Modellanpassungen verwendet.', + messageIDTip: 'Nachrichten-ID', + ratingTip: 'like oder dislike, null ist rückgängig machen', + parametersApi: 'Anwendungsparameterinformationen abrufen', + parametersApiTip: 'Abrufen konfigurierter Eingabeparameter, einschließlich Variablennamen, Feldnamen, Typen und Standardwerten. Typischerweise verwendet, um diese Felder in einem Formular anzuzeigen oder Standardwerte nach dem Laden des Clients auszufüllen.', + }, + chatMode: { + title: 'Chat App API', + info: 'Für vielseitige Gesprächsanwendungen im Q&A-Format rufen Sie die chat-messages API auf, um einen Dialog zu initiieren. Führen Sie laufende Gespräche fort, indem Sie die zurückgegebene conversation_id übergeben. Antwortparameter und -vorlagen hängen von den Einstellungen in Dify Prompt Eng. ab.', + createChatApi: 'Chatnachricht erstellen', + createChatApiTip: 'Eine neue Konversationsnachricht erstellen oder einen bestehenden Dialog fortsetzen.', + inputsTips: '(Optional) Geben Sie Benutzereingabefelder als Schlüssel-Wert-Paare an, die Variablen in Prompt Eng. entsprechen. Schlüssel ist der Variablenname, Wert ist der Parameterwert. Wenn der Feldtyp Select ist, muss der übermittelte Wert eine der voreingestellten Optionen sein.', + queryTips: 'Inhalt der Benutzereingabe/Frage', + blocking: 'Blockierender Typ, wartet auf die Fertigstellung der Ausführung und gibt Ergebnisse zurück. (Anfragen können unterbrochen werden, wenn der Prozess lang ist)', + streaming: 'Streaming Rückgaben. Implementierung der Streaming-Rückgabe basierend auf SSE (Server-Sent Events).', + conversationIdTip: '(Optional) Konversations-ID: für erstmalige Konversation leer lassen; conversation_id aus dem Kontext übergeben, um den Dialog fortzusetzen.', + messageFeedbackApi: 'Nachrichtenfeedback des Endbenutzers, like', + messageFeedbackApiTip: 'Bewerten Sie empfangene Nachrichten im Namen der Endbenutzer mit Likes oder Dislikes. Diese Daten sind auf der Seite Logs & Annotations sichtbar und werden für zukünftige Modellanpassungen verwendet.', + messageIDTip: 'Nachrichten-ID', + ratingTip: 'like oder dislike, null ist rückgängig machen', + chatMsgHistoryApi: 'Chatverlaufsnachricht abrufen', + chatMsgHistoryApiTip: 'Die erste Seite gibt die neuesten `limit` Einträge in umgekehrter Reihenfolge zurück.', + chatMsgHistoryConversationIdTip: 'Konversations-ID', + chatMsgHistoryFirstId: 'ID des ersten Chat-Datensatzes auf der aktuellen Seite. Standardmäßig keiner.', + chatMsgHistoryLimit: 'Wie viele Chats in einer Anfrage zurückgegeben werden', + conversationsListApi: 'Konversationsliste abrufen', + conversationsListApiTip: 'Ruft die Sitzungsliste des aktuellen Benutzers ab. Standardmäßig werden die letzten 20 Sitzungen zurückgegeben.', + conversationsListFirstIdTip: 'Die ID des letzten Datensatzes auf der aktuellen Seite, standardmäßig keine.', + conversationsListLimitTip: 'Wie viele Chats in einer Anfrage zurückgegeben werden', + conversationRenamingApi: 'Konversation umbenennen', + conversationRenamingApiTip: 'Konversationen umbenennen; der Name wird in Mehrsitzungs-Client-Schnittstellen angezeigt.', + conversationRenamingNameTip: 'Neuer Name', + parametersApi: 'Anwendungsparameterinformationen abrufen', + parametersApiTip: 'Abrufen konfigurierter Eingabeparameter, einschließlich Variablennamen, Feldnamen, Typen und Standardwerten. Typischerweise verwendet, um diese Felder in einem Formular anzuzeigen oder Standardwerte nach dem Laden des Clients auszufüllen.', + }, + develop: { + requestBody: 'Anfragekörper', + pathParams: 'Pfadparameter', + query: 'Anfrage', + }, +} + +export default translation diff --git a/web/i18n/de-DE/app-debug.ts b/web/i18n/de-DE/app-debug.ts new file mode 100644 index 00000000000000..95ebdabf0507ea --- /dev/null +++ b/web/i18n/de-DE/app-debug.ts @@ -0,0 +1,409 @@ +const translation = { + pageTitle: { + line1: 'PROMPT', + line2: 'Engineering', + }, + orchestrate: 'Orchestrieren', + promptMode: { + simple: 'Wechseln Sie in den Expertenmodus, um das gesamte PROMPT zu bearbeiten', + advanced: 'Expertenmodus', + switchBack: 'Zurückwechseln', + advancedWarning: { + title: 'Sie haben in den Expertenmodus gewechselt, und sobald Sie das PROMPT ändern, können Sie NICHT zum Basis-Modus zurückkehren.', + description: 'Im Expertenmodus können Sie das gesamte PROMPT bearbeiten.', + learnMore: 'Mehr erfahren', + ok: 'OK', + }, + operation: { + addMessage: 'Nachricht hinzufügen', + }, + contextMissing: 'Komponente fehlt, die Wirksamkeit des Prompts könnte schlecht sein.', + }, + operation: { + applyConfig: 'Veröffentlichen', + resetConfig: 'Zurücksetzen', + debugConfig: 'Debuggen', + addFeature: 'Funktion hinzufügen', + automatic: 'Automatisch', + stopResponding: 'Antworten stoppen', + agree: 'gefällt mir', + disagree: 'gefällt mir nicht', + cancelAgree: 'Gefällt mir zurücknehmen', + cancelDisagree: 'Gefällt mir nicht zurücknehmen', + userAction: 'Benutzer ', + }, + notSetAPIKey: { + title: 'LLM-Anbieterschlüssel wurde nicht festgelegt', + trailFinished: 'Testversion beendet', + description: 'Der LLM-Anbieterschlüssel wurde nicht festgelegt und muss vor dem Debuggen festgelegt werden.', + settingBtn: 'Zu den Einstellungen gehen', + }, + trailUseGPT4Info: { + title: 'Unterstützt derzeit kein gpt-4', + description: 'Um gpt-4 zu verwenden, bitte API-Schlüssel festlegen.', + }, + feature: { + groupChat: { + title: 'Chatverbesserung', + description: 'Voreinstellungen für Konversationen zu Apps hinzufügen kann die Benutzererfahrung verbessern.', + }, + groupExperience: { + title: 'Erfahrungsverbesserung', + }, + conversationOpener: { + title: 'Gesprächseröffnungen', + description: 'In einer Chat-App wird der erste Satz, den die KI aktiv an den Benutzer richtet, üblicherweise als Begrüßung verwendet.', + }, + suggestedQuestionsAfterAnswer: { + title: 'Nachfolgefragen', + description: 'Das Einrichten von Vorschlägen für nächste Fragen kann den Chat für Benutzer verbessern.', + resDes: '3 Vorschläge für die nächste Benutzerfrage.', + tryToAsk: 'Versuchen Sie zu fragen', + }, + moreLikeThis: { + title: 'Mehr davon', + description: 'Mehrere Texte gleichzeitig generieren und dann bearbeiten und weiter generieren', + generateNumTip: 'Anzahl der generierten Texte pro Durchgang', + tip: 'Die Verwendung dieser Funktion verursacht zusätzliche Token-Kosten', + }, + speechToText: { + title: 'Sprache zu Text', + description: 'Einmal aktiviert, können Sie Spracheingabe verwenden.', + resDes: 'Spracheingabe ist aktiviert', + }, + textToSpeech: { + title: 'Text zu Sprache', + description: 'Einmal aktiviert, kann Text in Sprache umgewandelt werden.', + resDes: 'Text zu Audio ist aktiviert', + }, + citation: { + title: 'Zitate und Urheberangaben', + description: 'Einmal aktiviert, zeigen Sie das Quelldokument und den zugeordneten Abschnitt des generierten Inhalts an.', + resDes: 'Zitate und Urheberangaben sind aktiviert', + }, + annotation: { + title: 'Annotation Antwort', + description: 'Sie können manuell hochwertige Antworten zum Cache hinzufügen für bevorzugte Übereinstimmung mit ähnlichen Benutzerfragen.', + resDes: 'Annotationsantwort ist aktiviert', + scoreThreshold: { + title: 'Schwellenwert', + description: 'Wird verwendet, um den Ähnlichkeitsschwellenwert für die Annotation Antwort einzustellen.', + easyMatch: 'Einfache Übereinstimmung', + accurateMatch: 'Genaue Übereinstimmung', + }, + matchVariable: { + title: 'Übereinstimmungsvariable', + choosePlaceholder: 'Wählen Sie Übereinstimmungsvariable', + }, + cacheManagement: 'Annotationen', + cached: 'Annotiert', + remove: 'Entfernen', + removeConfirm: 'Diese Annotation löschen?', + add: 'Annotation hinzufügen', + edit: 'Annotation bearbeiten', + }, + dataSet: { + title: 'Kontext', + noData: 'Sie können Wissen als Kontext importieren', + words: 'Wörter', + textBlocks: 'Textblöcke', + selectTitle: 'Wählen Sie Referenzwissen', + selected: 'Wissen ausgewählt', + noDataSet: 'Kein Wissen gefunden', + toCreate: 'Erstellen gehen', + notSupportSelectMulti: 'Unterstützt derzeit nur ein Wissen', + queryVariable: { + title: 'Abfragevariable', + tip: 'Diese Variable wird als Eingabe für die Kontextabfrage verwendet, um kontextbezogene Informationen in Bezug auf die Eingabe dieser Variable zu erhalten.', + choosePlaceholder: 'Wählen Sie Abfragevariable', + noVar: 'Keine Variablen', + noVarTip: 'Bitte erstellen Sie eine Variable im Variablenbereich', + unableToQueryDataSet: 'Konnte das Wissen nicht abfragen', + unableToQueryDataSetTip: 'Konnte das Wissen nicht erfolgreich abfragen, bitte wählen Sie eine Kontextabfragevariable im Kontextbereich.', + ok: 'OK', + contextVarNotEmpty: 'Kontextabfragevariable darf nicht leer sein', + deleteContextVarTitle: 'Variable „{{varName}}“ löschen?', + deleteContextVarTip: 'Diese Variable wurde als Kontextabfragevariable festgelegt und deren Entfernung wird die normale Verwendung des Wissens beeinträchtigen. Wenn Sie sie trotzdem löschen müssen, wählen Sie sie bitte im Kontextbereich erneut.', + }, + }, + tools: { + title: 'Werkzeuge', + tips: 'Werkzeuge bieten eine standardisierte API-Aufrufmethode, die Benutzereingaben oder Variablen als Anfrageparameter für die Abfrage externer Daten als Kontext verwendet.', + toolsInUse: '{{count}} Werkzeuge in Verwendung', + modal: { + title: 'Werkzeug', + toolType: { + title: 'Werkzeugtyp', + placeholder: 'Bitte wählen Sie den Werkzeugtyp', + }, + name: { + title: 'Name', + placeholder: 'Bitte geben Sie den Namen ein', + }, + variableName: { + title: 'Variablenname', + placeholder: 'Bitte geben Sie den Variablennamen ein', + }, + }, + }, + conversationHistory: { + title: 'Konversationsverlauf', + description: 'Präfixnamen für Konversationsrollen festlegen', + tip: 'Der Konversationsverlauf ist nicht aktiviert, bitte fügen Sie im Prompt oben ein.', + learnMore: 'Mehr erfahren', + editModal: { + title: 'Konversationsrollennamen bearbeiten', + userPrefix: 'Benutzerpräfix', + assistantPrefix: 'Assistentenpräfix', + }, + }, + toolbox: { + title: 'WERKZEUGKASTEN', + }, + moderation: { + title: 'Inhaltsmoderation', + description: 'Sichern Sie die Ausgabe des Modells durch Verwendung der Moderations-API oder durch Pflege einer Liste sensibler Wörter.', + allEnabled: 'INHALT von EINGABE/AUSGABE aktiviert', + inputEnabled: 'INHALT von EINGABE aktiviert', + outputEnabled: 'INHALT von AUSGABE aktiviert', + modal: { + title: 'Einstellungen zur Inhaltsmoderation', + provider: { + title: 'Anbieter', + openai: 'OpenAI-Moderation', + openaiTip: { + prefix: 'OpenAI-Moderation erfordert einen konfigurierten OpenAI-API-Schlüssel in den ', + suffix: '.', + }, + keywords: 'Schlüsselwörter', + }, + keywords: { + tip: 'Jeweils eine pro Zeile, getrennt durch Zeilenumbrüche. Bis zu 100 Zeichen pro Zeile.', + placeholder: 'Jeweils eine pro Zeile, getrennt durch Zeilenumbrüche', + line: 'Zeile', + }, + content: { + input: 'INHALT der EINGABE moderieren', + output: 'INHALT der AUSGABE moderieren', + preset: 'Voreingestellte Antworten', + placeholder: 'Inhalt der voreingestellten Antworten hier', + condition: 'Moderation von INHALT der EINGABE und AUSGABE mindestens eine aktiviert', + fromApi: 'Voreingestellte Antworten werden durch API zurückgegeben', + errorMessage: 'Voreingestellte Antworten dürfen nicht leer sein', + supportMarkdown: 'Markdown unterstützt', + }, + openaiNotConfig: { + before: 'OpenAI-Moderation erfordert einen konfigurierten OpenAI-API-Schlüssel in den', + after: '', + }, + }, + }, + }, + automatic: { + title: 'Automatisierte Anwendungsorchestrierung', + description: 'Beschreiben Sie Ihr Szenario, Dify wird eine Anwendung für Sie orchestrieren.', + intendedAudience: 'Wer ist die Zielgruppe?', + intendedAudiencePlaceHolder: 'z.B. Student', + solveProblem: 'Welche Probleme hoffen sie, dass KI für sie lösen kann?', + solveProblemPlaceHolder: 'z.B. Erkenntnisse extrahieren und Informationen aus langen Berichten und Artikeln zusammenfassen', + generate: 'Generieren', + audiencesRequired: 'Zielgruppe erforderlich', + problemRequired: 'Problem erforderlich', + resTitle: 'Wir haben die folgende Anwendung für Sie orchestriert.', + apply: 'Diese Orchestrierung anwenden', + noData: 'Beschreiben Sie Ihren Anwendungsfall links, die Orchestrierungsvorschau wird hier angezeigt.', + loading: 'Orchestrieren der Anwendung für Sie...', + overwriteTitle: 'Bestehende Konfiguration überschreiben?', + overwriteMessage: 'Das Anwenden dieser Orchestrierung wird die bestehende Konfiguration überschreiben.', + }, + resetConfig: { + title: 'Zurücksetzen bestätigen?', + message: + 'Zurücksetzen verwirft Änderungen und stellt die zuletzt veröffentlichte Konfiguration wieder her.', + }, + errorMessage: { + nameOfKeyRequired: 'Name des Schlüssels: {{key}} erforderlich', + valueOfVarRequired: '{{key}} Wert darf nicht leer sein', + queryRequired: 'Anfragetext ist erforderlich.', + waitForResponse: + 'Bitte warten Sie auf die Antwort auf die vorherige Nachricht, um abzuschließen.', + waitForBatchResponse: + 'Bitte warten Sie auf die Antwort auf die Stapelaufgabe, um abzuschließen.', + notSelectModel: 'Bitte wählen Sie ein Modell', + waitForImgUpload: 'Bitte warten Sie, bis das Bild hochgeladen ist', + }, + chatSubTitle: 'Anweisungen', + completionSubTitle: 'Vor-Prompt', + promptTip: + 'Prompts leiten KI-Antworten mit Anweisungen und Einschränkungen. Fügen Sie Variablen wie {{input}} ein. Dieses Prompt wird den Benutzern nicht angezeigt.', + formattingChangedTitle: 'Formatierung geändert', + formattingChangedText: + 'Die Änderung der Formatierung wird den Debug-Bereich zurücksetzen, sind Sie sicher?', + variableTitle: 'Variablen', + variableTip: + 'Benutzer füllen Variablen in einem Formular aus, automatisches Ersetzen von Variablen im Prompt.', + notSetVar: 'Variablen ermöglichen es Benutzern, Aufforderungswörter oder Eröffnungsbemerkungen einzuführen, wenn sie Formulare ausfüllen. Sie könnten versuchen, "{{input}}" im Prompt einzugeben.', + autoAddVar: 'Im Vor-Prompt referenzierte undefinierte Variablen, möchten Sie sie im Benutzereingabeformular hinzufügen?', + variableTable: { + key: 'Variablenschlüssel', + name: 'Name des Benutzereingabefelds', + optional: 'Optional', + type: 'Eingabetyp', + action: 'Aktionen', + typeString: 'String', + typeSelect: 'Auswählen', + }, + varKeyError: { + canNoBeEmpty: 'Variablenschlüssel darf nicht leer sein', + tooLong: 'Variablenschlüssel: {{key}} zu lang. Darf nicht länger als 30 Zeichen sein', + notValid: 'Variablenschlüssel: {{key}} ist ungültig. Darf nur Buchstaben, Zahlen und Unterstriche enthalten', + notStartWithNumber: 'Variablenschlüssel: {{key}} darf nicht mit einer Zahl beginnen', + keyAlreadyExists: 'Variablenschlüssel: :{{key}} existiert bereits', + }, + otherError: { + promptNoBeEmpty: 'Prompt darf nicht leer sein', + historyNoBeEmpty: 'Konversationsverlauf muss im Prompt gesetzt sein', + queryNoBeEmpty: 'Anfrage muss im Prompt gesetzt sein', + }, + variableConig: { + modalTitle: 'Feldeinstellungen', + description: 'Einstellung für Variable {{varName}}', + fieldType: 'Feldtyp', + string: 'Kurztext', + paragraph: 'Absatz', + select: 'Auswählen', + notSet: 'Nicht gesetzt, versuchen Sie, {{input}} im Vor-Prompt zu tippen', + stringTitle: 'Formular-Textfeldoptionen', + maxLength: 'Maximale Länge', + options: 'Optionen', + addOption: 'Option hinzufügen', + apiBasedVar: 'API-basierte Variable', + }, + vision: { + name: 'Vision', + description: 'Vision zu aktivieren ermöglicht es dem Modell, Bilder aufzunehmen und Fragen dazu zu beantworten.', + settings: 'Einstellungen', + visionSettings: { + title: 'Vision-Einstellungen', + resolution: 'Auflösung', + resolutionTooltip: `Niedrige Auflösung ermöglicht es dem Modell, eine Bildversion mit niedriger Auflösung von 512 x 512 zu erhalten und das Bild mit einem Budget von 65 Tokens darzustellen. Dies ermöglicht schnellere Antworten des API und verbraucht weniger Eingabetokens für Anwendungsfälle, die kein hohes Detail benötigen. + \n + Hohe Auflösung ermöglicht zunächst, dass das Modell das Bild mit niedriger Auflösung sieht und dann detaillierte Ausschnitte von Eingabebildern als 512px Quadrate basierend auf der Größe des Eingabebildes erstellt. Jeder der detaillierten Ausschnitte verwendet das doppelte Token-Budget für insgesamt 129 Tokens.`, + high: 'Hoch', + low: 'Niedrig', + uploadMethod: 'Upload-Methode', + both: 'Beides', + localUpload: 'Lokaler Upload', + url: 'URL', + uploadLimit: 'Upload-Limit', + }, + }, + voice: { + name: 'Stimme', + defaultDisplay: 'Standardstimme', + description: 'Text-zu-Sprache-Stimmeinstellungen', + settings: 'Einstellungen', + voiceSettings: { + title: 'Stimmeinstellungen', + language: 'Sprache', + resolutionTooltip: 'Text-zu-Sprache unterstützte Sprache.', + voice: 'Stimme', + }, + }, + openingStatement: { + title: 'Gesprächseröffner', + add: 'Hinzufügen', + writeOpner: 'Eröffnung schreiben', + placeholder: 'Schreiben Sie hier Ihre Eröffnungsnachricht, Sie können Variablen verwenden, versuchen Sie {{Variable}} zu tippen.', + openingQuestion: 'Eröffnungsfragen', + noDataPlaceHolder: + 'Den Dialog mit dem Benutzer zu beginnen, kann helfen, in konversationellen Anwendungen eine engere Verbindung mit ihnen herzustellen.', + varTip: 'Sie können Variablen verwenden, versuchen Sie {{Variable}} zu tippen', + tooShort: 'Für die Erzeugung von Eröffnungsbemerkungen für das Gespräch werden mindestens 20 Wörter des Anfangsprompts benötigt.', + notIncludeKey: 'Das Anfangsprompt enthält nicht die Variable: {{key}}. Bitte fügen Sie sie dem Anfangsprompt hinzu.', + }, + modelConfig: { + model: 'Modell', + setTone: 'Ton der Antworten festlegen', + title: 'Modell und Parameter', + modeType: { + chat: 'Chat', + completion: 'Vollständig', + }, + }, + inputs: { + title: 'Debug und Vorschau', + noPrompt: 'Versuchen Sie, etwas Prompt im Vor-Prompt-Eingabefeld zu schreiben', + userInputField: 'Benutzereingabefeld', + noVar: 'Füllen Sie den Wert der Variable aus, der bei jedem Start einer neuen Sitzung automatisch im Prompt ersetzt wird.', + chatVarTip: + 'Füllen Sie den Wert der Variable aus, der bei jedem Start einer neuen Sitzung automatisch im Prompt ersetzt wird', + completionVarTip: + 'Füllen Sie den Wert der Variable aus, der bei jeder Einreichung einer Frage automatisch in den Prompt-Wörtern ersetzt wird.', + previewTitle: 'Prompt-Vorschau', + queryTitle: 'Anfrageinhalt', + queryPlaceholder: 'Bitte geben Sie den Anfragetext ein.', + run: 'AUSFÜHREN', + }, + result: 'Ausgabetext', + datasetConfig: { + settingTitle: 'Abfragen-Einstellungen', + retrieveOneWay: { + title: 'N-zu-1-Abfrage', + description: 'Basierend auf Benutzerabsicht und Beschreibungen des Wissens wählt der Agent autonom das beste Wissen für die Abfrage aus. Am besten für Anwendungen mit deutlichen, begrenzten Wissensgebieten.', + }, + retrieveMultiWay: { + title: 'Mehrwegabfrage', + description: 'Basierend auf Benutzerabsicht werden Abfragen über alle Wissensbereiche hinweg durchgeführt, relevante Texte aus Mehrfachquellen abgerufen und die besten Ergebnisse, die der Benutzerabfrage entsprechen, nach einer Neubewertung ausgewählt. Konfiguration des Rerank-Modell-APIs erforderlich.', + }, + rerankModelRequired: 'Rerank-Modell erforderlich', + params: 'Parameter', + top_k: 'Top K', + top_kTip: 'Wird verwendet, um Abschnitte zu filtern, die am ähnlichsten zu Benutzerfragen sind. Das System wird auch dynamisch den Wert von Top K anpassen, entsprechend max_tokens des ausgewählten Modells.', + score_threshold: 'Schwellenwert', + score_thresholdTip: 'Wird verwendet, um den Ähnlichkeitsschwellenwert für die Abschnittsfilterung einzustellen.', + retrieveChangeTip: 'Das Ändern des Indexmodus und des Abfragemodus kann Anwendungen beeinflussen, die mit diesem Wissen verbunden sind.', + }, + debugAsSingleModel: 'Als Einzelmodell debuggen', + debugAsMultipleModel: 'Als Mehrfachmodelle debuggen', + duplicateModel: 'Duplizieren', + publishAs: 'Veröffentlichen als', + assistantType: { + name: 'Assistententyp', + chatAssistant: { + name: 'Basisassistent', + description: 'Erstellen eines chatbasierten Assistenten mit einem Großsprachmodell', + }, + agentAssistant: { + name: 'Agentenassistent', + description: 'Erstellen eines intelligenten Agenten, der autonom Werkzeuge wählen kann, um Aufgaben zu erfüllen', + }, + }, + agent: { + agentMode: 'Agentenmodus', + agentModeDes: 'Den Typ des Inferenzmodus für den Agenten festlegen', + agentModeType: { + ReACT: 'ReAct', + functionCall: 'Funktionsaufruf', + }, + setting: { + name: 'Agenten-Einstellungen', + description: 'Agentenassistenten-Einstellungen ermöglichen die Festlegung des Agentenmodus und erweiterte Funktionen wie integrierte Prompts, nur verfügbar im Agententyp.', + maximumIterations: { + name: 'Maximale Iterationen', + description: 'Begrenzt die Anzahl der Iterationen, die ein Agentenassistent ausführen kann', + }, + }, + buildInPrompt: 'Eingebautes Prompt', + firstPrompt: 'Erstes Prompt', + nextIteration: 'Nächste Iteration', + promptPlaceholder: 'Schreiben Sie hier Ihr Prompt', + tools: { + name: 'Werkzeuge', + description: 'Die Verwendung von Werkzeugen kann die Fähigkeiten von LLM erweitern, z.B. das Internet durchsuchen oder wissenschaftliche Berechnungen durchführen', + enabled: 'Aktiviert', + }, + }, +} + +export default translation diff --git a/web/i18n/de-DE/app-log.ts b/web/i18n/de-DE/app-log.ts new file mode 100644 index 00000000000000..164665887f0141 --- /dev/null +++ b/web/i18n/de-DE/app-log.ts @@ -0,0 +1,69 @@ +const translation = { + title: 'Protokolle', + description: 'Die Protokolle zeichnen den Betriebsstatus der Anwendung auf, einschließlich Benutzereingaben und KI-Antworten.', + dateTimeFormat: 'MM/DD/YYYY hh:mm A', + table: { + header: { + time: 'Zeit', + endUser: 'Endbenutzer', + input: 'Eingabe', + output: 'Ausgabe', + summary: 'Titel', + messageCount: 'Nachrichtenzahl', + userRate: 'Benutzerbewertung', + adminRate: 'Op. Bewertung', + }, + pagination: { + previous: 'Vorherige', + next: 'Nächste', + }, + empty: { + noChat: 'Noch keine Konversation', + noOutput: 'Keine Ausgabe', + element: { + title: 'Ist da jemand?', + content: 'Beobachten und annotieren Sie hier die Interaktionen zwischen Endbenutzern und KI-Anwendungen, um die Genauigkeit der KI kontinuierlich zu verbessern. Sie können versuchen, die Web-App selbst zu teilen oder zu testen, und dann zu dieser Seite zurückkehren.', + }, + }, + }, + detail: { + time: 'Zeit', + conversationId: 'Konversations-ID', + promptTemplate: 'Prompt-Vorlage', + promptTemplateBeforeChat: 'Prompt-Vorlage vor dem Chat · Als Systemnachricht', + annotationTip: 'Verbesserungen markiert von {{user}}', + timeConsuming: '', + second: 's', + tokenCost: 'Verbrauchte Token', + loading: 'lädt', + operation: { + like: 'gefällt mir', + dislike: 'gefällt mir nicht', + addAnnotation: 'Verbesserung hinzufügen', + editAnnotation: 'Verbesserung bearbeiten', + annotationPlaceholder: 'Geben Sie die erwartete Antwort ein, die Sie möchten, dass die KI antwortet, welche für die Feinabstimmung des Modells und die kontinuierliche Verbesserung der Qualität der Textgenerierung in Zukunft verwendet werden kann.', + }, + variables: 'Variablen', + uploadImages: 'Hochgeladene Bilder', + }, + filter: { + period: { + today: 'Heute', + last7days: 'Letzte 7 Tage', + last4weeks: 'Letzte 4 Wochen', + last3months: 'Letzte 3 Monate', + last12months: 'Letzte 12 Monate', + monthToDate: 'Monat bis heute', + quarterToDate: 'Quartal bis heute', + yearToDate: 'Jahr bis heute', + allTime: 'Gesamte Zeit', + }, + annotation: { + all: 'Alle', + annotated: 'Markierte Verbesserungen ({{count}} Elemente)', + not_annotated: 'Nicht annotiert', + }, + }, +} + +export default translation diff --git a/web/i18n/de-DE/app-overview.ts b/web/i18n/de-DE/app-overview.ts new file mode 100644 index 00000000000000..8f459ee1527ac3 --- /dev/null +++ b/web/i18n/de-DE/app-overview.ts @@ -0,0 +1,139 @@ +const translation = { + welcome: { + firstStepTip: 'Um zu beginnen,', + enterKeyTip: 'geben Sie unten Ihren OpenAI-API-Schlüssel ein', + getKeyTip: 'Holen Sie sich Ihren API-Schlüssel vom OpenAI-Dashboard', + placeholder: 'Ihr OpenAI-API-Schlüssel (z.B. sk-xxxx)', + }, + apiKeyInfo: { + cloud: { + trial: { + title: 'Sie nutzen das Testkontingent von {{providerName}}.', + description: 'Das Testkontingent wird für Ihre Testnutzung bereitgestellt. Bevor das Testkontingent aufgebraucht ist, richten Sie bitte Ihren eigenen Modellanbieter ein oder kaufen zusätzliches Kontingent.', + }, + exhausted: { + title: 'Ihr Testkontingent wurde aufgebraucht, bitte richten Sie Ihren APIKey ein.', + description: 'Ihr Testkontingent ist aufgebraucht. Bitte richten Sie Ihren eigenen Modellanbieter ein oder kaufen zusätzliches Kontingent.', + }, + }, + selfHost: { + title: { + row1: 'Um zu beginnen,', + row2: 'richten Sie zuerst Ihren Modellanbieter ein.', + }, + }, + callTimes: 'Aufrufzeiten', + usedToken: 'Verwendetes Token', + setAPIBtn: 'Zum Einrichten des Modellanbieters gehen', + tryCloud: 'Oder probieren Sie die Cloud-Version von Dify mit kostenlosem Angebot aus', + }, + overview: { + title: 'Übersicht', + appInfo: { + explanation: 'Einsatzbereite AI-WebApp', + accessibleAddress: 'Öffentliche URL', + preview: 'Vorschau', + regenerate: 'Regenerieren', + preUseReminder: 'Bitte aktivieren Sie WebApp, bevor Sie fortfahren.', + settings: { + entry: 'Einstellungen', + title: 'WebApp-Einstellungen', + webName: 'WebApp-Name', + webDesc: 'WebApp-Beschreibung', + webDescTip: 'Dieser Text wird auf der Clientseite angezeigt und bietet grundlegende Anleitungen zur Verwendung der Anwendung', + webDescPlaceholder: 'Geben Sie die Beschreibung der WebApp ein', + language: 'Sprache', + more: { + entry: 'Mehr Einstellungen anzeigen', + copyright: 'Urheberrecht', + copyRightPlaceholder: 'Geben Sie den Namen des Autors oder der Organisation ein', + privacyPolicy: 'Datenschutzrichtlinie', + privacyPolicyPlaceholder: 'Geben Sie den Link zur Datenschutzrichtlinie ein', + privacyPolicyTip: 'Hilft Besuchern zu verstehen, welche Daten die Anwendung sammelt, siehe Difys Datenschutzrichtlinie.', + }, + }, + embedded: { + entry: 'Eingebettet', + title: 'Einbetten auf der Website', + explanation: 'Wählen Sie die Art und Weise, wie die Chat-App auf Ihrer Website eingebettet wird', + iframe: 'Um die Chat-App an einer beliebigen Stelle auf Ihrer Website hinzuzufügen, fügen Sie diesen iframe in Ihren HTML-Code ein.', + scripts: 'Um eine Chat-App unten rechts auf Ihrer Website hinzuzufügen, fügen Sie diesen Code in Ihren HTML-Code ein.', + chromePlugin: 'Installieren Sie die Dify Chatbot Chrome-Erweiterung', + copied: 'Kopiert', + copy: 'Kopieren', + }, + qrcode: { + title: 'QR-Code zum Teilen', + scan: 'Teilen Sie die Anwendung per Scan', + download: 'QR-Code herunterladen', + }, + customize: { + way: 'Art', + entry: 'Anpassen', + title: 'AI-WebApp anpassen', + explanation: 'Sie können das Frontend der Web-App an Ihre Szenarien und Stilbedürfnisse anpassen.', + way1: { + name: 'Forken Sie den Client-Code, ändern Sie ihn und deployen Sie ihn auf Vercel (empfohlen)', + step1: 'Forken Sie den Client-Code und ändern Sie ihn', + step1Tip: 'Klicken Sie hier, um den Quellcode in Ihr GitHub-Konto zu forken und den Code zu ändern', + step1Operation: 'Dify-WebClient', + step2: 'Deployen auf Vercel', + step2Tip: 'Klicken Sie hier, um das Repository in Vercel zu importieren und zu deployen', + step2Operation: 'Repository importieren', + step3: 'Umgebungsvariablen konfigurieren', + step3Tip: 'Fügen Sie die folgenden Umgebungsvariablen in Vercel hinzu', + }, + way2: { + name: 'Clientseitigen Code schreiben, um die API aufzurufen, und ihn auf einem Server deployen', + operation: 'Dokumentation', + }, + }, + }, + apiInfo: { + title: 'Backend-Service-API', + explanation: 'Einfach in Ihre Anwendung integrierbar', + accessibleAddress: 'Service-API-Endpunkt', + doc: 'API-Referenz', + }, + status: { + running: 'In Betrieb', + disable: 'Deaktivieren', + }, + }, + analysis: { + title: 'Analyse', + ms: 'ms', + tokenPS: 'Token/s', + totalMessages: { + title: 'Gesamtnachrichten', + explanation: 'Tägliche AI-Interaktionszählung; Prompt-Engineering/Debugging ausgenommen.', + }, + activeUsers: { + title: 'Aktive Benutzer', + explanation: 'Einzigartige Benutzer, die mit AI Q&A führen; Prompt-Engineering/Debugging ausgenommen.', + }, + tokenUsage: { + title: 'Token-Verbrauch', + explanation: 'Spiegelt den täglichen Token-Verbrauch des Sprachmodells für die Anwendung wider, nützlich für Kostenkontrollzwecke.', + consumed: 'Verbraucht', + }, + avgSessionInteractions: { + title: 'Durchschn. Sitzungsinteraktionen', + explanation: 'Fortlaufende Benutzer-KI-Kommunikationszählung; für konversationsbasierte Apps.', + }, + userSatisfactionRate: { + title: 'Benutzerzufriedenheitsrate', + explanation: 'Die Anzahl der Likes pro 1.000 Nachrichten. Dies zeigt den Anteil der Antworten an, mit denen die Benutzer sehr zufrieden sind.', + }, + avgResponseTime: { + title: 'Durchschn. Antwortzeit', + explanation: 'Zeit (ms) für die AI, um zu verarbeiten/antworten; für textbasierte Apps.', + }, + tps: { + title: 'Token-Ausgabegeschwindigkeit', + explanation: 'Misst die Leistung des LLM. Zählt die Token-Ausgabegeschwindigkeit des LLM vom Beginn der Anfrage bis zum Abschluss der Ausgabe.', + }, + }, +} + +export default translation diff --git a/web/i18n/de-DE/app.ts b/web/i18n/de-DE/app.ts new file mode 100644 index 00000000000000..81d12cb04f8516 --- /dev/null +++ b/web/i18n/de-DE/app.ts @@ -0,0 +1,54 @@ +const translation = { + createApp: 'Neue App erstellen', + types: { + all: 'Alle', + assistant: 'Assistent', + completion: 'Vervollständigung', + }, + modes: { + completion: 'Textgenerator', + chat: 'Basisassistent', + }, + createFromConfigFile: 'App aus Konfigurationsdatei erstellen', + deleteAppConfirmTitle: 'Diese App löschen?', + deleteAppConfirmContent: + 'Das Löschen der App ist unwiderruflich. Nutzer werden keinen Zugang mehr zu Ihrer App haben, und alle Prompt-Konfigurationen und Logs werden dauerhaft gelöscht.', + appDeleted: 'App gelöscht', + appDeleteFailed: 'Löschen der App fehlgeschlagen', + join: 'Treten Sie der Gemeinschaft bei', + communityIntro: + 'Diskutieren Sie mit Teammitgliedern, Mitwirkenden und Entwicklern auf verschiedenen Kanälen.', + roadmap: 'Sehen Sie unseren Fahrplan', + appNamePlaceholder: 'Bitte geben Sie den Namen der App ein', + newApp: { + startToCreate: 'Lassen Sie uns mit Ihrer neuen App beginnen', + captionName: 'App-Symbol & Name', + captionAppType: 'Welchen Typ von App möchten Sie erstellen?', + previewDemo: 'Vorschau-Demo', + chatApp: 'Assistent', + chatAppIntro: + 'Ich möchte eine Chat-basierte Anwendung bauen. Diese App verwendet ein Frage-Antwort-Format und ermöglicht mehrere Runden kontinuierlicher Konversation.', + agentAssistant: 'Neuer Agentenassistent', + completeApp: 'Textgenerator', + completeAppIntro: + 'Ich möchte eine Anwendung erstellen, die hochwertigen Text basierend auf Aufforderungen generiert, wie z.B. das Erstellen von Artikeln, Zusammenfassungen, Übersetzungen und mehr.', + showTemplates: 'Ich möchte aus einer Vorlage wählen', + hideTemplates: 'Zurück zur Modusauswahl', + Create: 'Erstellen', + Cancel: 'Abbrechen', + nameNotEmpty: 'Name darf nicht leer sein', + appTemplateNotSelected: 'Bitte wählen Sie eine Vorlage', + appTypeRequired: 'Bitte wählen Sie einen App-Typ', + appCreated: 'App erstellt', + appCreateFailed: 'Erstellen der App fehlgeschlagen', + }, + editApp: { + startToEdit: 'App bearbeiten', + }, + emoji: { + ok: 'OK', + cancel: 'Abbrechen', + }, +} + +export default translation diff --git a/web/i18n/de-DE/billing.ts b/web/i18n/de-DE/billing.ts new file mode 100644 index 00000000000000..ccb35675c87acc --- /dev/null +++ b/web/i18n/de-DE/billing.ts @@ -0,0 +1,115 @@ +const translation = { + currentPlan: 'Aktueller Tarif', + upgradeBtn: { + plain: 'Tarif Upgraden', + encourage: 'Jetzt Upgraden', + encourageShort: 'Upgraden', + }, + viewBilling: 'Abrechnung und Abonnements verwalten', + buyPermissionDeniedTip: 'Bitte kontaktieren Sie Ihren Unternehmensadministrator, um zu abonnieren', + plansCommon: { + title: 'Wählen Sie einen Tarif, der zu Ihnen passt', + yearlyTip: 'Erhalten Sie 2 Monate kostenlos durch jährliches Abonnieren!', + mostPopular: 'Am beliebtesten', + planRange: { + monthly: 'Monatlich', + yearly: 'Jährlich', + }, + month: 'Monat', + year: 'Jahr', + save: 'Sparen ', + free: 'Kostenlos', + currentPlan: 'Aktueller Tarif', + contractSales: 'Vertrieb kontaktieren', + contractOwner: 'Teammanager kontaktieren', + startForFree: 'Kostenlos starten', + getStartedWith: 'Beginnen Sie mit ', + contactSales: 'Vertrieb kontaktieren', + talkToSales: 'Mit dem Vertrieb sprechen', + modelProviders: 'Modellanbieter', + teamMembers: 'Teammitglieder', + buildApps: 'Apps bauen', + vectorSpace: 'Vektorraum', + vectorSpaceBillingTooltip: 'Jedes 1MB kann ungefähr 1,2 Millionen Zeichen an vektorisierten Daten speichern (geschätzt mit OpenAI Embeddings, variiert je nach Modell).', + vectorSpaceTooltip: 'Vektorraum ist das Langzeitspeichersystem, das erforderlich ist, damit LLMs Ihre Daten verstehen können.', + documentsUploadQuota: 'Dokumenten-Upload-Kontingent', + documentProcessingPriority: 'Priorität der Dokumentenverarbeitung', + documentProcessingPriorityTip: 'Für eine höhere Dokumentenverarbeitungspriorität, bitte Ihren Tarif upgraden.', + documentProcessingPriorityUpgrade: 'Mehr Daten mit höherer Genauigkeit bei schnelleren Geschwindigkeiten verarbeiten.', + priority: { + 'standard': 'Standard', + 'priority': 'Priorität', + 'top-priority': 'Höchste Priorität', + }, + logsHistory: 'Protokollverlauf', + customTools: 'Benutzerdefinierte Werkzeuge', + unavailable: 'Nicht verfügbar', + days: 'Tage', + unlimited: 'Unbegrenzt', + support: 'Support', + supportItems: { + communityForums: 'Community-Foren', + emailSupport: 'E-Mail-Support', + priorityEmail: 'Priorisierter E-Mail- und Chat-Support', + logoChange: 'Logo-Änderung', + SSOAuthentication: 'SSO-Authentifizierung', + personalizedSupport: 'Persönlicher Support', + dedicatedAPISupport: 'Dedizierter API-Support', + customIntegration: 'Benutzerdefinierte Integration und Support', + ragAPIRequest: 'RAG-API-Anfragen', + bulkUpload: 'Massenupload von Dokumenten', + agentMode: 'Agentenmodus', + workflow: 'Workflow', + }, + comingSoon: 'Demnächst', + member: 'Mitglied', + memberAfter: 'Mitglied', + messageRequest: { + title: 'Nachrichtenguthaben', + tooltip: 'Nachrichtenaufrufkontingente für verschiedene Tarife unter Verwendung von OpenAI-Modellen (außer gpt4).Nachrichten über dem Limit verwenden Ihren OpenAI-API-Schlüssel.', + }, + annotatedResponse: { + title: 'Kontingentgrenzen für Annotationen', + tooltip: 'Manuelle Bearbeitung und Annotation von Antworten bieten anpassbare, hochwertige Frage-Antwort-Fähigkeiten für Apps. (Nur anwendbar in Chat-Apps)', + }, + ragAPIRequestTooltip: 'Bezieht sich auf die Anzahl der API-Aufrufe, die nur die Wissensdatenbankverarbeitungsfähigkeiten von Dify aufrufen.', + receiptInfo: 'Nur der Teaminhaber und der Teamadministrator können abonnieren und Abrechnungsinformationen einsehen', + }, + plans: { + sandbox: { + name: 'Sandbox', + description: '200 mal GPT kostenlos testen', + includesTitle: 'Beinhaltet:', + }, + professional: { + name: 'Professionell', + description: 'Für Einzelpersonen und kleine Teams, um mehr Leistung erschwinglich freizuschalten.', + includesTitle: 'Alles im kostenlosen Tarif, plus:', + }, + team: { + name: 'Team', + description: 'Zusammenarbeiten ohne Grenzen und Top-Leistung genießen.', + includesTitle: 'Alles im Professionell-Tarif, plus:', + }, + enterprise: { + name: 'Unternehmen', + description: 'Erhalten Sie volle Fähigkeiten und Unterstützung für großangelegte, missionskritische Systeme.', + includesTitle: 'Alles im Team-Tarif, plus:', + }, + }, + vectorSpace: { + fullTip: 'Vektorraum ist voll.', + fullSolution: 'Upgraden Sie Ihren Tarif, um mehr Speicherplatz zu erhalten.', + }, + apps: { + fullTipLine1: 'Upgraden Sie Ihren Tarif, um', + fullTipLine2: 'mehr Apps zu bauen.', + }, + annotatedResponse: { + fullTipLine1: 'Upgraden Sie Ihren Tarif, um', + fullTipLine2: 'mehr Konversationen zu annotieren.', + quotaTitle: 'Kontingent für Annotation-Antworten', + }, +} + +export default translation diff --git a/web/i18n/de-DE/common.ts b/web/i18n/de-DE/common.ts new file mode 100644 index 00000000000000..701b0d643261fb --- /dev/null +++ b/web/i18n/de-DE/common.ts @@ -0,0 +1,505 @@ +const translation = { + api: { + success: 'Erfolg', + actionSuccess: 'Aktion erfolgreich', + saved: 'Gespeichert', + create: 'Erstellt', + remove: 'Entfernt', + }, + operation: { + create: 'Erstellen', + confirm: 'Bestätigen', + cancel: 'Abbrechen', + clear: 'Leeren', + save: 'Speichern', + edit: 'Bearbeiten', + add: 'Hinzufügen', + added: 'Hinzugefügt', + refresh: 'Neustart', + reset: 'Zurücksetzen', + search: 'Suchen', + change: 'Ändern', + remove: 'Entfernen', + send: 'Senden', + copy: 'Kopieren', + lineBreak: 'Zeilenumbruch', + sure: 'Ich bin sicher', + download: 'Herunterladen', + delete: 'Löschen', + settings: 'Einstellungen', + setup: 'Einrichten', + getForFree: 'Kostenlos erhalten', + reload: 'Neu laden', + ok: 'OK', + log: 'Protokoll', + learnMore: 'Mehr erfahren', + params: 'Parameter', + }, + placeholder: { + input: 'Bitte eingeben', + select: 'Bitte auswählen', + }, + voice: { + language: { + zhHans: 'Chinesisch', + enUS: 'Englisch', + deDE: 'Deutsch', + frFR: 'Französisch', + esES: 'Spanisch', + itIT: 'Italienisch', + thTH: 'Thailändisch', + idID: 'Indonesisch', + jaJP: 'Japanisch', + koKR: 'Koreanisch', + ptBR: 'Portugiesisch', + ruRU: 'Russisch', + ukUA: 'Ukrainisch', + }, + }, + unit: { + char: 'Zeichen', + }, + actionMsg: { + noModification: 'Im Moment keine Änderungen.', + modifiedSuccessfully: 'Erfolgreich geändert', + modifiedUnsuccessfully: 'Änderung nicht erfolgreich', + copySuccessfully: 'Erfolgreich kopiert', + paySucceeded: 'Zahlung erfolgreich', + payCancelled: 'Zahlung abgebrochen', + generatedSuccessfully: 'Erfolgreich generiert', + generatedUnsuccessfully: 'Generierung nicht erfolgreich', + }, + model: { + params: { + temperature: 'Temperatur', + temperatureTip: + 'Kontrolliert Zufälligkeit: Eine niedrigere Temperatur führt zu weniger zufälligen Ergebnissen. Nähert sich die Temperatur null, wird das Modell deterministisch und repetitiv.', + top_p: 'Top P', + top_pTip: + 'Kontrolliert Diversität über Nukleus-Sampling: 0,5 bedeutet, dass die Hälfte aller wahrscheinlichkeitsgewichteten Optionen berücksichtigt wird.', + presence_penalty: 'Präsenz-Strafe', + presence_penaltyTip: + 'Wie stark neue Tokens basierend darauf bestraft werden, ob sie bereits im Text erschienen sind.\nErhöht die Wahrscheinlichkeit des Modells, über neue Themen zu sprechen.', + frequency_penalty: 'Häufigkeitsstrafe', + frequency_penaltyTip: + 'Wie stark neue Tokens basierend auf ihrer bisherigen Häufigkeit im Text bestraft werden.\nVerringert die Wahrscheinlichkeit des Modells, denselben Satz wortwörtlich zu wiederholen.', + max_tokens: 'Maximale Token', + max_tokensTip: + 'Begrenzt die maximale Länge der Antwort in Token. \nGrößere Werte können den Platz für Eingabeaufforderungen, Chat-Logs und Wissen begrenzen. \nEs wird empfohlen, dies unter zwei Dritteln zu setzen\ngpt-4-1106-Vorschau, gpt-4-vision-Vorschau maximale Token (Eingabe 128k Ausgabe 4k)', + maxTokenSettingTip: 'Ihre Einstellung für maximale Token ist hoch, was den Platz für Eingabeaufforderungen, Abfragen und Daten potenziell begrenzen kann. Erwägen Sie, dies unter 2/3 zu setzen.', + setToCurrentModelMaxTokenTip: 'Maximale Token auf 80 % der maximalen Token des aktuellen Modells {{maxToken}} aktualisiert.', + stop_sequences: 'Stop-Sequenzen', + stop_sequencesTip: 'Bis zu vier Sequenzen, bei denen die API die Generierung weiterer Token stoppt. Der zurückgegebene Text wird die Stop-Sequenz nicht enthalten.', + stop_sequencesPlaceholder: 'Sequenz eingeben und Tab drücken', + }, + tone: { + Creative: 'Kreativ', + Balanced: 'Ausgewogen', + Precise: 'Präzise', + Custom: 'Benutzerdefiniert', + }, + addMoreModel: 'Gehen Sie zu den Einstellungen, um mehr Modelle hinzuzufügen', + }, + menus: { + status: 'Beta', + explore: 'Erkunden', + apps: 'Studio', + plugins: 'Plugins', + pluginsTips: 'Integrieren Sie Plugins von Drittanbietern oder erstellen Sie ChatGPT-kompatible KI-Plugins.', + datasets: 'Wissen', + datasetsTips: 'BALD VERFÜGBAR: Importieren Sie Ihre eigenen Textdaten oder schreiben Sie Daten in Echtzeit über Webhook, um den LLM-Kontext zu verbessern.', + newApp: 'Neue App', + newDataset: 'Wissen erstellen', + tools: 'Werkzeuge', + }, + userProfile: { + settings: 'Einstellungen', + workspace: 'Arbeitsbereich', + createWorkspace: 'Arbeitsbereich erstellen', + helpCenter: 'Hilfe', + roadmapAndFeedback: 'Feedback', + community: 'Gemeinschaft', + about: 'Über', + logout: 'Abmelden', + }, + settings: { + accountGroup: 'KONTO', + workplaceGroup: 'ARBEITSBEREICH', + account: 'Mein Konto', + members: 'Mitglieder', + billing: 'Abrechnung', + integrations: 'Integrationen', + language: 'Sprache', + provider: 'Modellanbieter', + dataSource: 'Datenquelle', + plugin: 'Plugins', + apiBasedExtension: 'API-Erweiterung', + }, + account: { + avatar: 'Avatar', + name: 'Name', + email: 'E-Mail', + password: 'Passwort', + passwordTip: 'Sie können ein dauerhaftes Passwort festlegen, wenn Sie keine temporären Anmeldecodes verwenden möchten', + setPassword: 'Ein Passwort festlegen', + resetPassword: 'Passwort zurücksetzen', + currentPassword: 'Aktuelles Passwort', + newPassword: 'Neues Passwort', + confirmPassword: 'Passwort bestätigen', + notEqual: 'Die Passwörter sind unterschiedlich.', + langGeniusAccount: 'Dify-Konto', + langGeniusAccountTip: 'Ihr Dify-Konto und zugehörige Benutzerdaten.', + editName: 'Namen bearbeiten', + showAppLength: '{{length}} Apps anzeigen', + }, + members: { + team: 'Team', + invite: 'Hinzufügen', + name: 'NAME', + lastActive: 'ZULETZT AKTIV', + role: 'ROLLEN', + pending: 'Ausstehend...', + owner: 'Eigentümer', + admin: 'Admin', + adminTip: 'Kann Apps erstellen & Team-Einstellungen verwalten', + normal: 'Normal', + normalTip: 'Kann nur Apps verwenden, kann keine Apps erstellen', + inviteTeamMember: 'Teammitglied hinzufügen', + inviteTeamMemberTip: 'Sie können direkt nach der Anmeldung auf Ihre Teamdaten zugreifen.', + email: 'E-Mail', + emailInvalid: 'Ungültiges E-Mail-Format', + emailPlaceholder: 'Bitte E-Mails eingeben', + sendInvite: 'Einladung senden', + invitedAsRole: 'Eingeladen als {{role}}-Benutzer', + invitationSent: 'Einladung gesendet', + invitationSentTip: 'Einladung gesendet, und sie können sich bei Dify anmelden, um auf Ihre Teamdaten zuzugreifen.', + invitationLink: 'Einladungslink', + failedinvitationEmails: 'Die folgenden Benutzer wurden nicht erfolgreich eingeladen', + ok: 'OK', + removeFromTeam: 'Vom Team entfernen', + removeFromTeamTip: 'Wird den Teamzugang entfernen', + setAdmin: 'Als Administrator einstellen', + setMember: 'Als normales Mitglied einstellen', + disinvite: 'Einladung widerrufen', + deleteMember: 'Mitglied löschen', + you: '(Du)', + }, + integrations: { + connected: 'Verbunden', + google: 'Google', + googleAccount: 'Mit Google-Konto anmelden', + github: 'GitHub', + githubAccount: 'Mit GitHub-Konto anmelden', + connect: 'Verbinden', + }, + language: { + displayLanguage: 'Anzeigesprache', + timezone: 'Zeitzone', + }, + provider: { + apiKey: 'API-Schlüssel', + enterYourKey: 'Geben Sie hier Ihren API-Schlüssel ein', + invalidKey: 'Ungültiger OpenAI API-Schlüssel', + validatedError: 'Validierung fehlgeschlagen: ', + validating: 'Schlüssel wird validiert...', + saveFailed: 'API-Schlüssel speichern fehlgeschlagen', + apiKeyExceedBill: 'Dieser API-SCHLÜSSEL verfügt über kein verfügbares Kontingent, bitte lesen', + addKey: 'Schlüssel hinzufügen', + comingSoon: 'Demnächst verfügbar', + editKey: 'Bearbeiten', + invalidApiKey: 'Ungültiger API-Schlüssel', + azure: { + apiBase: 'API-Basis', + apiBasePlaceholder: 'Die API-Basis-URL Ihres Azure OpenAI-Endpunkts.', + apiKey: 'API-Schlüssel', + apiKeyPlaceholder: 'Geben Sie hier Ihren API-Schlüssel ein', + helpTip: 'Azure OpenAI Service kennenlernen', + }, + openaiHosted: { + openaiHosted: 'Gehostetes OpenAI', + onTrial: 'IN PROBE', + exhausted: 'KONTINGENT ERSCHÖPFT', + desc: 'Der OpenAI-Hostingdienst von Dify ermöglicht es Ihnen, Modelle wie GPT-3.5 zu verwenden. Bevor Ihr Probe-Kontingent aufgebraucht ist, müssen Sie andere Modellanbieter einrichten.', + callTimes: 'Anrufzeiten', + usedUp: 'Probe-Kontingent aufgebraucht. Eigenen Modellanbieter hinzufügen.', + useYourModel: 'Derzeit wird eigener Modellanbieter verwendet.', + close: 'Schließen', + }, + anthropicHosted: { + anthropicHosted: 'Anthropic Claude', + onTrial: 'IN PROBE', + exhausted: 'KONTINGENT ERSCHÖPFT', + desc: 'Leistungsstarkes Modell, das bei einer Vielzahl von Aufgaben von anspruchsvollen Dialogen und kreativer Inhalteerstellung bis hin zu detaillierten Anweisungen hervorragend ist.', + callTimes: 'Anrufzeiten', + usedUp: 'Testkontingent aufgebraucht. Eigenen Modellanbieter hinzufügen.', + useYourModel: 'Derzeit wird eigener Modellanbieter verwendet.', + close: 'Schließen', + }, + anthropic: { + using: 'Die Einbettungsfähigkeit verwendet', + enableTip: 'Um das Anthropische Modell zu aktivieren, müssen Sie sich zuerst mit OpenAI oder Azure OpenAI Service verbinden.', + notEnabled: 'Nicht aktiviert', + keyFrom: 'Holen Sie Ihren API-Schlüssel von Anthropic', + }, + encrypted: { + front: 'Ihr API-SCHLÜSSEL wird verschlüsselt und mit', + back: ' Technologie gespeichert.', + }, + }, + modelProvider: { + notConfigured: 'Das Systemmodell wurde noch nicht vollständig konfiguriert, und einige Funktionen sind möglicherweise nicht verfügbar.', + systemModelSettings: 'Systemmodell-Einstellungen', + systemModelSettingsLink: 'Warum ist es notwendig, ein Systemmodell einzurichten?', + selectModel: 'Wählen Sie Ihr Modell', + setupModelFirst: 'Bitte richten Sie zuerst Ihr Modell ein', + systemReasoningModel: { + key: 'System-Reasoning-Modell', + tip: 'Legen Sie das Standardinferenzmodell fest, das für die Erstellung von Anwendungen verwendet wird, sowie Funktionen wie die Generierung von Dialognamen und die Vorschlagserstellung für die nächste Frage, die auch das Standardinferenzmodell verwenden.', + }, + embeddingModel: { + key: 'Einbettungsmodell', + tip: 'Legen Sie das Standardmodell für die Dokumenteneinbettungsverarbeitung des Wissens fest, sowohl die Wiederherstellung als auch der Import des Wissens verwenden dieses Einbettungsmodell für die Vektorisierungsverarbeitung. Ein Wechsel wird dazu führen, dass die Vektordimension zwischen dem importierten Wissen und der Frage inkonsistent ist, was zu einem Wiederherstellungsfehler führt. Um einen Wiederherstellungsfehler zu vermeiden, wechseln Sie dieses Modell bitte nicht willkürlich.', + required: 'Einbettungsmodell ist erforderlich', + }, + speechToTextModel: { + key: 'Sprach-zu-Text-Modell', + tip: 'Legen Sie das Standardmodell für die Spracheingabe in Konversationen fest.', + }, + ttsModel: { + key: 'Text-zu-Sprache-Modell', + tip: 'Legen Sie das Standardmodell für die Text-zu-Sprache-Eingabe in Konversationen fest.', + }, + rerankModel: { + key: 'Rerank-Modell', + tip: 'Rerank-Modell wird die Kandidatendokumentenliste basierend auf der semantischen Übereinstimmung mit der Benutzeranfrage neu ordnen und die Ergebnisse der semantischen Rangordnung verbessern', + }, + quota: 'Kontingent', + searchModel: 'Suchmodell', + noModelFound: 'Kein Modell für {{model}} gefunden', + models: 'Modelle', + showMoreModelProvider: 'Zeige mehr Modellanbieter', + selector: { + tip: 'Dieses Modell wurde entfernt. Bitte fügen Sie ein Modell hinzu oder wählen Sie ein anderes Modell.', + emptyTip: 'Keine verfügbaren Modelle', + emptySetting: 'Bitte gehen Sie zu den Einstellungen, um zu konfigurieren', + rerankTip: 'Bitte richten Sie das Rerank-Modell ein', + }, + card: { + quota: 'KONTINGENT', + onTrial: 'In Probe', + paid: 'Bezahlt', + quotaExhausted: 'Kontingent erschöpft', + callTimes: 'Anrufzeiten', + tokens: 'Token', + buyQuota: 'Kontingent kaufen', + priorityUse: 'Priorisierte Nutzung', + removeKey: 'API-Schlüssel entfernen', + tip: 'Der bezahlten Kontingent wird Vorrang gegeben. Das Testkontingent wird nach dem Verbrauch des bezahlten Kontingents verwendet.', + }, + item: { + deleteDesc: '{{modelName}} werden als System-Reasoning-Modelle verwendet. Einige Funktionen stehen nach der Entfernung nicht zur Verfügung. Bitte bestätigen.', + freeQuota: 'KOSTENLOSES KONTINGENT', + }, + addApiKey: 'Fügen Sie Ihren API-Schlüssel hinzu', + invalidApiKey: 'Ungültiger API-Schlüssel', + encrypted: { + front: 'Ihr API-SCHLÜSSEL wird verschlüsselt und mit', + back: ' Technologie gespeichert.', + }, + freeQuota: { + howToEarn: 'Wie zu verdienen', + }, + addMoreModelProvider: 'MEHR MODELLANBIETER HINZUFÜGEN', + addModel: 'Modell hinzufügen', + modelsNum: '{{num}} Modelle', + showModels: 'Modelle anzeigen', + showModelsNum: 'Zeige {{num}} Modelle', + collapse: 'Einklappen', + config: 'Konfigurieren', + modelAndParameters: 'Modell und Parameter', + model: 'Modell', + featureSupported: '{{feature}} unterstützt', + callTimes: 'Anrufzeiten', + credits: 'Nachrichtenguthaben', + buyQuota: 'Kontingent kaufen', + getFreeTokens: 'Kostenlose Token erhalten', + priorityUsing: 'Bevorzugte Nutzung', + deprecated: 'Veraltet', + confirmDelete: 'Löschung bestätigen?', + quotaTip: 'Verbleibende verfügbare kostenlose Token', + loadPresets: 'Voreinstellungen laden', + parameters: 'PARAMETER', + }, + dataSource: { + add: 'Eine Datenquelle hinzufügen', + connect: 'Verbinden', + notion: { + title: 'Notion', + description: 'Notion als Datenquelle für das Wissen verwenden.', + connectedWorkspace: 'Verbundener Arbeitsbereich', + addWorkspace: 'Arbeitsbereich hinzufügen', + connected: 'Verbunden', + disconnected: 'Getrennt', + changeAuthorizedPages: 'Autorisierte Seiten ändern', + pagesAuthorized: 'Autorisierte Seiten', + sync: 'Synchronisieren', + remove: 'Entfernen', + selector: { + pageSelected: 'Ausgewählte Seiten', + searchPages: 'Seiten suchen...', + noSearchResult: 'Keine Suchergebnisse', + addPages: 'Seiten hinzufügen', + preview: 'VORSCHAU', + }, + }, + }, + plugin: { + serpapi: { + apiKey: 'API-Schlüssel', + apiKeyPlaceholder: 'Geben Sie Ihren API-Schlüssel ein', + keyFrom: 'Holen Sie Ihren SerpAPI-Schlüssel von der SerpAPI-Kontoseite', + }, + }, + apiBasedExtension: { + title: 'API-Erweiterungen bieten zentralisiertes API-Management und vereinfachen die Konfiguration für eine einfache Verwendung in Difys Anwendungen.', + link: 'Erfahren Sie, wie Sie Ihre eigene API-Erweiterung entwickeln.', + linkUrl: 'https://docs.dify.ai/features/extension/api_based_extension', + add: 'API-Erweiterung hinzufügen', + selector: { + title: 'API-Erweiterung', + placeholder: 'Bitte wählen Sie API-Erweiterung', + manage: 'API-Erweiterung verwalten', + }, + modal: { + title: 'API-Erweiterung hinzufügen', + editTitle: 'API-Erweiterung bearbeiten', + name: { + title: 'Name', + placeholder: 'Bitte geben Sie den Namen ein', + }, + apiEndpoint: { + title: 'API-Endpunkt', + placeholder: 'Bitte geben Sie den API-Endpunkt ein', + }, + apiKey: { + title: 'API-Schlüssel', + placeholder: 'Bitte geben Sie den API-Schlüssel ein', + lengthError: 'Die Länge des API-Schlüssels darf nicht weniger als 5 Zeichen betragen', + }, + }, + type: 'Typ', + }, + about: { + changeLog: 'Änderungsprotokoll', + updateNow: 'Jetzt aktualisieren', + nowAvailable: 'Dify {{version}} ist jetzt verfügbar.', + latestAvailable: 'Dify {{version}} ist die neueste verfügbare Version.', + }, + appMenus: { + overview: 'Übersicht', + promptEng: 'Orchestrieren', + apiAccess: 'API-Zugriff', + logAndAnn: 'Protokolle & Ank.', + }, + environment: { + testing: 'TESTEN', + development: 'ENTWICKLUNG', + }, + appModes: { + completionApp: 'Textgenerator', + chatApp: 'Chat-App', + }, + datasetMenus: { + documents: 'Dokumente', + hitTesting: 'Wiederherstellungstest', + settings: 'Einstellungen', + emptyTip: 'Das Wissen wurde nicht zugeordnet, bitte gehen Sie zur Anwendung oder zum Plug-in, um die Zuordnung abzuschließen.', + viewDoc: 'Dokumentation anzeigen', + relatedApp: 'verbundene Apps', + }, + voiceInput: { + speaking: 'Sprechen Sie jetzt...', + converting: 'Umwandlung in Text...', + notAllow: 'Mikrofon nicht autorisiert', + }, + modelName: { + 'gpt-3.5-turbo': 'GPT-3.5-Turbo', + 'gpt-3.5-turbo-16k': 'GPT-3.5-Turbo-16K', + 'gpt-4': 'GPT-4', + 'gpt-4-32k': 'GPT-4-32K', + 'text-davinci-003': 'Text-Davinci-003', + 'text-embedding-ada-002': 'Text-Embedding-Ada-002', + 'whisper-1': 'Flüstern-1', + 'claude-instant-1': 'Claude-Instant', + 'claude-2': 'Claude-2', + }, + chat: { + renameConversation: 'Konversation umbenennen', + conversationName: 'Konversationsname', + conversationNamePlaceholder: 'Bitte geben Sie den Konversationsnamen ein', + conversationNameCanNotEmpty: 'Konversationsname erforderlich', + citation: { + title: 'ZITIERUNGEN', + linkToDataset: 'Link zum Wissen', + characters: 'Zeichen:', + hitCount: 'Abrufanzahl:', + vectorHash: 'Vektorhash:', + hitScore: 'Abrufwertung:', + }, + }, + promptEditor: { + placeholder: 'Schreiben Sie hier Ihr Aufforderungswort, geben Sie \'{\' ein, um eine Variable einzufügen, geben Sie \'/\' ein, um einen Aufforderungs-Inhaltsblock einzufügen', + context: { + item: { + title: 'Kontext', + desc: 'Kontextvorlage einfügen', + }, + modal: { + title: '{{num}} Wissen im Kontext', + add: 'Kontext hinzufügen', + footer: 'Sie können Kontexte im unten stehenden Kontextabschnitt verwalten.', + }, + }, + history: { + item: { + title: 'Konversationsgeschichte', + desc: 'Vorlage für historische Nachricht einfügen', + }, + modal: { + title: 'BEISPIEL', + user: 'Hallo', + assistant: 'Hallo! Wie kann ich Ihnen heute helfen?', + edit: 'Konversationsrollennamen bearbeiten', + }, + }, + variable: { + item: { + title: 'Variablen & Externe Werkzeuge', + desc: 'Variablen & Externe Werkzeuge einfügen', + }, + modal: { + add: 'Neue Variable', + addTool: 'Neues Werkzeug', + }, + }, + query: { + item: { + title: 'Abfrage', + desc: 'Benutzerabfragevorlage einfügen', + }, + }, + existed: 'Bereits im Aufforderungstext vorhanden', + }, + imageUploader: { + uploadFromComputer: 'Vom Computer hochladen', + uploadFromComputerReadError: 'Bildlesung fehlgeschlagen, bitte versuchen Sie es erneut.', + uploadFromComputerUploadError: 'Bildupload fehlgeschlagen, bitte erneut hochladen.', + uploadFromComputerLimit: 'Hochgeladene Bilder dürfen {{size}} MB nicht überschreiten', + pasteImageLink: 'Bildlink einfügen', + pasteImageLinkInputPlaceholder: 'Bildlink hier einfügen', + pasteImageLinkInvalid: 'Ungültiger Bildlink', + imageUpload: 'Bild-Upload', + }, +} + +export default translation diff --git a/web/i18n/de-DE/custom.ts b/web/i18n/de-DE/custom.ts new file mode 100644 index 00000000000000..c24ebca696d6bc --- /dev/null +++ b/web/i18n/de-DE/custom.ts @@ -0,0 +1,30 @@ +const translation = { + custom: 'Anpassung', + upgradeTip: { + prefix: 'Erweitere deinen Plan auf', + suffix: 'um deine Marke anzupassen.', + }, + webapp: { + title: 'WebApp Marke anpassen', + removeBrand: 'Entferne Powered by Dify', + changeLogo: 'Ändere Powered by Markenbild', + changeLogoTip: 'SVG oder PNG Format mit einer Mindestgröße von 40x40px', + }, + app: { + title: 'App Kopfzeilen Marke anpassen', + changeLogoTip: 'SVG oder PNG Format mit einer Mindestgröße von 80x80px', + }, + upload: 'Hochladen', + uploading: 'Lade hoch', + uploadedFail: 'Bild-Upload fehlgeschlagen, bitte erneut hochladen.', + change: 'Ändern', + apply: 'Anwenden', + restore: 'Standardeinstellungen wiederherstellen', + customize: { + contactUs: ' kontaktiere uns ', + prefix: 'Um das Markenlogo innerhalb der App anzupassen, bitte', + suffix: 'um auf die Enterprise-Edition zu upgraden.', + }, +} + +export default translation diff --git a/web/i18n/de-DE/dataset-creation.ts b/web/i18n/de-DE/dataset-creation.ts new file mode 100644 index 00000000000000..87274577591977 --- /dev/null +++ b/web/i18n/de-DE/dataset-creation.ts @@ -0,0 +1,130 @@ +const translation = { + steps: { + header: { + creation: 'Wissen erstellen', + update: 'Daten hinzufügen', + }, + one: 'Datenquelle wählen', + two: 'Textvorverarbeitung und Bereinigung', + three: 'Ausführen und beenden', + }, + error: { + unavailable: 'Dieses Wissen ist nicht verfügbar', + }, + stepOne: { + filePreview: 'Dateivorschau', + pagePreview: 'Seitenvorschau', + dataSourceType: { + file: 'Import aus Textdatei', + notion: 'Synchronisation aus Notion', + web: 'Synchronisation von Webseite', + }, + uploader: { + title: 'Textdatei hochladen', + button: 'Datei hierher ziehen oder', + browse: 'Durchsuchen', + tip: 'Unterstützt {{supportTypes}}. Maximal {{size}}MB pro Datei.', + validation: { + typeError: 'Dateityp nicht unterstützt', + size: 'Datei zu groß. Maximum ist {{size}}MB', + count: 'Mehrere Dateien nicht unterstützt', + filesNumber: 'Sie haben das Limit für die Stapelverarbeitung von {{filesNumber}} erreicht.', + }, + cancel: 'Abbrechen', + change: 'Ändern', + failed: 'Hochladen fehlgeschlagen', + }, + notionSyncTitle: 'Notion ist nicht verbunden', + notionSyncTip: 'Um mit Notion zu synchronisieren, muss zuerst eine Verbindung zu Notion hergestellt werden.', + connect: 'Verbinden gehen', + button: 'weiter', + emptyDatasetCreation: 'Ich möchte ein leeres Wissen erstellen', + modal: { + title: 'Ein leeres Wissen erstellen', + tip: 'Ein leeres Wissen enthält keine Dokumente, und Sie können jederzeit Dokumente hochladen.', + input: 'Wissensname', + placeholder: 'Bitte eingeben', + nameNotEmpty: 'Name darf nicht leer sein', + nameLengthInvaild: 'Name muss zwischen 1 bis 40 Zeichen lang sein', + cancelButton: 'Abbrechen', + confirmButton: 'Erstellen', + failed: 'Erstellung fehlgeschlagen', + }, + }, + stepTwo: { + segmentation: 'Chunk-Einstellungen', + auto: 'Automatisch', + autoDescription: 'Stellt Chunk- und Vorverarbeitungsregeln automatisch ein. Unbekannten Benutzern wird dies empfohlen.', + custom: 'Benutzerdefiniert', + customDescription: 'Chunk-Regeln, Chunk-Länge und Vorverarbeitungsregeln usw. anpassen.', + separator: 'Segmentidentifikator', + separatorPlaceholder: 'Zum Beispiel Neuer Absatz (\\\\n) oder spezieller Separator (wie "***")', + maxLength: 'Maximale Chunk-Länge', + overlap: 'Chunk-Überlappung', + overlapTip: 'Die Einstellung der Chunk-Überlappung kann die semantische Relevanz zwischen ihnen aufrechterhalten und so die Abrufeffekt verbessern. Es wird empfohlen, 10%-25% der maximalen Chunk-Größe einzustellen.', + overlapCheck: 'Chunk-Überlappung sollte nicht größer als maximale Chunk-Länge sein', + rules: 'Textvorverarbeitungsregeln', + removeExtraSpaces: 'Mehrfache Leerzeichen, Zeilenumbrüche und Tabulatoren ersetzen', + removeUrlEmails: 'Alle URLs und E-Mail-Adressen löschen', + removeStopwords: 'Stopwörter wie "ein", "eine", "der" entfernen', + preview: 'Bestätigen & Vorschau', + reset: 'Zurücksetzen', + indexMode: 'Indexmodus', + qualified: 'Hohe Qualität', + recommend: 'Empfehlen', + qualifiedTip: 'Ruft standardmäßige Systemeinbettungsschnittstelle für die Verarbeitung auf, um höhere Genauigkeit bei Benutzerabfragen zu bieten.', + warning: 'Bitte zuerst den API-Schlüssel des Modellanbieters einrichten.', + click: 'Zu den Einstellungen gehen', + economical: 'Ökonomisch', + economicalTip: 'Verwendet Offline-Vektor-Engines, Schlagwortindizes usw., um die Genauigkeit ohne Tokenverbrauch zu reduzieren', + QATitle: 'Segmentierung im Frage-und-Antwort-Format', + QATip: 'Diese Option zu aktivieren, wird mehr Tokens verbrauchen', + QALanguage: 'Segmentierung verwenden', + emstimateCost: 'Schätzung', + emstimateSegment: 'Geschätzte Chunks', + segmentCount: 'Chunks', + calculating: 'Berechnung...', + fileSource: 'Dokumente vorverarbeiten', + notionSource: 'Seiten vorverarbeiten', + other: 'und weitere ', + fileUnit: ' Dateien', + notionUnit: ' Seiten', + previousStep: 'Vorheriger Schritt', + nextStep: 'Speichern & Verarbeiten', + save: 'Speichern & Verarbeiten', + cancel: 'Abbrechen', + sideTipTitle: 'Warum segmentieren und vorverarbeiten?', + sideTipP1: 'Bei der Verarbeitung von Textdaten sind Segmentierung und Bereinigung zwei wichtige Vorverarbeitungsschritte.', + sideTipP2: 'Segmentierung teilt langen Text in Absätze, damit Modelle ihn besser verstehen können. Dies verbessert die Qualität und Relevanz der Modellergebnisse.', + sideTipP3: 'Bereinigung entfernt unnötige Zeichen und Formate, macht das Wissen sauberer und leichter zu parsen.', + sideTipP4: 'Richtige Segmentierung und Bereinigung verbessern die Modellleistung und liefern genauere und wertvollere Ergebnisse.', + previewTitle: 'Vorschau', + previewTitleButton: 'Vorschau', + previewButton: 'Umschalten zum Frage-und-Antwort-Format', + previewSwitchTipStart: 'Die aktuelle Chunk-Vorschau ist im Textformat, ein Wechsel zur Vorschau im Frage-und-Antwort-Format wird', + previewSwitchTipEnd: ' zusätzliche Tokens verbrauchen', + characters: 'Zeichen', + indexSettedTip: 'Um die Indexmethode zu ändern, bitte gehen Sie zu den ', + retrivalSettedTip: 'Um die Indexmethode zu ändern, bitte gehen Sie zu den ', + datasetSettingLink: 'Wissenseinstellungen.', + }, + stepThree: { + creationTitle: '🎉 Wissen erstellt', + creationContent: 'Wir haben das Wissen automatisch benannt, Sie können es jederzeit ändern', + label: 'Wissensname', + additionTitle: '🎉 Dokument hochgeladen', + additionP1: 'Das Dokument wurde zum Wissen hinzugefügt', + additionP2: ', Sie können es in der Dokumentenliste des Wissens finden.', + stop: 'Verarbeitung stoppen', + resume: 'Verarbeitung fortsetzen', + navTo: 'Zum Dokument gehen', + sideTipTitle: 'Was kommt als Nächstes', + sideTipContent: 'Nachdem das Dokument indiziert wurde, kann das Wissen in die Anwendung als Kontext integriert werden, Sie finden die Kontexteinstellung auf der Seite zur Eingabeaufforderungen-Orchestrierung. Sie können es auch als unabhängiges ChatGPT-Indexierungsplugin zur Veröffentlichung erstellen.', + modelTitle: 'Sind Sie sicher, dass Sie die Einbettung stoppen möchten?', + modelContent: 'Wenn Sie die Verarbeitung später fortsetzen möchten, werden Sie dort weitermachen, wo Sie aufgehört haben.', + modelButtonConfirm: 'Bestätigen', + modelButtonCancel: 'Abbrechen', + }, +} + +export default translation diff --git a/web/i18n/de-DE/dataset-documents.ts b/web/i18n/de-DE/dataset-documents.ts new file mode 100644 index 00000000000000..e72f8083926308 --- /dev/null +++ b/web/i18n/de-DE/dataset-documents.ts @@ -0,0 +1,349 @@ +const translation = { + list: { + title: 'Dokumente', + desc: 'Alle Dateien des Wissens werden hier angezeigt, und das gesamte Wissen kann mit Dify-Zitaten verknüpft oder über das Chat-Plugin indiziert werden.', + addFile: 'Datei hinzufügen', + addPages: 'Seiten hinzufügen', + table: { + header: { + fileName: 'DATEINAME', + words: 'WÖRTER', + hitCount: 'SUCHANFRAGEN', + uploadTime: 'HOCHLADEZEIT', + status: 'STATUS', + action: 'AKTION', + }, + }, + action: { + uploadFile: 'Neue Datei hochladen', + settings: 'Segment-Einstellungen', + addButton: 'Chunk hinzufügen', + add: 'Einen Chunk hinzufügen', + batchAdd: 'Batch hinzufügen', + archive: 'Archivieren', + unarchive: 'Archivierung aufheben', + delete: 'Löschen', + enableWarning: 'Archivierte Datei kann nicht aktiviert werden', + sync: 'Synchronisieren', + }, + index: { + enable: 'Aktivieren', + disable: 'Deaktivieren', + all: 'Alle', + enableTip: 'Die Datei kann indiziert werden', + disableTip: 'Die Datei kann nicht indiziert werden', + }, + status: { + queuing: 'In Warteschlange', + indexing: 'Indizierung', + paused: 'Pausiert', + error: 'Fehler', + available: 'Verfügbar', + enabled: 'Aktiviert', + disabled: 'Deaktiviert', + archived: 'Archiviert', + }, + empty: { + title: 'Es gibt noch keine Dokumentation', + upload: { + tip: 'Sie können Dateien hochladen, von der Website oder von Web-Apps wie Notion, GitHub usw. synchronisieren.', + }, + sync: { + tip: 'Dify wird periodisch Dateien von Ihrem Notion herunterladen und die Verarbeitung abschließen.', + }, + }, + delete: { + title: 'Sind Sie sicher, dass Sie löschen möchten?', + content: 'Wenn Sie die Verarbeitung später fortsetzen müssen, werden Sie dort weitermachen, wo Sie aufgehört haben', + }, + batchModal: { + title: 'Chunks in Batch hinzufügen', + csvUploadTitle: 'Ziehen Sie Ihre CSV-Datei hierher oder ', + browse: 'durchsuchen', + tip: 'Die CSV-Datei muss der folgenden Struktur entsprechen:', + question: 'Frage', + answer: 'Antwort', + contentTitle: 'Chunk-Inhalt', + content: 'Inhalt', + template: 'Laden Sie die Vorlage hier herunter', + cancel: 'Abbrechen', + run: 'Batch ausführen', + runError: 'Batch-Ausführung fehlgeschlagen', + processing: 'In Batch-Verarbeitung', + completed: 'Import abgeschlossen', + error: 'Importfehler', + ok: 'OK', + }, + }, + metadata: { + title: 'Metadaten', + desc: 'Das Kennzeichnen von Metadaten für Dokumente ermöglicht es der KI, sie rechtzeitig zu erreichen und die Quelle der Referenzen für die Benutzer offenzulegen.', + dateTimeFormat: 'MMMM D, YYYY hh:mm A', + docTypeSelectTitle: 'Bitte wählen Sie einen Dokumenttyp', + docTypeChangeTitle: 'Dokumenttyp ändern', + docTypeSelectWarning: + 'Wenn der Dokumenttyp geändert wird, werden die jetzt ausgefüllten Metadaten nicht mehr erhalten bleiben', + firstMetaAction: 'Los geht\'s', + placeholder: { + add: 'Hinzufügen ', + select: 'Auswählen ', + }, + source: { + upload_file: 'Datei hochladen', + notion: 'Von Notion synchronisieren', + github: 'Von Github synchronisieren', + }, + type: { + book: 'Buch', + webPage: 'Webseite', + paper: 'Aufsatz', + socialMediaPost: 'Social Media Beitrag', + personalDocument: 'Persönliches Dokument', + businessDocument: 'Geschäftsdokument', + IMChat: 'IM Chat', + wikipediaEntry: 'Wikipedia-Eintrag', + notion: 'Von Notion synchronisieren', + github: 'Von Github synchronisieren', + technicalParameters: 'Technische Parameter', + }, + field: { + processRule: { + processDoc: 'Dokument verarbeiten', + segmentRule: 'Chunk-Regel', + segmentLength: 'Chunk-Länge', + processClean: 'Textverarbeitung bereinigen', + }, + book: { + title: 'Titel', + language: 'Sprache', + author: 'Autor', + publisher: 'Verlag', + publicationDate: 'Veröffentlichungsdatum', + ISBN: 'ISBN', + category: 'Kategorie', + }, + webPage: { + title: 'Titel', + url: 'URL', + language: 'Sprache', + authorPublisher: 'Autor/Verlag', + publishDate: 'Veröffentlichungsdatum', + topicsKeywords: 'Themen/Schlüsselwörter', + description: 'Beschreibung', + }, + paper: { + title: 'Titel', + language: 'Sprache', + author: 'Autor', + publishDate: 'Veröffentlichungsdatum', + journalConferenceName: 'Zeitschrift/Konferenzname', + volumeIssuePage: 'Band/Ausgabe/Seite', + DOI: 'DOI', + topicsKeywords: 'Themen/Schlüsselwörter', + abstract: 'Zusammenfassung', + }, + socialMediaPost: { + platform: 'Plattform', + authorUsername: 'Autor/Benutzername', + publishDate: 'Veröffentlichungsdatum', + postURL: 'Beitrags-URL', + topicsTags: 'Themen/Tags', + }, + personalDocument: { + title: 'Titel', + author: 'Autor', + creationDate: 'Erstellungsdatum', + lastModifiedDate: 'Letztes Änderungsdatum', + documentType: 'Dokumenttyp', + tagsCategory: 'Tags/Kategorie', + }, + businessDocument: { + title: 'Titel', + author: 'Autor', + creationDate: 'Erstellungsdatum', + lastModifiedDate: 'Letztes Änderungsdatum', + documentType: 'Dokumenttyp', + departmentTeam: 'Abteilung/Team', + }, + IMChat: { + chatPlatform: 'Chat-Plattform', + chatPartiesGroupName: 'Chat-Parteien/Gruppenname', + participants: 'Teilnehmer', + startDate: 'Startdatum', + endDate: 'Enddatum', + topicsKeywords: 'Themen/Schlüsselwörter', + fileType: 'Dateityp', + }, + wikipediaEntry: { + title: 'Titel', + language: 'Sprache', + webpageURL: 'Webseiten-URL', + editorContributor: 'Editor/Beitragender', + lastEditDate: 'Letztes Bearbeitungsdatum', + summaryIntroduction: 'Zusammenfassung/Einführung', + }, + notion: { + title: 'Titel', + language: 'Sprache', + author: 'Autor', + createdTime: 'Erstellungszeit', + lastModifiedTime: 'Letzte Änderungszeit', + url: 'URL', + tag: 'Tag', + description: 'Beschreibung', + }, + github: { + repoName: 'Repository-Name', + repoDesc: 'Repository-Beschreibung', + repoOwner: 'Repository-Eigentümer', + fileName: 'Dateiname', + filePath: 'Dateipfad', + programmingLang: 'Programmiersprache', + url: 'URL', + license: 'Lizenz', + lastCommitTime: 'Letzte Commit-Zeit', + lastCommitAuthor: 'Letzter Commit-Autor', + }, + originInfo: { + originalFilename: 'Originaldateiname', + originalFileSize: 'Originaldateigröße', + uploadDate: 'Hochladedatum', + lastUpdateDate: 'Letztes Änderungsdatum', + source: 'Quelle', + }, + technicalParameters: { + segmentSpecification: 'Chunk-Spezifikation', + segmentLength: 'Chunk-Länge', + avgParagraphLength: 'Durchschn. Absatzlänge', + paragraphs: 'Absätze', + hitCount: 'Abrufanzahl', + embeddingTime: 'Einbettungszeit', + embeddedSpend: 'Einbettungsausgaben', + }, + }, + languageMap: { + zh: 'Chinesisch', + en: 'Englisch', + es: 'Spanisch', + fr: 'Französisch', + de: 'Deutsch', + ja: 'Japanisch', + ko: 'Koreanisch', + ru: 'Russisch', + ar: 'Arabisch', + pt: 'Portugiesisch', + it: 'Italienisch', + nl: 'Niederländisch', + pl: 'Polnisch', + sv: 'Schwedisch', + tr: 'Türkisch', + he: 'Hebräisch', + hi: 'Hindi', + da: 'Dänisch', + fi: 'Finnisch', + no: 'Norwegisch', + hu: 'Ungarisch', + el: 'Griechisch', + cs: 'Tschechisch', + th: 'Thai', + id: 'Indonesisch', + }, + categoryMap: { + book: { + fiction: 'Fiktion', + biography: 'Biografie', + history: 'Geschichte', + science: 'Wissenschaft', + technology: 'Technologie', + education: 'Bildung', + philosophy: 'Philosophie', + religion: 'Religion', + socialSciences: 'Sozialwissenschaften', + art: 'Kunst', + travel: 'Reisen', + health: 'Gesundheit', + selfHelp: 'Selbsthilfe', + businessEconomics: 'Wirtschaft', + cooking: 'Kochen', + childrenYoungAdults: 'Kinder & Jugendliche', + comicsGraphicNovels: 'Comics & Grafische Romane', + poetry: 'Poesie', + drama: 'Drama', + other: 'Andere', + }, + personalDoc: { + notes: 'Notizen', + blogDraft: 'Blog-Entwurf', + diary: 'Tagebuch', + researchReport: 'Forschungsbericht', + bookExcerpt: 'Buchauszug', + schedule: 'Zeitplan', + list: 'Liste', + projectOverview: 'Projektübersicht', + photoCollection: 'Fotosammlung', + creativeWriting: 'Kreatives Schreiben', + codeSnippet: 'Code-Snippet', + designDraft: 'Design-Entwurf', + personalResume: 'Persönlicher Lebenslauf', + other: 'Andere', + }, + businessDoc: { + meetingMinutes: 'Protokolle', + researchReport: 'Forschungsbericht', + proposal: 'Vorschlag', + employeeHandbook: 'Mitarbeiterhandbuch', + trainingMaterials: 'Schulungsmaterialien', + requirementsDocument: 'Anforderungsdokumentation', + designDocument: 'Design-Dokument', + productSpecification: 'Produktspezifikation', + financialReport: 'Finanzbericht', + marketAnalysis: 'Marktanalyse', + projectPlan: 'Projektplan', + teamStructure: 'Teamstruktur', + policiesProcedures: 'Richtlinien & Verfahren', + contractsAgreements: 'Verträge & Vereinbarungen', + emailCorrespondence: 'E-Mail-Korrespondenz', + other: 'Andere', + }, + }, + }, + embedding: { + processing: 'Einbettungsverarbeitung...', + paused: 'Einbettung pausiert', + completed: 'Einbettung abgeschlossen', + error: 'Einbettungsfehler', + docName: 'Dokument vorbereiten', + mode: 'Segmentierungsregel', + segmentLength: 'Chunk-Länge', + textCleaning: 'Textvordefinition und -bereinigung', + segments: 'Absätze', + highQuality: 'Hochwertiger Modus', + economy: 'Wirtschaftlicher Modus', + estimate: 'Geschätzter Verbrauch', + stop: 'Verarbeitung stoppen', + resume: 'Verarbeitung fortsetzen', + automatic: 'Automatisch', + custom: 'Benutzerdefiniert', + previewTip: 'Absatzvorschau ist nach Abschluss der Einbettung verfügbar', + }, + segment: { + paragraphs: 'Absätze', + keywords: 'Schlüsselwörter', + addKeyWord: 'Schlüsselwort hinzufügen', + keywordError: 'Die maximale Länge des Schlüsselworts beträgt 20', + characters: 'Zeichen', + hitCount: 'Abrufanzahl', + vectorHash: 'Vektor-Hash: ', + questionPlaceholder: 'Frage hier hinzufügen', + questionEmpty: 'Frage darf nicht leer sein', + answerPlaceholder: 'Antwort hier hinzufügen', + answerEmpty: 'Antwort darf nicht leer sein', + contentPlaceholder: 'Inhalt hier hinzufügen', + contentEmpty: 'Inhalt darf nicht leer sein', + newTextSegment: 'Neues Textsegment', + newQaSegment: 'Neues Q&A-Segment', + delete: 'Diesen Chunk löschen?', + }, +} + +export default translation diff --git a/web/i18n/de-DE/dataset-hit-testing.ts b/web/i18n/de-DE/dataset-hit-testing.ts new file mode 100644 index 00000000000000..89f90a57a7be36 --- /dev/null +++ b/web/i18n/de-DE/dataset-hit-testing.ts @@ -0,0 +1,28 @@ +const translation = { + title: 'Abruf-Test', + desc: 'Testen Sie die Treffereffektivität des Wissens anhand des gegebenen Abfragetextes.', + dateTimeFormat: 'MM/TT/JJJJ hh:mm A', + recents: 'Kürzlich', + table: { + header: { + source: 'Quelle', + text: 'Text', + time: 'Zeit', + }, + }, + input: { + title: 'Quelltext', + placeholder: 'Bitte geben Sie einen Text ein, ein kurzer aussagekräftiger Satz wird empfohlen.', + countWarning: 'Bis zu 200 Zeichen.', + indexWarning: 'Nur Wissen hoher Qualität.', + testing: 'Testen', + }, + hit: { + title: 'ABRUFPARAGRAFEN', + emptyTip: 'Ergebnisse des Abruf-Tests werden hier angezeigt', + }, + noRecentTip: 'Keine kürzlichen Abfrageergebnisse hier', + viewChart: 'VEKTORDIAGRAMM ansehen', +} + +export default translation diff --git a/web/i18n/de-DE/dataset-settings.ts b/web/i18n/de-DE/dataset-settings.ts new file mode 100644 index 00000000000000..7b6288625189cc --- /dev/null +++ b/web/i18n/de-DE/dataset-settings.ts @@ -0,0 +1,33 @@ +const translation = { + title: 'Wissenseinstellungen', + desc: 'Hier können Sie die Eigenschaften und Arbeitsweisen des Wissens anpassen.', + form: { + name: 'Wissensname', + namePlaceholder: 'Bitte geben Sie den Namen des Wissens ein', + nameError: 'Name darf nicht leer sein', + desc: 'Wissensbeschreibung', + descInfo: 'Bitte schreiben Sie eine klare textuelle Beschreibung, um den Inhalt des Wissens zu umreißen. Diese Beschreibung wird als Grundlage für die Auswahl aus mehreren Wissensdatenbanken zur Inferenz verwendet.', + descPlaceholder: 'Beschreiben Sie, was in diesem Wissen enthalten ist. Eine detaillierte Beschreibung ermöglicht es der KI, zeitnah auf den Inhalt des Wissens zuzugreifen. Wenn leer, verwendet Dify die Standard-Treffstrategie.', + descWrite: 'Erfahren Sie, wie man eine gute Wissensbeschreibung schreibt.', + permissions: 'Berechtigungen', + permissionsOnlyMe: 'Nur ich', + permissionsAllMember: 'Alle Teammitglieder', + indexMethod: 'Indexierungsmethode', + indexMethodHighQuality: 'Hohe Qualität', + indexMethodHighQualityTip: 'Ruft die Einbettungsschnittstelle von OpenAI für die Verarbeitung auf, um bei Benutzerabfragen eine höhere Genauigkeit zu bieten.', + indexMethodEconomy: 'Ökonomisch', + indexMethodEconomyTip: 'Verwendet Offline-Vektor-Engines, Schlagwortindizes usw., um die Genauigkeit ohne Tokenverbrauch zu reduzieren', + embeddingModel: 'Einbettungsmodell', + embeddingModelTip: 'Ändern Sie das eingebettete Modell, bitte gehen Sie zu ', + embeddingModelTipLink: 'Einstellungen', + retrievalSetting: { + title: 'Abrufeinstellung', + learnMore: 'Mehr erfahren', + description: ' über die Abrufmethode.', + longDescription: ' über die Abrufmethode, dies kann jederzeit in den Wissenseinstellungen geändert werden.', + }, + save: 'Speichern', + }, +} + +export default translation diff --git a/web/i18n/de-DE/dataset.ts b/web/i18n/de-DE/dataset.ts new file mode 100644 index 00000000000000..2c898f07f6863d --- /dev/null +++ b/web/i18n/de-DE/dataset.ts @@ -0,0 +1,47 @@ +const translation = { + knowledge: 'Wissen', + documentCount: ' Dokumente', + wordCount: 'k Wörter', + appCount: ' verknüpfte Apps', + createDataset: 'Wissen erstellen', + createDatasetIntro: 'Importiere deine eigenen Textdaten oder schreibe Daten in Echtzeit über Webhook für die LLM-Kontextverbesserung.', + deleteDatasetConfirmTitle: 'Dieses Wissen löschen?', + deleteDatasetConfirmContent: + 'Das Löschen des Wissens ist unwiderruflich. Benutzer werden nicht mehr auf Ihr Wissen zugreifen können und alle Eingabeaufforderungen, Konfigurationen und Protokolle werden dauerhaft gelöscht.', + datasetDeleted: 'Wissen gelöscht', + datasetDeleteFailed: 'Löschen des Wissens fehlgeschlagen', + didYouKnow: 'Wusstest du schon?', + intro1: 'Das Wissen kann in die Dify-Anwendung ', + intro2: 'als Kontext', + intro3: ',', + intro4: 'oder es ', + intro5: 'kann erstellt werden', + intro6: ' als ein eigenständiges ChatGPT-Index-Plugin zum Veröffentlichen', + unavailable: 'Nicht verfügbar', + unavailableTip: 'Einbettungsmodell ist nicht verfügbar, das Standard-Einbettungsmodell muss konfiguriert werden', + datasets: 'WISSEN', + datasetsApi: 'API', + retrieval: { + semantic_search: { + title: 'Vektorsuche', + description: 'Erzeuge Abfrage-Einbettungen und suche nach dem Textstück, das seiner Vektorrepräsentation am ähnlichsten ist.', + }, + full_text_search: { + title: 'Volltextsuche', + description: 'Indiziere alle Begriffe im Dokument, sodass Benutzer jeden Begriff suchen und den relevanten Textabschnitt finden können, der diese Begriffe enthält.', + }, + hybrid_search: { + title: 'Hybridsuche', + description: 'Führe Volltextsuche und Vektorsuchen gleichzeitig aus, ordne neu, um die beste Übereinstimmung für die Abfrage des Benutzers auszuwählen. Konfiguration des Rerank-Modell-APIs ist notwendig.', + recommend: 'Empfehlen', + }, + invertedIndex: { + title: 'Invertierter Index', + description: 'Ein invertierter Index ist eine Struktur, die für effiziente Abfragen verwendet wird. Organisiert nach Begriffen, zeigt jeder Begriff auf Dokumente oder Webseiten, die ihn enthalten.', + }, + change: 'Ändern', + changeRetrievalMethod: 'Abfragemethode ändern', + }, +} + +export default translation diff --git a/web/i18n/de-DE/explore.ts b/web/i18n/de-DE/explore.ts new file mode 100644 index 00000000000000..02fc90f89ca32c --- /dev/null +++ b/web/i18n/de-DE/explore.ts @@ -0,0 +1,41 @@ +const translation = { + title: 'Entdecken', + sidebar: { + discovery: 'Entdeckung', + chat: 'Chat', + workspace: 'Arbeitsbereich', + action: { + pin: 'Anheften', + unpin: 'Lösen', + rename: 'Umbenennen', + delete: 'Löschen', + }, + delete: { + title: 'App löschen', + content: 'Sind Sie sicher, dass Sie diese App löschen möchten?', + }, + }, + apps: { + title: 'Apps von Dify erkunden', + description: 'Nutzen Sie diese Vorlagen-Apps sofort oder passen Sie Ihre eigenen Apps basierend auf den Vorlagen an.', + allCategories: 'Alle Kategorien', + }, + appCard: { + addToWorkspace: 'Zum Arbeitsbereich hinzufügen', + customize: 'Anpassen', + }, + appCustomize: { + title: 'App aus {{name}} erstellen', + subTitle: 'App-Symbol & Name', + nameRequired: 'App-Name ist erforderlich', + }, + category: { + Assistant: 'Assistent', + Writing: 'Schreiben', + Translate: 'Übersetzen', + Programming: 'Programmieren', + HR: 'Personalwesen', + }, +} + +export default translation diff --git a/web/i18n/de-DE/layout.ts b/web/i18n/de-DE/layout.ts new file mode 100644 index 00000000000000..928649474b4dcd --- /dev/null +++ b/web/i18n/de-DE/layout.ts @@ -0,0 +1,4 @@ +const translation = { +} + +export default translation diff --git a/web/i18n/de-DE/login.ts b/web/i18n/de-DE/login.ts new file mode 100644 index 00000000000000..560a8f65b5c48a --- /dev/null +++ b/web/i18n/de-DE/login.ts @@ -0,0 +1,59 @@ +const translation = { + pageTitle: 'Hey, lass uns anfangen!👋', + welcome: 'Willkommen bei Dify, bitte melde dich an, um fortzufahren.', + email: 'E-Mail-Adresse', + emailPlaceholder: 'Deine E-Mail', + password: 'Passwort', + passwordPlaceholder: 'Dein Passwort', + name: 'Benutzername', + namePlaceholder: 'Dein Benutzername', + forget: 'Passwort vergessen?', + signBtn: 'Anmelden', + installBtn: 'Einrichten', + setAdminAccount: 'Admin-Konto einrichten', + setAdminAccountDesc: 'Maximale Berechtigungen für das Admin-Konto, das verwendet werden kann, um Anwendungen zu erstellen und LLM-Anbieter usw. zu verwalten.', + createAndSignIn: 'Erstellen und anmelden', + oneMoreStep: 'Nur noch ein Schritt', + createSample: 'Basierend auf diesen Informationen erstellen wir eine Beispielanwendung für dich', + invitationCode: 'Einladungscode', + invitationCodePlaceholder: 'Dein Einladungscode', + interfaceLanguage: 'Oberflächensprache', + timezone: 'Zeitzone', + go: 'Zu Dify gehen', + sendUsMail: 'Sende uns deine Vorstellung per E-Mail, und wir bearbeiten die Einladungsanfrage.', + acceptPP: 'Ich habe die Datenschutzbestimmungen gelesen und akzeptiere sie', + reset: 'Bitte führe den folgenden Befehl aus, um dein Passwort zurückzusetzen', + withGitHub: 'Mit GitHub fortfahren', + withGoogle: 'Mit Google fortfahren', + rightTitle: 'Das volle Potenzial von LLM ausschöpfen', + rightDesc: 'Mühelos optisch ansprechende, bedienbare und verbesserbare KI-Anwendungen erstellen.', + tos: 'Nutzungsbedingungen', + pp: 'Datenschutzbestimmungen', + tosDesc: 'Mit der Anmeldung stimmst du unseren', + donthave: 'Hast du nicht?', + invalidInvitationCode: 'Ungültiger Einladungscode', + accountAlreadyInited: 'Konto bereits initialisiert', + error: { + emailEmpty: 'E-Mail-Adresse wird benötigt', + emailInValid: 'Bitte gib eine gültige E-Mail-Adresse ein', + nameEmpty: 'Name wird benötigt', + passwordEmpty: 'Passwort wird benötigt', + passwordInvalid: 'Das Passwort muss Buchstaben und Zahlen enthalten und länger als 8 Zeichen sein', + }, + license: { + tip: 'Bevor du mit Dify Community Edition beginnst, lies die', + link: 'Open-Source-Lizenz', + }, + join: 'Beitreten', + joinTipStart: 'Lade dich ein, dem', + joinTipEnd: 'Team auf Dify beizutreten', + invalid: 'Der Link ist abgelaufen', + explore: 'Dify erkunden', + activatedTipStart: 'Du bist dem', + activatedTipEnd: 'Team beigetreten', + activated: 'Jetzt anmelden', + adminInitPassword: 'Admin-Initialpasswort', + validate: 'Validieren', +} + +export default translation diff --git a/web/i18n/de-DE/register.ts b/web/i18n/de-DE/register.ts new file mode 100644 index 00000000000000..928649474b4dcd --- /dev/null +++ b/web/i18n/de-DE/register.ts @@ -0,0 +1,4 @@ +const translation = { +} + +export default translation diff --git a/web/i18n/de-DE/run-log.ts b/web/i18n/de-DE/run-log.ts new file mode 100644 index 00000000000000..258786a8791234 --- /dev/null +++ b/web/i18n/de-DE/run-log.ts @@ -0,0 +1,23 @@ +const translation = { + input: 'EINGABE', + result: 'ERGEBNIS', + detail: 'DETAILS', + tracing: 'NACHVERFOLGUNG', + resultPanel: { + status: 'STATUS', + time: 'VERSTRICHENE ZEIT', + tokens: 'GESAMTZEICHEN', + }, + meta: { + title: 'METADATEN', + status: 'Status', + version: 'Version', + executor: 'Ausführender', + startTime: 'Startzeit', + time: 'Verstrichene Zeit', + tokens: 'Gesamtzeichen', + steps: 'Ausführungsschritte', + }, +} + +export default translation diff --git a/web/i18n/de-DE/share-app.ts b/web/i18n/de-DE/share-app.ts new file mode 100644 index 00000000000000..eeb048dd9be5d4 --- /dev/null +++ b/web/i18n/de-DE/share-app.ts @@ -0,0 +1,74 @@ +const translation = { + common: { + welcome: 'Willkommen bei', + appUnavailable: 'App ist nicht verfügbar', + appUnkonwError: 'App ist nicht verfügbar', + }, + chat: { + newChat: 'Neuer Chat', + pinnedTitle: 'Angeheftet', + unpinnedTitle: 'Chats', + newChatDefaultName: 'Neues Gespräch', + resetChat: 'Gespräch zurücksetzen', + powerBy: 'Bereitgestellt von', + prompt: 'Aufforderung', + privatePromptConfigTitle: 'Konversationseinstellungen', + publicPromptConfigTitle: 'Anfängliche Aufforderung', + configStatusDes: 'Vor dem Start können Sie die Konversationseinstellungen ändern', + configDisabled: + 'Voreinstellungen der vorherigen Sitzung wurden für diese Sitzung verwendet.', + startChat: 'Chat starten', + privacyPolicyLeft: + 'Bitte lesen Sie die ', + privacyPolicyMiddle: + 'Datenschutzrichtlinien', + privacyPolicyRight: + ', die vom App-Entwickler bereitgestellt wurden.', + deleteConversation: { + title: 'Konversation löschen', + content: 'Sind Sie sicher, dass Sie diese Konversation löschen möchten?', + }, + tryToSolve: 'Versuchen zu lösen', + temporarySystemIssue: 'Entschuldigung, vorübergehendes Systemproblem.', + }, + generation: { + tabs: { + create: 'Einmal ausführen', + batch: 'Stapelverarbeitung', + saved: 'Gespeichert', + }, + savedNoData: { + title: 'Sie haben noch kein Ergebnis gespeichert!', + description: 'Beginnen Sie mit der Inhaltserstellung und finden Sie hier Ihre gespeicherten Ergebnisse.', + startCreateContent: 'Beginnen Sie mit der Inhaltserstellung', + }, + title: 'KI-Vervollständigung', + queryTitle: 'Abfrageinhalt', + completionResult: 'Vervollständigungsergebnis', + queryPlaceholder: 'Schreiben Sie Ihren Abfrageinhalt...', + run: 'Ausführen', + copy: 'Kopieren', + resultTitle: 'KI-Vervollständigung', + noData: 'KI wird Ihnen hier geben, was Sie möchten.', + csvUploadTitle: 'Ziehen Sie Ihre CSV-Datei hierher oder ', + browse: 'durchsuchen', + csvStructureTitle: 'Die CSV-Datei muss der folgenden Struktur entsprechen:', + downloadTemplate: 'Laden Sie die Vorlage hier herunter', + field: 'Feld', + batchFailed: { + info: '{{num}} fehlgeschlagene Ausführungen', + retry: 'Wiederholen', + outputPlaceholder: 'Kein Ausgabeanhalt', + }, + errorMsg: { + empty: 'Bitte geben Sie Inhalte in die hochgeladene Datei ein.', + fileStructNotMatch: 'Die hochgeladene CSV-Datei entspricht nicht der Struktur.', + emptyLine: 'Zeile {{rowIndex}} ist leer', + invalidLine: 'Zeile {{rowIndex}}: {{varName}} Wert darf nicht leer sein', + moreThanMaxLengthLine: 'Zeile {{rowIndex}}: {{varName}} Wert darf nicht mehr als {{maxLength}} Zeichen sein', + atLeastOne: 'Bitte geben Sie mindestens eine Zeile in die hochgeladene Datei ein.', + }, + }, +} + +export default translation diff --git a/web/i18n/de-DE/tools.ts b/web/i18n/de-DE/tools.ts new file mode 100644 index 00000000000000..d123cd3807e250 --- /dev/null +++ b/web/i18n/de-DE/tools.ts @@ -0,0 +1,115 @@ +const translation = { + title: 'Werkzeuge', + createCustomTool: 'Eigenes Werkzeug erstellen', + type: { + all: 'Alle', + builtIn: 'Integriert', + custom: 'Benutzerdefiniert', + }, + contribute: { + line1: 'Ich interessiere mich dafür, ', + line2: 'Werkzeuge zu Dify beizutragen.', + viewGuide: 'Leitfaden anzeigen', + }, + author: 'Von', + auth: { + unauthorized: 'Zur Autorisierung', + authorized: 'Autorisiert', + setup: 'Autorisierung einrichten, um zu nutzen', + setupModalTitle: 'Autorisierung einrichten', + setupModalTitleDescription: 'Nach der Konfiguration der Anmeldeinformationen können alle Mitglieder im Arbeitsbereich dieses Werkzeug beim Orchestrieren von Anwendungen nutzen.', + }, + includeToolNum: '{{num}} Werkzeuge inkludiert', + addTool: 'Werkzeug hinzufügen', + createTool: { + title: 'Eigenes Werkzeug erstellen', + editAction: 'Konfigurieren', + editTitle: 'Eigenes Werkzeug bearbeiten', + name: 'Name', + toolNamePlaceHolder: 'Geben Sie den Werkzeugnamen ein', + schema: 'Schema', + schemaPlaceHolder: 'Geben Sie hier Ihr OpenAPI-Schema ein', + viewSchemaSpec: 'Die OpenAPI-Swagger-Spezifikation anzeigen', + importFromUrl: 'Von URL importieren', + importFromUrlPlaceHolder: 'https://...', + urlError: 'Bitte geben Sie eine gültige URL ein', + examples: 'Beispiele', + exampleOptions: { + json: 'Wetter(JSON)', + yaml: 'Pet Store(YAML)', + blankTemplate: 'Leere Vorlage', + }, + availableTools: { + title: 'Verfügbare Werkzeuge', + name: 'Name', + description: 'Beschreibung', + method: 'Methode', + path: 'Pfad', + action: 'Aktionen', + test: 'Test', + }, + authMethod: { + title: 'Autorisierungsmethode', + type: 'Autorisierungstyp', + keyTooltip: 'Http Header Key, Sie können es bei "Authorization" belassen, wenn Sie nicht wissen, was es ist, oder auf einen benutzerdefinierten Wert setzen', + types: { + none: 'Keine', + api_key: 'API-Key', + apiKeyPlaceholder: 'HTTP-Headername für API-Key', + apiValuePlaceholder: 'API-Key eingeben', + }, + key: 'Schlüssel', + value: 'Wert', + }, + authHeaderPrefix: { + title: 'Auth-Typ', + types: { + basic: 'Basic', + bearer: 'Bearer', + custom: 'Benutzerdefiniert', + }, + }, + privacyPolicy: 'Datenschutzrichtlinie', + privacyPolicyPlaceholder: 'Bitte Datenschutzrichtlinie eingeben', + }, + test: { + title: 'Test', + parametersValue: 'Parameter & Wert', + parameters: 'Parameter', + value: 'Wert', + testResult: 'Testergebnisse', + testResultPlaceholder: 'Testergebnis wird hier angezeigt', + }, + thought: { + using: 'Nutzung', + used: 'Genutzt', + requestTitle: 'Anfrage an', + responseTitle: 'Antwort von', + }, + setBuiltInTools: { + info: 'Info', + setting: 'Einstellung', + toolDescription: 'Werkzeugbeschreibung', + parameters: 'Parameter', + string: 'Zeichenkette', + number: 'Nummer', + required: 'Erforderlich', + infoAndSetting: 'Info & Einstellungen', + }, + noCustomTool: { + title: 'Keine benutzerdefinierten Werkzeuge!', + content: 'Fügen Sie hier Ihre benutzerdefinierten Werkzeuge hinzu und verwalten Sie sie, um KI-Apps zu erstellen.', + createTool: 'Werkzeug erstellen', + }, + noSearchRes: { + title: 'Leider keine Ergebnisse!', + content: 'Wir konnten keine Werkzeuge finden, die Ihrer Suche entsprechen.', + reset: 'Suche zurücksetzen', + }, + builtInPromptTitle: 'Aufforderung', + toolRemoved: 'Werkzeug entfernt', + notAuthorized: 'Werkzeug nicht autorisiert', + howToGet: 'Wie erhält man', +} + +export default translation diff --git a/web/i18n/de-DE/workflow.ts b/web/i18n/de-DE/workflow.ts new file mode 100644 index 00000000000000..87b7b457532428 --- /dev/null +++ b/web/i18n/de-DE/workflow.ts @@ -0,0 +1,333 @@ +const translation = { + common: { + editing: 'Bearbeiten', + autoSaved: 'Automatisch gespeichert', + unpublished: 'Nicht veröffentlicht', + published: 'Veröffentlicht', + publish: 'Veröffentlichen', + update: 'Aktualisieren', + run: 'Starten', + running: 'Läuft', + inRunMode: 'Im Start-Modus', + inPreview: 'In Vorschau', + inPreviewMode: 'Im Vorschau-Modus', + preview: 'Vorschau', + viewRunHistory: 'Verlauf ansehen', + runHistory: 'Verlauf', + goBackToEdit: 'Zurück zum Bearbeiten', + conversationLog: 'Konversationsprotokoll', + features: 'Funktionen', + debugAndPreview: 'Debuggen und Vorschau', + restart: 'Neustarten', + currentDraft: 'Aktueller Entwurf', + currentDraftUnpublished: 'Aktueller Entwurf nicht veröffentlicht', + latestPublished: 'Zuletzt veröffentlicht', + publishedAt: 'Veröffentlicht am', + restore: 'Wiederherstellen', + runApp: 'App starten', + batchRunApp: 'Batch-App starten', + accessAPIReference: 'API-Referenz aufrufen', + embedIntoSite: 'In Website einbetten', + addTitle: 'Titel hinzufügen...', + addDescription: 'Beschreibung hinzufügen...', + noVar: 'Keine Variable', + searchVar: 'Variable suchen', + variableNamePlaceholder: 'Variablenname', + setVarValuePlaceholder: 'Variable festlegen', + needConnecttip: 'Dieser Schritt ist mit nichts verbunden', + maxTreeDepth: 'Maximale Grenze von {{depth}} Knoten pro Zweig', + needEndNode: 'Der Endblock muss hinzugefügt werden', + needAnswerNode: 'Der Antwortblock muss hinzugefügt werden', + workflowProcess: 'Workflow-Prozess', + notRunning: 'Läuft noch nicht', + previewPlaceholder: 'Geben Sie unten Inhalte ein, um das Debugging des Chatbots zu starten', + effectVarConfirm: { + title: 'Variable entfernen', + content: 'Die Variable wird in anderen Knoten verwendet. Möchten Sie sie trotzdem entfernen?', + }, + insertVarTip: 'Drücken Sie die \'/\' Taste, um schnell einzufügen', + }, + errorMsg: { + fieldRequired: '{{field}} wird benötigt', + authRequired: 'Autorisierung erforderlich', + invalidJson: '{{field}} ist ungültiges JSON', + fields: { + variable: 'Variablenname', + variableValue: 'Variablenwert', + code: 'Code', + model: 'Modell', + rerankModel: 'Rerank-Modell', + }, + invalidVariable: 'Ungültige Variable', + }, + singleRun: { + testRun: 'Testlauf', + startRun: 'Lauf starten', + running: 'Läuft', + }, + tabs: { + 'searchBlock': 'Suchblock', + 'blocks': 'Blöcke', + 'builtInTool': 'Integriertes Werkzeug', + 'customTool': 'Benutzerdefiniertes Werkzeug', + 'question-understand': 'Fragenverständnis', + 'logic': 'Logik', + 'transform': 'Transformieren', + 'utilities': 'Dienstprogramme', + 'noResult': 'Keine Übereinstimmung gefunden', + }, + blocks: { + 'start': 'Start', + 'end': 'Ende', + 'answer': 'Antwort', + 'llm': 'LLM', + 'knowledge-retrieval': 'Wissensabruf', + 'question-classifier': 'Fragenklassifizierer', + 'if-else': 'IF/ELSE', + 'code': 'Code', + 'template-transform': 'Vorlage', + 'http-request': 'HTTP-Anfrage', + 'variable-assigner': 'Variablenzuweiser', + }, + blocksAbout: { + 'start': 'Definieren der Startparameter zum Starten eines Workflows', + 'end': 'Definieren des Endes und des Ergebnistyps eines Workflows', + 'answer': 'Definieren des Antwortinhalts eines Chat-Gesprächs', + 'llm': 'Aufrufen von großen Sprachmodellen, um Fragen zu beantworten oder natürliche Sprache zu verarbeiten', + 'knowledge-retrieval': 'Ermöglicht das Abfragen von Textinhalten in Bezug auf Benutzerfragen aus dem Wissen', + 'question-classifier': 'Definieren der Klassifizierungsbedingungen von Benutzerfragen, LLM kann basierend auf der Klassifizierungsbeschreibung festlegen, wie das Gespräch fortschreitet', + 'if-else': 'Ermöglicht das Aufteilen des Workflows in zwei Zweige basierend auf if/else-Bedingungen', + 'code': 'Ausführen eines Stücks Python- oder NodeJS-Code, um benutzerdefinierte Logik zu implementieren', + 'template-transform': 'Daten mithilfe der Jinja-Vorlagensyntax in einen String konvertieren', + 'http-request': 'Ermöglicht das Senden von Serveranfragen über das HTTP-Protokoll', + 'variable-assigner': 'Variablen in verschiedenen Zweigen derselben Variable zuweisen, um eine einheitliche Konfiguration von Nachknoten zu erreichen', + }, + operator: { + zoomIn: 'Vergrößern', + zoomOut: 'Verkleinern', + zoomTo50: 'Auf 50% zoomen', + zoomTo100: 'Auf 100% zoomen', + zoomToFit: 'An Fenstergröße anpassen', + }, + panel: { + userInputField: 'Benutzereingabefeld', + changeBlock: 'Block ändern', + helpLink: 'Hilfe-Link', + about: 'Über', + createdBy: 'Erstellt von', + nextStep: 'Nächster Schritt', + addNextStep: 'Fügen Sie den nächsten Block in diesem Workflow hinzu', + selectNextStep: 'Nächsten Block wählen', + runThisStep: 'Diesen Schritt ausführen', + checklist: 'Checkliste', + checklistTip: 'Stellen Sie sicher, dass alle Probleme gelöst sind, bevor Sie veröffentlichen', + checklistResolved: 'Alle Probleme gelöst', + organizeBlocks: 'Blöcke organisieren', + change: 'Ändern', + }, + nodes: { + common: { + outputVars: 'Ausgabevariablen', + insertVarTip: 'Variable einfügen', + memory: { + memory: 'Speicher', + memoryTip: 'Chat-Speichereinstellungen', + windowSize: 'Fenstergröße', + conversationRoleName: 'Gesprächsrollenname', + user: 'Benutzerprefix', + assistant: 'Assistentenprefix', + }, + memories: { + title: 'Erinnerungen', + tip: 'Chat-Speicher', + builtIn: 'Eingebaut', + }, + }, + start: { + required: 'erforderlich', + inputField: 'Eingabefeld', + builtInVar: 'Eingebaute Variablen', + outputVars: { + query: 'Benutzereingabe', + memories: { + des: 'Gesprächsverlauf', + type: 'Nachrichtentyp', + content: 'Nachrichteninhalt', + }, + files: 'Dateiliste', + }, + noVarTip: 'Legen Sie Eingaben fest, die im Workflow verwendet werden können', + }, + end: { + outputs: 'Ausgaben', + output: { + type: 'Ausgabetyp', + variable: 'Ausgabevariable', + }, + type: { + 'none': 'Keine', + 'plain-text': 'Klartext', + 'structured': 'Strukturiert', + }, + }, + answer: { + answer: 'Antwort', + outputVars: 'Ausgabevariablen', + }, + llm: { + model: 'Modell', + variables: 'Variablen', + context: 'Kontext', + contextTooltip: 'Sie können Wissen als Kontext importieren', + notSetContextInPromptTip: 'Um die Kontextfunktion zu aktivieren, füllen Sie bitte die Kontextvariable in PROMPT aus.', + prompt: 'Aufforderung', + roleDescription: { + system: 'Geben Sie hochrangige Anweisungen für das Gespräch', + user: 'Stellen Sie Anweisungen, Anfragen oder jegliche textbasierte Eingabe für das Modell bereit', + assistant: 'Die Antworten des Modells basierend auf den Benutzernachrichten', + }, + addMessage: 'Nachricht hinzufügen', + vision: 'Vision', + files: 'Dateien', + resolution: { + name: 'Auflösung', + high: 'Hoch', + low: 'Niedrig', + }, + outputVars: { + output: 'Inhalt generieren', + usage: 'Modellnutzungsinformation', + }, + singleRun: { + variable: 'Variable', + }, + }, + knowledgeRetrieval: { + queryVariable: 'Abfragevariable', + knowledge: 'Wissen', + outputVars: { + output: 'Abgerufene segmentierte Daten', + content: 'Segmentierter Inhalt', + title: 'Segmentierter Titel', + icon: 'Segmentiertes Symbol', + url: 'Segmentierte URL', + metadata: 'Weitere Metadaten', + }, + }, + http: { + inputVars: 'Eingabevariablen', + api: 'API', + apiPlaceholder: 'Geben Sie die URL ein, tippen Sie ‘/’, um eine Variable einzufügen', + notStartWithHttp: 'API sollte mit http:// oder https:// beginnen', + key: 'Schlüssel', + value: 'Wert', + bulkEdit: 'Massenbearbeitung', + keyValueEdit: 'Schlüssel-Wert-Bearbeitung', + headers: 'Kopfzeilen', + params: 'Parameter', + body: 'Körper', + outputVars: { + body: 'Antwortinhalt', + statusCode: 'Antwortstatuscode', + headers: 'Antwortkopfzeilenliste JSON', + files: 'Dateiliste', + }, + authorization: { + 'authorization': 'Autorisierung', + 'authorizationType': 'Autorisierungstyp', + 'no-auth': 'Keine', + 'api-key': 'API-Schlüssel', + 'auth-type': 'Authentifizierungstyp', + 'basic': 'Basic', + 'bearer': 'Bearer', + 'custom': 'Benutzerdefiniert', + 'api-key-title': 'API-Schlüssel', + 'header': 'Kopfzeile', + }, + insertVarPlaceholder: 'Tippen Sie ‘/’, um eine Variable einzufügen', + }, + code: { + inputVars: 'Eingabevariablen', + outputVars: 'Ausgabevariablen', + }, + templateTransform: { + inputVars: 'Eingabevariablen', + code: 'Code', + codeSupportTip: 'Unterstützt nur Jinja2', + outputVars: { + output: 'Transformierter Inhalt', + }, + }, + ifElse: { + if: 'Wenn', + else: 'Sonst', + elseDescription: 'Wird verwendet, um die Logik zu definieren, die ausgeführt werden soll, wenn die Wenn-Bedingung nicht erfüllt ist.', + and: 'und', + or: 'oder', + operator: 'Operator', + notSetVariable: 'Bitte zuerst Variable festlegen', + comparisonOperator: { + 'contains': 'enthält', + 'not contains': 'enthält nicht', + 'start with': 'beginnt mit', + 'end with': 'endet mit', + 'is': 'ist', + 'is not': 'ist nicht', + 'empty': 'ist leer', + 'not empty': 'ist nicht leer', + 'null': 'ist null', + 'not null': 'ist nicht null', + }, + enterValue: 'Wert eingeben', + addCondition: 'Bedingung hinzufügen', + conditionNotSetup: 'Bedingung NICHT eingerichtet', + }, + variableAssigner: { + title: 'Variablen zuweisen', + outputType: 'Ausgabetyp', + outputVarType: 'Ausgabevariablentyp', + varNotSet: 'Variable nicht gesetzt', + noVarTip: 'Fügen Sie die zuzuweisenden Variablen hinzu', + type: { + string: 'Zeichenkette', + number: 'Zahl', + object: 'Objekt', + array: 'Array', + }, + outputVars: { + output: 'Zugewiesener Variablenwert', + }, + }, + tool: { + toAuthorize: 'Zur Autorisierung', + inputVars: 'Eingabevariablen', + outputVars: { + text: 'vom Werkzeug generierter Inhalt', + files: { + title: 'vom Werkzeug generierte Dateien', + type: 'Unterstützter Typ. Aktuell nur Bild unterstützt', + transfer_method: 'Übertragungsmethode. Wert ist remote_url oder local_file', + url: 'Bild-URL', + upload_file_id: 'Hochgeladene Datei-ID', + }, + }, + }, + questionClassifiers: { + model: 'Modell', + inputVars: 'Eingabevariablen', + class: 'Klasse', + classNamePlaceholder: 'Schreiben Sie Ihren Klassennamen', + advancedSetting: 'Erweiterte Einstellung', + topicName: 'Themenname', + topicPlaceholder: 'Schreiben Sie Ihren Themenname', + addClass: 'Klasse hinzufügen', + instruction: 'Anweisung', + instructionPlaceholder: 'Schreiben Sie Ihre Anweisung', + }, + }, + tracing: { + stopBy: 'Angehalten von {{user}}', + }, +} + +export default translation diff --git a/web/i18n/language.ts b/web/i18n/language.ts index f885289e07931f..c955d018d45beb 100644 --- a/web/i18n/language.ts +++ b/web/i18n/language.ts @@ -17,12 +17,13 @@ export type I18nText = { 'it-IT': string 'uk-UA': string 'vi-VN': string + 'de_DE': string } export const languages = [ { value: 'en-US', - name: 'English(United States)', + name: 'English (United States)', example: 'Hello, Dify!', supported: true, }, @@ -34,55 +35,55 @@ export const languages = [ }, { value: 'pt-BR', - name: 'Português(Brasil)', + name: 'Português (Brasil)', example: 'Olá, Dify!', supported: true, }, { value: 'es-ES', - name: 'Español(España)', + name: 'Español (España)', example: 'Saluton, Dify!', supported: false, }, { value: 'fr-FR', - name: 'Français(France)', + name: 'Français (France)', example: 'Bonjour, Dify!', supported: true, }, { value: 'de-DE', - name: 'Deutsch(Deutschland)', + name: 'Deutsch (Deutschland)', example: 'Hallo, Dify!', - supported: false, + supported: true, }, { value: 'ja-JP', - name: '日本語(日本)', + name: '日本語 (日本)', example: 'こんにちは、Dify!', supported: true, }, { value: 'ko-KR', - name: '한국어(대한민국)', + name: '한국어 (대한민국)', example: '안녕, Dify!', supported: false, }, { value: 'ru-RU', - name: 'Русский(Россия)', + name: 'Русский (Россия)', example: ' Привет, Dify!', supported: false, }, { value: 'it-IT', - name: 'Italiano(Italia)', + name: 'Italiano (Italia)', example: 'Ciao, Dify!', supported: false, }, { value: 'th-TH', - name: 'ไทย(ประเทศไทย)', + name: 'ไทย (ประเทศไทย)', example: 'สวัสดี Dify!', supported: false, }, @@ -94,13 +95,13 @@ export const languages = [ }, { value: 'uk-UA', - name: 'Українська(Україна)', + name: 'Українська (Україна)', example: 'Привет, Dify!', supported: true, }, { value: 'vi-VN', - name: 'Tiếng Việt(Việt Nam)', + name: 'Tiếng Việt (Việt Nam)', example: 'Xin chào, Dify!', supported: true, }, From 0f897bc1f920b02551b867efe772dc2c0a167def Mon Sep 17 00:00:00 2001 From: Lao Date: Wed, 10 Apr 2024 22:20:14 +0800 Subject: [PATCH 4/4] feat: add missing workflow i18n keys (#3309) Co-authored-by: lbm21 <313338264@qq.com> --- web/app/components/workflow/run/node.tsx | 6 +++--- web/app/components/workflow/run/result-panel.tsx | 8 +++++--- web/i18n/en-US/workflow.ts | 3 +++ web/i18n/fr-FR/workflow.ts | 3 +++ web/i18n/ja-JP/workflow.ts | 3 +++ web/i18n/pt-BR/workflow.ts | 3 +++ web/i18n/uk-UA/workflow.ts | 3 +++ web/i18n/vi-VN/workflow.ts | 3 +++ web/i18n/zh-Hans/workflow.ts | 3 +++ 9 files changed, 29 insertions(+), 6 deletions(-) diff --git a/web/app/components/workflow/run/node.tsx b/web/app/components/workflow/run/node.tsx index e9017907c60702..237ac1c3ded6f6 100644 --- a/web/app/components/workflow/run/node.tsx +++ b/web/app/components/workflow/run/node.tsx @@ -96,7 +96,7 @@ const NodePanel: FC = ({ nodeInfo, hideInfo = false }) => {
INPUT
} + title={
{t('workflow.common.input').toLocaleUpperCase()}
} language={CodeLanguage.json} value={nodeInfo.inputs} isJSONStringifyBeauty @@ -107,7 +107,7 @@ const NodePanel: FC = ({ nodeInfo, hideInfo = false }) => {
PROCESS DATA
} + title={
{t('workflow.common.processData').toLocaleUpperCase()}
} language={CodeLanguage.json} value={nodeInfo.process_data} isJSONStringifyBeauty @@ -118,7 +118,7 @@ const NodePanel: FC = ({ nodeInfo, hideInfo = false }) => {
OUTPUT
} + title={
{t('workflow.common.output').toLocaleUpperCase()}
} language={CodeLanguage.json} value={nodeInfo.outputs} isJSONStringifyBeauty diff --git a/web/app/components/workflow/run/result-panel.tsx b/web/app/components/workflow/run/result-panel.tsx index 09e90de51e0c34..187ee5d55b2d03 100644 --- a/web/app/components/workflow/run/result-panel.tsx +++ b/web/app/components/workflow/run/result-panel.tsx @@ -1,5 +1,6 @@ 'use client' import type { FC } from 'react' +import { useTranslation } from 'react-i18next' import StatusPanel from './status' import MetaData from './meta' import CodeEditor from '@/app/components/workflow/nodes/_base/components/editor/code-editor' @@ -33,6 +34,7 @@ const ResultPanel: FC = ({ steps, showSteps, }) => { + const { t } = useTranslation() return (
@@ -46,7 +48,7 @@ const ResultPanel: FC = ({
INPUT
} + title={
{t('workflow.common.input').toLocaleUpperCase()}
} language={CodeLanguage.json} value={inputs} isJSONStringifyBeauty @@ -54,7 +56,7 @@ const ResultPanel: FC = ({ {process_data && ( PROCESS DATA
} + title={
{t('workflow.common.processData').toLocaleUpperCase()}
} language={CodeLanguage.json} value={process_data} isJSONStringifyBeauty @@ -63,7 +65,7 @@ const ResultPanel: FC = ({ {(outputs || status === 'running') && ( OUTPUT
} + title={
{t('workflow.common.output').toLocaleUpperCase()}
} language={CodeLanguage.json} value={outputs} isJSONStringifyBeauty diff --git a/web/i18n/en-US/workflow.ts b/web/i18n/en-US/workflow.ts index 6c4b5f70302d23..949fcb061a30db 100644 --- a/web/i18n/en-US/workflow.ts +++ b/web/i18n/en-US/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: 'The variable is used in other nodes. Do you still want to remove it?', }, insertVarTip: 'Press the \'/\' key to insert quickly', + processData: 'Process Data', + input: 'Input', + output: 'Output', }, errorMsg: { fieldRequired: '{{field}} is required', diff --git a/web/i18n/fr-FR/workflow.ts b/web/i18n/fr-FR/workflow.ts index 3baaf2ffc37609..a25c194254b831 100644 --- a/web/i18n/fr-FR/workflow.ts +++ b/web/i18n/fr-FR/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: 'La variable est utilisée dans d\'autres nœuds. Voulez-vous toujours la supprimer ?', }, insertVarTip: 'Appuyez sur la touche \'/\' pour insérer rapidement', + processData: 'Traiter les données', + input: 'Entrée', + output: 'Sortie', }, errorMsg: { fieldRequired: '{{field}} est requis', diff --git a/web/i18n/ja-JP/workflow.ts b/web/i18n/ja-JP/workflow.ts index 21905f7bd36d26..fe135fec8af10c 100644 --- a/web/i18n/ja-JP/workflow.ts +++ b/web/i18n/ja-JP/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: '他のノードで変数が使用されています。それでも削除しますか?', }, insertVarTip: 'クイック挿入のために\'/\'キーを押します', + processData: 'データ処理', + input: '入力', + output: '出力', }, errorMsg: { fieldRequired: '{{field}}は必須です', diff --git a/web/i18n/pt-BR/workflow.ts b/web/i18n/pt-BR/workflow.ts index 2e07f45de9979f..20a19039030bed 100644 --- a/web/i18n/pt-BR/workflow.ts +++ b/web/i18n/pt-BR/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: 'A variável está sendo usada em outros nós. Deseja removê-la mesmo assim?', }, insertVarTip: 'Pressione a tecla \'/\' para inserir rapidamente', + processData: 'Processar dados', + input: 'Entrada', + output: 'Saída', }, errorMsg: { fieldRequired: '{{field}} é obrigatório', diff --git a/web/i18n/uk-UA/workflow.ts b/web/i18n/uk-UA/workflow.ts index 9816544ad7941b..c4e1ea7aa4fe2f 100644 --- a/web/i18n/uk-UA/workflow.ts +++ b/web/i18n/uk-UA/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: 'Цю змінну використовується в інших вузлах. Ви все ще хочете її видалити?', }, insertVarTip: 'Натисніть клавішу "/" для швидкого вставлення', + processData: 'Обробка даних', + input: 'Вхід', + output: 'Вихід', }, errorMsg: { fieldRequired: '{{field}} є обов\'язковим', diff --git a/web/i18n/vi-VN/workflow.ts b/web/i18n/vi-VN/workflow.ts index 2192d0d64904f9..4bb964db697a8e 100644 --- a/web/i18n/vi-VN/workflow.ts +++ b/web/i18n/vi-VN/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: 'Biến được sử dụng trong các nút khác. Bạn vẫn muốn xóa nó?', }, insertVarTip: 'Nhấn phím \'/\' để chèn nhanh', + processData: 'Xử lý dữ liệu', + input: 'Nhập', + output: 'Đầu ra', }, errorMsg: { fieldRequired: '{{field}} là bắt buộc', diff --git a/web/i18n/zh-Hans/workflow.ts b/web/i18n/zh-Hans/workflow.ts index 22113b1332fbfe..2805c59fa4568e 100644 --- a/web/i18n/zh-Hans/workflow.ts +++ b/web/i18n/zh-Hans/workflow.ts @@ -46,6 +46,9 @@ const translation = { content: '该变量在其他节点中使用。您是否仍要删除它?', }, insertVarTip: '按 \'/\' 键快速插入', + processData: '数据处理', + input: '输入', + output: '输出', }, errorMsg: { fieldRequired: '{{field}} 不能为空',