diff --git a/zh_CN/.gitbook/assets/image (1) (1) (1) (1).png b/zh_CN/.gitbook/assets/image (1) (1) (1) (1).png new file mode 100644 index 0000000..c1d4744 Binary files /dev/null and b/zh_CN/.gitbook/assets/image (1) (1) (1) (1).png differ diff --git a/zh_CN/.gitbook/assets/image (1) (1) (1).png b/zh_CN/.gitbook/assets/image (1) (1) (1).png index c1d4744..bdecbd1 100644 Binary files a/zh_CN/.gitbook/assets/image (1) (1) (1).png and b/zh_CN/.gitbook/assets/image (1) (1) (1).png differ diff --git a/zh_CN/.gitbook/assets/image (1) (1).png b/zh_CN/.gitbook/assets/image (1) (1).png index bdecbd1..4874bed 100644 Binary files a/zh_CN/.gitbook/assets/image (1) (1).png and b/zh_CN/.gitbook/assets/image (1) (1).png differ diff --git a/zh_CN/.gitbook/assets/image (1).png b/zh_CN/.gitbook/assets/image (1).png index 4874bed..c8088e9 100644 Binary files a/zh_CN/.gitbook/assets/image (1).png and b/zh_CN/.gitbook/assets/image (1).png differ diff --git a/zh_CN/.gitbook/assets/image.png b/zh_CN/.gitbook/assets/image.png index c8088e9..1da7919 100644 Binary files a/zh_CN/.gitbook/assets/image.png and b/zh_CN/.gitbook/assets/image.png differ diff --git a/zh_CN/advanced/model-configuration/README.md b/zh_CN/advanced/model-configuration/README.md index 8d2a62c..6be0872 100644 --- a/zh_CN/advanced/model-configuration/README.md +++ b/zh_CN/advanced/model-configuration/README.md @@ -81,4 +81,4 @@ Dify 使用了 [PKCS1\_OAEP](https://pycryptodome.readthedocs.io/en/latest/src/c 配置完模型后,就可以在应用中使用这些模型了: -
+
diff --git a/zh_CN/advanced/model-configuration/xinference.md b/zh_CN/advanced/model-configuration/xinference.md index 512907f..7923986 100644 --- a/zh_CN/advanced/model-configuration/xinference.md +++ b/zh_CN/advanced/model-configuration/xinference.md @@ -45,30 +45,21 @@ docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' 容 Xinference 默认会在本地启动一个 worker,端点为:`http://127.0.0.1:9997`,端口默认为 `9997`。 默认只可本机访问,可配置 `-H 0.0.0.0`,非本地客户端可任意访问。 如需进一步修改 host 或 port,可查看 xinference 的帮助信息:`xinference-local --help`。 3. 创建并部署模型 - 进入 `http://127.0.0.1:9997` 选择需要部署的模型和规格,点击 `Create` 即可创建并部署模型,如下图所示: + 进入 `http://127.0.0.1:9997` 选择需要部署的模型和规格进行部署,如下图所示: -
+
由于不同模型在不同硬件平台兼容性不同,请查看 [Xinference 内置模型](https://inference.readthedocs.io/en/latest/models/builtin/index.html) 确定创建的模型是否支持当前硬件平台。 4. 获取模型 UID - 回到命令行界面,输入: - - ```bash - $ xinference-local list - UID Type Name Format Size (in billions) Quantization - ------------------------------------ ------ ----------- -------- -------------------- -------------- - a9e4d530-3f4b-11ee-a9b9-e6608f0bd69a LLM vicuna-v1.3 ggmlv3 7 q2_K - ``` - - 第一列即为第 3 步创建的模型 UID,如上面为 `a9e4d530-3f4b-11ee-a9b9-e6608f0bd69a`。 + 从上图所在页面获取对应模型的 ID,如:`2c886330-8849-11ee-9518-43b0b8f40bea` 5. 模型部署完毕,在 Dify 中使用接入模型 在 `设置 > 模型供应商 > Xinference` 中填入: * 模型名称:`vicuna-v1.3` * 服务器 URL:`http://127.0.0.1:9997` - * 模型 UID:`a9e4d530-3f4b-11ee-a9b9-e6608f0bd69a` + * 模型 UID:`2c886330-8849-11ee-9518-43b0b8f40bea` "保存" 后即可在应用中使用该模型。 diff --git a/zh_CN/advanced/retrieval-augment/rerank.md b/zh_CN/advanced/retrieval-augment/rerank.md index 49fa2cf..5dc1935 100644 --- a/zh_CN/advanced/retrieval-augment/rerank.md +++ b/zh_CN/advanced/retrieval-augment/rerank.md @@ -39,7 +39,7 @@ Dify 目前已支持 Cohere Rerank 模型,通过进入“模型供应商-> Coh 通过进入“数据集->创建数据集->检索设置”页面并在添加 Rerank 设置。除了在创建数据集可以设置 Rerank ,你也可以在已创建的数据集设置内更改 Rerank 配置,在应用编排的数据集召回模式设置中更改 Rerank 配置。 -

数据集检索模式中设置 Rerank 模型

+

数据集检索模式中设置 Rerank 模型

**TopK:**用于设置 Rerank 后返回相关文档的数量。 @@ -52,4 +52,4 @@ Dify 目前已支持 Cohere Rerank 模型,通过进入“模型供应商-> Coh 关于多路召回模式的说明:🔗 -

数据集多路召回模式中设置 Rerank 模型

+

数据集多路召回模式中设置 Rerank 模型

diff --git a/zh_CN/getting-started/faq/llms-use-faq.md b/zh_CN/getting-started/faq/llms-use-faq.md index a239354..e01d1a9 100644 --- a/zh_CN/getting-started/faq/llms-use-faq.md +++ b/zh_CN/getting-started/faq/llms-use-faq.md @@ -125,7 +125,7 @@ Query or prefix prompt is too long, you can reduce the preix prompt, or shrink t 如下方表格示例,仅需保留第二行的表头,首行(表格1)为多余表头,需删掉。 -
+
### 20 买了 ChatGPT plus,为什么在 dify 里还不能使用 GPT4?