diff --git a/zh_CN/.gitbook/assets/image (1) (1) (1) (1).png b/zh_CN/.gitbook/assets/image (1) (1) (1) (1).png
new file mode 100644
index 0000000..c1d4744
Binary files /dev/null and b/zh_CN/.gitbook/assets/image (1) (1) (1) (1).png differ
diff --git a/zh_CN/.gitbook/assets/image (1) (1) (1).png b/zh_CN/.gitbook/assets/image (1) (1) (1).png
index c1d4744..bdecbd1 100644
Binary files a/zh_CN/.gitbook/assets/image (1) (1) (1).png and b/zh_CN/.gitbook/assets/image (1) (1) (1).png differ
diff --git a/zh_CN/.gitbook/assets/image (1) (1).png b/zh_CN/.gitbook/assets/image (1) (1).png
index bdecbd1..4874bed 100644
Binary files a/zh_CN/.gitbook/assets/image (1) (1).png and b/zh_CN/.gitbook/assets/image (1) (1).png differ
diff --git a/zh_CN/.gitbook/assets/image (1).png b/zh_CN/.gitbook/assets/image (1).png
index 4874bed..c8088e9 100644
Binary files a/zh_CN/.gitbook/assets/image (1).png and b/zh_CN/.gitbook/assets/image (1).png differ
diff --git a/zh_CN/.gitbook/assets/image.png b/zh_CN/.gitbook/assets/image.png
index c8088e9..1da7919 100644
Binary files a/zh_CN/.gitbook/assets/image.png and b/zh_CN/.gitbook/assets/image.png differ
diff --git a/zh_CN/advanced/model-configuration/README.md b/zh_CN/advanced/model-configuration/README.md
index 8d2a62c..6be0872 100644
--- a/zh_CN/advanced/model-configuration/README.md
+++ b/zh_CN/advanced/model-configuration/README.md
@@ -81,4 +81,4 @@ Dify 使用了 [PKCS1\_OAEP](https://pycryptodome.readthedocs.io/en/latest/src/c
配置完模型后,就可以在应用中使用这些模型了:
-
+
diff --git a/zh_CN/advanced/model-configuration/xinference.md b/zh_CN/advanced/model-configuration/xinference.md
index 512907f..7923986 100644
--- a/zh_CN/advanced/model-configuration/xinference.md
+++ b/zh_CN/advanced/model-configuration/xinference.md
@@ -45,30 +45,21 @@ docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' 容
Xinference 默认会在本地启动一个 worker,端点为:`http://127.0.0.1:9997`,端口默认为 `9997`。 默认只可本机访问,可配置 `-H 0.0.0.0`,非本地客户端可任意访问。 如需进一步修改 host 或 port,可查看 xinference 的帮助信息:`xinference-local --help`。
3. 创建并部署模型
- 进入 `http://127.0.0.1:9997` 选择需要部署的模型和规格,点击 `Create` 即可创建并部署模型,如下图所示:
+ 进入 `http://127.0.0.1:9997` 选择需要部署的模型和规格进行部署,如下图所示:
-
+
由于不同模型在不同硬件平台兼容性不同,请查看 [Xinference 内置模型](https://inference.readthedocs.io/en/latest/models/builtin/index.html) 确定创建的模型是否支持当前硬件平台。
4. 获取模型 UID
- 回到命令行界面,输入:
-
- ```bash
- $ xinference-local list
- UID Type Name Format Size (in billions) Quantization
- ------------------------------------ ------ ----------- -------- -------------------- --------------
- a9e4d530-3f4b-11ee-a9b9-e6608f0bd69a LLM vicuna-v1.3 ggmlv3 7 q2_K
- ```
-
- 第一列即为第 3 步创建的模型 UID,如上面为 `a9e4d530-3f4b-11ee-a9b9-e6608f0bd69a`。
+ 从上图所在页面获取对应模型的 ID,如:`2c886330-8849-11ee-9518-43b0b8f40bea`
5. 模型部署完毕,在 Dify 中使用接入模型
在 `设置 > 模型供应商 > Xinference` 中填入:
* 模型名称:`vicuna-v1.3`
* 服务器 URL:`http://127.0.0.1:9997`
- * 模型 UID:`a9e4d530-3f4b-11ee-a9b9-e6608f0bd69a`
+ * 模型 UID:`2c886330-8849-11ee-9518-43b0b8f40bea`
"保存" 后即可在应用中使用该模型。
diff --git a/zh_CN/advanced/retrieval-augment/rerank.md b/zh_CN/advanced/retrieval-augment/rerank.md
index 49fa2cf..5dc1935 100644
--- a/zh_CN/advanced/retrieval-augment/rerank.md
+++ b/zh_CN/advanced/retrieval-augment/rerank.md
@@ -39,7 +39,7 @@ Dify 目前已支持 Cohere Rerank 模型,通过进入“模型供应商-> Coh
通过进入“数据集->创建数据集->检索设置”页面并在添加 Rerank 设置。除了在创建数据集可以设置 Rerank ,你也可以在已创建的数据集设置内更改 Rerank 配置,在应用编排的数据集召回模式设置中更改 Rerank 配置。
-数据集检索模式中设置 Rerank 模型
+数据集检索模式中设置 Rerank 模型
**TopK:**用于设置 Rerank 后返回相关文档的数量。
@@ -52,4 +52,4 @@ Dify 目前已支持 Cohere Rerank 模型,通过进入“模型供应商-> Coh
关于多路召回模式的说明:🔗
-数据集多路召回模式中设置 Rerank 模型
+数据集多路召回模式中设置 Rerank 模型
diff --git a/zh_CN/getting-started/faq/llms-use-faq.md b/zh_CN/getting-started/faq/llms-use-faq.md
index a239354..e01d1a9 100644
--- a/zh_CN/getting-started/faq/llms-use-faq.md
+++ b/zh_CN/getting-started/faq/llms-use-faq.md
@@ -125,7 +125,7 @@ Query or prefix prompt is too long, you can reduce the preix prompt, or shrink t
如下方表格示例,仅需保留第二行的表头,首行(表格1)为多余表头,需删掉。
-
+
### 20 买了 ChatGPT plus,为什么在 dify 里还不能使用 GPT4?