From da53a37b98b1cd0b2b7cbdcdd3f4baeaa12d843f Mon Sep 17 00:00:00 2001 From: crazywoola <100913391+crazywoola@users.noreply.github.com> Date: Mon, 11 Mar 2024 13:01:53 +0800 Subject: [PATCH] doc: refine docs (#41) --- zh_CN/guides/model-configuration/ollama.md | 5 +---- 1 file changed, 1 insertion(+), 4 deletions(-) diff --git a/zh_CN/guides/model-configuration/ollama.md b/zh_CN/guides/model-configuration/ollama.md index dedeed5..ec28011 100644 --- a/zh_CN/guides/model-configuration/ollama.md +++ b/zh_CN/guides/model-configuration/ollama.md @@ -65,8 +65,6 @@ Dify 支持接入 Ollama 部署的大型语言模型推理和 embedding 能力 如需获取 Ollama 更多信息,请参考:[https://github.com/jmorganca/ollama](https://github.com/jmorganca/ollama) -以下是上述内容的中文翻译: - ### 在Linux上设置环境变量 如果Ollama作为systemd服务运行,应该使用`systemctl`设置环境变量: @@ -103,7 +101,6 @@ Dify 支持接入 Ollama 部署的大型语言模型推理和 embedding 能力 5. 在一个新的终端窗口运行`ollama` - -## 如何在我的网络上暴露Ollama? +### 如何在我的网络上暴露Ollama? Ollama默认绑定127.0.0.1端口11434。通过`OLLAMA_HOST`环境变量更改绑定地址。 \ No newline at end of file