diff --git a/zh_CN/.gitbook/assets/moderation_settings.png b/zh_CN/.gitbook/assets/moderation_settings.png
new file mode 100644
index 0000000..4d7d9b9
Binary files /dev/null and b/zh_CN/.gitbook/assets/moderation_settings.png differ
diff --git a/zh_CN/.gitbook/assets/moderation_tet.png b/zh_CN/.gitbook/assets/moderation_tet.png
new file mode 100644
index 0000000..dccc45a
Binary files /dev/null and b/zh_CN/.gitbook/assets/moderation_tet.png differ
diff --git a/zh_CN/application/prompt-engineering/moderation_tool.md b/zh_CN/application/prompt-engineering/moderation_tool.md
index 6d4f7a5..aca690d 100644
--- a/zh_CN/application/prompt-engineering/moderation_tool.md
+++ b/zh_CN/application/prompt-engineering/moderation_tool.md
@@ -20,4 +20,9 @@ OpenAI 和大多数 LLM 公司提供的模型,都带有内容审查功能,
不同的企业内部往往有着不同的敏感词审查机制,企业在开发自己的 AI 应用如企业内部知识库 ChatBot,需要对员工输入的查询内容作敏感词审查。为此,开发者可以根据自己企业内部的敏感词审查机制写一个 API 扩展,具体可参考 [moderation.md](../../advanced/extension/api\_based\_extension/moderation.md "mention"),从而在 Dify 上调用,实现敏感词审查的高度自定义和隐私保护。
-
Moderation 扩展
+
Moderation Settings
+
+比如我们在自己的本地服务中自定义敏感词审查规则:不能查询有关美国总统的名字的问题。当用户在`query`变量输入"Trump",则在对话时会返回 "Your content violates our usage policy." 测试效果如下:
+
+
Moderation Test
+