@@ -4,37 +4,38 @@ SERVER_PORT=5001
4
4
#Timezone
5
5
TZ=Asia/Shanghai
6
6
7
- #大模型供应商配置,支持 zhipuai , openai , deepseek or ollama
8
- LLM_PROVIDER=qwen
7
+ #大模型供应商配置,支持 deepseek , openai,zhipuai,qwen 和 ollama
8
+ LLM_PROVIDER=deepseek
9
9
10
- #ZhipuAI settings
11
- ZHIPUAI_API_KEY=xxxx
12
- ZHIPUAI_API_MODEL=GLM-4-Flash
10
+ #DeepSeek settings
11
+ DEEPSEEK_API_KEY=
12
+ DEEPSEEK_API_BASE_URL=https://api.deepseek.com
13
+ DEEPSEEK_API_MODEL=deepseek-chat
13
14
14
15
#OpenAI settings
15
16
OPENAI_API_KEY=xxxx
16
17
OPENAI_API_BASE_URL=https://api.openai.com
17
18
OPENAI_API_MODEL=gpt-4o-mini
18
19
20
+ #ZhipuAI settings
21
+ ZHIPUAI_API_KEY=xxxx
22
+ ZHIPUAI_API_MODEL=GLM-4-Flash
23
+
19
24
#Qwen settings
20
25
QWEN_API_KEY=sk-xxx
21
26
QWEN_API_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
22
27
QWEN_API_MODEL=qwen-coder-plus
23
28
24
- #DeepSeek settings
25
- DEEPSEEK_API_KEY=
26
- DEEPSEEK_API_BASE_URL=https://api.deepseek.com
27
- DEEPSEEK_API_MODEL=deepseek-chat
28
-
29
29
#OllaMA settings; 注意: 如果使用 Docker 部署,127.0.0.1 指向的是容器内部的地址。请将其替换为实际的 Ollama服务器IP地址。
30
30
#OLLAMA_API_BASE_URL=http://127.0.0.1:11434
31
31
OLLAMA_API_BASE_URL=http://host.docker.internal:11434
32
32
OLLAMA_API_MODEL=deepseek-r1:latest
33
33
34
34
#支持review的文件类型
35
- SUPPORTED_EXTENSIONS=.java,.py,.php,.yml,.vue,.go,.c,.cpp,.h,.js,.css,.md,.sql
35
+ SUPPORTED_EXTENSIONS=.c,.cc,.cpp,.css,.go,.h,.java,.js,.md,.php,.py,.sql,.vue,.yml
36
+ #每次 Review 的最大 Token 限制(超出部分自动截断)
36
37
REVIEW_MAX_TOKENS=10000
37
- #Review风格,支持professional| sarcastic| gentle| humorous
38
+ #Review 风格选项:professional(专业) | sarcastic(毒舌) | gentle(温和) | humorous(幽默)
38
39
REVIEW_STYLE=professional
39
40
40
41
#钉钉配置
0 commit comments