用 Docker 在 Xeon 上部署 Ollama,整合 n8n 與繁體中文語言處理
發佈於 2025年5月7日 (最後修改於 2025年5月31日) • 2 分鐘 閱讀 • 563 字完整紀錄如何使用 Ollama 在本地部署 LLM 推論服務,並與 n8n 整合以自動生成內容與翻譯,並處理語言地區設定。
llama3
, mistral
等,根據任務自動切換version: '3.9'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
restart: always
ports:
- "11434:11434"
volumes:
- ollama_data:/root/.ollama
command: serve
deploy:
resources:
limits:
cpus: "3.0"
volumes:
ollama_data:
啟動服務:
docker compose up -d
--no-ui
導致重啟
Error: unknown flag: --no-ui
改為:
command: serve
const prompt = $json.prompt.toLowerCase();
let model = "gemma";
if (prompt.includes("翻譯") || prompt.includes("英文")) {
model = "mistral";
} else if (prompt.includes("貼文") || prompt.includes("post")) {
model = "llama3";
}
return [{ json: { ...$json, model } }];
POST http://192.168.50.13:11434/api/generate
Content-Type: application/json
{
"model": "{{ $json.model }}",
"prompt": "{{ $json.prompt }}"
}
return {
prompt: `你是台灣的助理,請使用繁體中文回覆以下問題:${$json["question"]}`
};
或使用聊天格式:
[
{
"role": "system",
"content": "你是來自台灣的繁體中文語言助理,所有回應請使用自然的繁體中文。"
},
{
"role": "user",
"content": "請問什麼是 LLM?"
}
]