Windows本地部署Coze

文章内容

  • Coze vs N8N vs Dify 分析
  • 本地部署Coze的准备工作
  • 获取Coze源码
  • 本地部署流程——使用火山引擎模型
  • 本地部署流程——使用本地Ollama
  • 测试本地模型调用

Coze vs N8N vs Dify 分析

对比维度n8nDifyCoze
核心定位开源工作流自动化平台,专注于跨系统集成与API连接AI应用开发平台,专注于LLM应用的全生命周期管理(RAG、Agent、LLMOps)零代码智能体开发平台,快速构建对话机器人并发布至社交平台
核心功能节点式流程编排、400+应用集成、自定义JavaScript/Python代码可视化Prompt编排、多模型支持、知识库管理、Agent工作流、LLMOps监控拖拽式Bot搭建、多模态插件、知识库、长期记忆、定时任务
开源情况核心代码开源(Apache 2.0),企业版需付费核心开源(Fair Code 协议),企业版闭源核心开源(Apache 2.0 + 附加协议),企业版提供高级功能(定制报价)
部署方式支持自托管(Docker/K8s)及云托管支持自托管(需配置模型资源)及云服务支持自托管(Docker/K8s)及云托管
成本模型社区版免费;企业版按用户或执行次数收费开源版免费;企业版按需付费(模型调用、私有部署)免费额度+付费订阅(按调用量或功能分级)
技术门槛高(需API/JavaScript基础,适合开发者)中(需理解AI概念,适合技术团队)低(零代码,适合非技术人员)
优势集成能力强、数据自主可控、高度灵活企业级RAG精度高、多模型热切换、生产级稳定性字节生态集成、开发速度快、模板丰富
局限AI功能需插件扩展、中文资源少学习曲线陡峭、模型调用成本自负知识库能力较弱、自定义能力有限
典型场景数据同步、IT自动化、跨系统业务流程智能客服、知识库问答、内容生成工具社交媒体机器人、轻量级客服、个人助手

准备工作

开启Windows功能

设置路径:控制面板-程序-启用或关闭Windows功能
勾线以下功能:

  • Hyper-V
  • Windows虚拟机监控程序平台
  • 容器
  • 适用于Linux的Windows子系统

安装Git

下载地址:https://git-scm.com/install/windows
注意:

  • 选择 “Git for Windows/x64 Setup”

安装Docker

下载地址:https://www.docker.com/
注意:

  • Windows平台需要区分AMD64 和 ARM64
  • Docker安装完成后会强制系统重新启动
  • 重启后第一次启动Docker会自动下载wsl
  • 下载镜像前先修改本地镜像储存位置
  • 设置路径:DockerDesktop - 设置(右上角齿轮图标) - Resources - Disk image location
  • 点击 Browse 选择新的储存位置

获取源码

从 GitHub 克隆仓库

git clone https://github.com/coze-dev/coze-studio.git

国内用户可使用镜像加速

git clone https://gitee.com/mirrors_coze/coze-studio.git

本地部署流程

方案一:使用火山引擎模型

1.登录火山引擎控制台,进入火山方舟 → API Key 管理创建 API Key。

2.在在线推理页面创建自定义推理接入点,选择目标模型(如DeepSeek-V3.1),获取 Endpoint ID。

3.重命名配置文件

coze-studio\docker\.env.examplecoze-studio\docker\.env

4.根据需要修改docker-compose(修改完成后务必需要符合yaml语法格式)

# 修改MYSQL端口,将默认的3306修改为其他端口(可选)
# 需要去除行首注释
ports:
- '33060'

5.复制模型模板文件(修改完成后务必需要符合yaml语法格式)

  • 进入模型目录coze-studio\backend\conf\model\template
  • 随便选一个模型,比如我这里选择model_template_ark_volc_deepseek-v3.yaml
  • 将此文件复制到coze-studio\backend\conf\model\
  • 修改model_template_ark_volc_deepseek-v3.yaml 中的ID和KEY
api_key: "填入在浏览器注册的AEY"
model: "填入在浏览器注册的ID(ep- 开头的字符串)" # model_id / endpoint_id

启动集群

  1. 进入目录coze-studio\docker
  2. 在地址栏输入CMD启动命令提示符
# 启动
docker compose --profile '*' up -d

# 如果需要停止可以使用
# docker compose down
# 或
# docker compose down -v

登陆WEB

  1. 浏览器访问 http://127.0.0.1:8888/
  2. 输入邮箱和密码,点击注册

方案二:使用本地Ollama

假设你已经安装完成Ollama 如果没有安装参考此文章 Windows 中部署Ollama和常用命令

查看ollama模型

ollama list
NAME ID SIZE MODIFIED
qwen3:8b 500a1f067a9f 5.2 GB 34 minutes ago

复制模型模板文件(修改完成后务必需要符合yaml语法格式)

  • 进入模型目录coze-studio\backend\conf\model\template
  • 选择model_template_ollama.yaml
  • 将此文件复制到coze-studio\backend\conf\model\
  • model_template_ollama.yaml 修改为 model_template_ollama-qwen3-8b.yaml
  • 修改model_template_ollama-qwen3-8b.yaml 中的id、name、model
id: 1001 #(必须修改)此处需修改为全局唯一,且不为0的正整数
name: qwen3:8b #(可选修改) 修改为一个在coze中可以直接查看的名称
icon_uri: default_icon/ollama.png
icon_url: ""
description:
zh: ollama 模型简介
en: ollama model description
default_parameters:
- name: temperature
label:
zh: 生成随机性
en: Temperature
desc:
zh: '- **temperature**: 调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与“Top p”同时调整。'
en: '**Temperature**:\n\n- When you increase this value, the model outputs more diverse and innovative content; when you decrease it, the model outputs less diverse content that strictly follows the given instructions.\n- It is recommended not to adjust this value with \"Top p\" at the same time.'
type: float
min: "0"
max: "1"
default_val:
balance: "0.8"
creative: "1"
default_val: "1.0"
precise: "0.3"
precision: 1
options: []
style:
widget: slider
label:
zh: 生成多样性
en: Generation diversity
- name: max_tokens
label:
zh: 最大回复长度
en: Response max length
desc:
zh: 控制模型输出的Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。
en: You can specify the maximum length of the tokens output through this value. Typically, 100 tokens are approximately equal to 150 Chinese characters.
type: int
min: "1"
max: "4096"
default_val:
default_val: "4096"
options: []
style:
widget: slider
label:
zh: 输入及输出设置
en: Input and output settings
meta:
protocol: ollama
capability:
function_call: true
input_modal:
- text
input_tokens: 128000
json_mode: false
max_tokens: 128000
output_modal:
- text
output_tokens: 16384
prefix_caching: false
reasoning: false
prefill_response: false
conn_config:
base_url: "http://host.docker.internal:11434" #(不用修改)
api_key: "" # (不用修改)
timeout: 0s
model: "qwen3:8b" #(必须修改)ollama list中的模型名称
temperature: 0.6
frequency_penalty: 0
presence_penalty: 0
max_tokens: 4096
enable_base64_url: false
top_p: 0.95
top_k: 20
stop: []
custom: {}
status: 0

启动集群

  1. 进入目录coze-studio\docker
  2. 在地址栏输入CMD启动命令提示符
# 启动
docker compose --profile '*' up -d

# 如果需要停止可以使用
# docker compose down
# 或
# docker compose down -v

登陆WEB

  1. 浏览器访问 http://127.0.0.1:8888/
  2. 输入邮箱和密码,点击注册

测试本地模型调用

1. 创建智能体

2. 设置智能体名称和简介

3. 选择本地模型

4. 使用默认提示词库

5. 预览与调试