前置要求
- 已安装 Docker 和 Docker Compose
- 建议使用 Linux 系统(Windows/macOS需配置好Docker环境)
如果想使用api的可以注册siliconflow
- 邀请链接
通过邀请链接可以获得免费2000 万 Tokens
基础配置
- 创建
docker-compose.yml
文件:
version: '3.8'
services:
openwebui:
image: ghcr.io/open-webui/open-webui:main
container_name: openwebui
restart: unless-stopped
volumes:
- ./data:/app/backend/data
- /var/run/docker.sock:/var/run/docker.sock
ports:
- "3000:8080"
environment:
- WEBUI_SECRET_KEY=your_random_secret_key
- OLLAMA_BASE_URL=http://host.docker.internal:11434
depends_on:
- ollama
ollama:
image: ollama/ollama:latest
container_name: ollama
restart: unless-stopped
volumes:
- ollama_volume:/root/.ollama
ports:
- "11434:11434"
volumes:
ollama_volume:
如果不想使用ollama
version: '3.8'
services:
openwebui:
image: ghcr.io/open-webui/open-webui:main
container_name: openwebui
restart: unless-stopped
volumes:
- ./data:/app/backend/data
- /var/run/docker.sock:/var/run/docker.sock
ports:
- "3000:8080"
environment:
- WEBUI_SECRET_KEY=your_random_secret_key
直接使用启动就行了(后面的步骤就不用看了)
启动步骤
- 创建数据目录:
mkdir -p ./data
- 生成随机密钥(可选):
echo "WEBUI_SECRET_KEY=$(openssl rand -base64 32)" >> .env
- 启动服务:
docker compose up -d
- 访问Web界面:
http://你的服务器IP:3000
自定义配置
1. 启用GPU支持
services:
ollama:
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1
capabilities: [gpu]
2. 使用自定义模型
environment:
- OLLAMA_BASE_URL=http://ollama:11434
- DEFAULT_MODEL=llama3:70b
3. HTTPS配置
添加反向代理配置(推荐使用Nginx Proxy Manager)
4. 文件上传配置
volumes:
- ./uploads:/app/backend/data/uploads
environment:
- UPLOAD_DIR=/app/backend/data/uploads`
管理命令
- 查看日志:
docker compose logs -f
- 停止服务:
docker compose down
- 更新容器:
docker compose pull && docker compose up -d
注意事项
- 首次启动后需要注册管理员账户。
- 确保服务器防火墙开放3000和11434端口。
- 生产环境建议配置HTTPS和访问限制。