最新资讯

  • Docker+Ollama+Xinference+RAGFlow+Dify+Open webui部署及踩坑问题

Docker+Ollama+Xinference+RAGFlow+Dify+Open webui部署及踩坑问题

2025-04-28 15:00:42 0 阅读

目录

一、Xinference部署

(一)简介

(二)部署

(三)参数

(四)错误问题

(五)Xinference配置Text-embedding模型 

(六)Xinference配置排序模型

(七)Xinference配置语言模型 

(八)遇到的问题

二、RAGFlow部署

(一)克隆仓库

(二) 使用预构建的Docker镜像并启动服务器

(三)服务器启动并运行后,检查服务器状态

(四)访问

(五)部署RAGFlow遇到的问题

三、 Dify部署

(一)克隆代码到本地环境

(二)启动 Dify

(三)更新 Dify

(四)访问 Dify

(五)自定义配置

(六)部署dify遇到的问题

 问题1:访问dify管理员页面的时候转圈卡住

 问题2:管理员账号输入太多次被锁住,需要等24小时

四、Ollama部署

五、WebUI

(一)步骤1:拉取Open web镜像 

(二)步骤2:运行容器 

(三)遇到的问题

一)添加了新的用户后,并且给这些用户加到同一个组内,组的权限设置了新用户可以查看模型列表,但是新用户登录后依然看不到列表。

​编辑 二)open webui加载网页太慢了!!

六、进行组合

(一)Ragflow添加Ollama

(二)Ragflow添加Xinference

(三)Dify集成Ollama

(四)Dify集成Xinference 排序模型

(五)Dify集成RAGFlow 

(六)Dify集成vLLM

七、docker常见问题

(一)遇到 Docker 容器名称冲突错误,说明你尝试创建或运行的容器名称已被其他容器占用。以下是分步解决方案:

(二)当需要运行一个已有的 Docker 容器时,通常有两种情况:启动已停止的容器 或 基于现有镜像创建并运行新容器。


一、Xinference部署

(一)简介

Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。

项目地址:https://github.com/xorbitsai/inference#/

文档地址:https://inference.readthedocs.io/zh-cn/latest/#/

(二)部署

docker run 
  --name xinference 
  -d 
  -p 9998:9997 
  -e XINFERENCE_HOME=/data/2-model 
  -v $(pwd):/data/2-model 
  --gpus all 
  xprobe/xinference:latest 
  xinference-local -H 0.0.0.0

部署成功之后可以直接访问:http://localhost:9998

(三)参数

  1. docker run- 启动一个新的Docker容器

  2. --name xinference- 将容器命名为"xinference"

  3. -d- 以分离(后台)模式运行容器

  4. -p 99978:9997- 将容器的9998端口映射到主机的9997端口

  5. -e XINFERENCE_HOME=/data/model- 设置环境变量,指定Xinference的主目录为容器内的/data/model

  6. -v $(pwd):/data/model- 将当前工作目录挂载到容器内的/data/model目录,实现数据持久化

  7. --gpus all- 允许容器使用主机上的所有GPU资源

  8. xprobe/xinference:latest- 使用最新版本的xprobe/xinference镜像

  9. xinference-local -H 0.0.0.0- 在容器内运行xinference-local命令,并设置主机地址为0.0.0.0(允许从任何IP地址访问)

(四)错误问题

在运行的时候报错提示:Unable to find image 'xprobe/xinference:latest' locally

Unable to find image 'xprobe/xinference:latest' locally
docker: Error response from daemon: Get "https://registry-1.docker.io/v2/": net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers).

需要更换docker的下载源(一定要找到合适的源)

1.打开配置文件

vim /etc/docker/daemon.json

2.加入如下内容

{
"registry-mirrors": ["https://docker.registry.cyou",
"https://docker-cf.registry.cyou",
"https://dockercf.jsdelivr.fyi",
"https://docker.jsdelivr.fyi",
"https://dockertest.jsdelivr.fyi",
"https://mirror.aliyuncs.com",
"https://dockerproxy.com",
"https://mirror.baidubce.com",
"https://docker.m.daocloud.io",
"https://docker.nju.edu.cn",
"https://docker.mirrors.sjtug.sjtu.edu.cn",
"https://docker.mirrors.ustc.edu.cn",
"https://mirror.iscas.ac.cn",
"https://docker.rainbond.cc"]
}

3.执行以下命令,使生效

systemctl daemon-reload
systemctl restart docker

参考:解决docker: Error response from daemon: Get “https://registry-1.docker.io/v2/“: net/http: request canc_docker_君子如玉zzZ-腾讯云开发者社区

(五)Xinference配置Text-embedding模型 

(六)Xinference配置排序模型

添加成功,运行模型:

(七)Xinference配置语言模型 

(八)遇到的问题

一)Xinference使用vLLM部署LLM模型和私有化部署LLM模型哪个更好?速度更快?用户并发量更多? 

在比较Xinference使用vLLM部署LLM模型与直接通过vLLM进行私有化部署的优劣时,需从部署便捷性、速度、并发能力、适用场景等多个维度综合分析。以下是两者的对比分析:


1. 部署便捷性与灵活性

  • Xinference
    Xinference提供了一键式部署流程,支持通过Web界面或命令行快速部署多种模型(如LLM、多模态、Embedding等),并内置了对GGML量化格式的支持,适合需要快速启动和简化运维的场景。用户无需深入掌握底层框架即可完成模型部署,且支持跨平台(如Mac、GPU服务器)610。

    • 优势:

      • 提供Web GUI和兼容OpenAI的API接口,适合非技术用户。

      • 支持分布式推理和多模型并行部署。

    • 局限性:

      • 依赖第三方库(如vLLM、PyTorch),安装时可能因版本冲突需额外调整6。

  • vLLM私有化部署
    直接使用vLLM部署需手动配置环境、下载模型文件,并编写服务启动脚本。但vLLM与Hugging Face和ModelScope模型库无缝集成,支持灵活选择模型格式(如AWQ量化),适合需要深度定制化或特定优化的场景18。

    • 优势:

      • 更直接控制显存管理(如通过gpu_memory_utilization参数调节显存占用)。

      • 支持自定义模型架构和量化方案。


2. 推理速度与吞吐量

  • vLLM的核心优势
    vLLM通过PagedAttentionContinuous Batching技术,显著提升了吞吐量。实验显示,其吞吐量比HuggingFace Transformers高14-24倍,比HuggingFace TGI高2.2-2.5倍,尤其在处理高并发请求时表现突出111。

    • 关键优化:

      • PagedAttention:通过分块管理注意力机制的KV缓存,减少显存碎片化,提升显存利用率。

      • 动态批处理:实时调整批次大小,避免GPU算力空闲211。

  • Xinference的性能表现
    Xinference若集成vLLM作为后端(如通过SWIFT框架调用),其推理速度接近直接使用vLLM。但Xinference作为上层框架,可能因额外封装层(如API路由、多模型调度)引入微小的延迟。不过,其分布式设计支持横向扩展,可通过多节点部署提升整体吞吐量610。


3. 并发处理能力

  • 高并发场景下的对比

    • vLLM:专为高并发设计,支持动态批处理和张量并行(多GPU分布式推理),适合需要处理数千QPS的生产环境11。

    • Xinference:通过分布式架构支持负载均衡和多副本部署,理论上可扩展至更高并发量,但实际性能受底层框架(如是否启用vLLM)影响较大610。


4. 适用场景推荐

场景

推荐方案

理由

快速原型验证或小型应用

Xinference

部署简单,支持多模型和量化格式,适合快速迭代610。

高吞吐生产环境

vLLM私有化部署

极致优化显存和计算效率,适合需要处理大规模并发请求的场景111。

多模态或边缘计算需求

Xinference

支持语音、图像等多模态模型,且GGML格式适配低资源设备610。

定制化模型与微调集成

vLLM + 私有化部署

支持LoRA等微调模型合并,灵活适配业务需求1011。


5. 综合建议

  • 选择Xinference的情况
    需要快速部署、多模型支持或非GPU环境(如Mac),且对极致吞吐量要求不苛刻的场景。

  • 选择vLLM私有化部署的情况
    需最大化利用GPU资源、处理高并发请求,或需深度定制模型架构与推理流程的企业级应用。

两种方案可结合使用,例如通过Xinference管理模型服务编排,底层调用vLLM引擎,以兼顾易用性与性能

二)Xinference构建LLM模型的时候,副本设置几个合适?

在Xinference中设置LLM模型的副本数时,需结合硬件资源(GPU/CPU数量、显存/内存容量)模型规模请求并发量延迟要求综合权衡。以下是具体建议:


1. 核心原则

  • 资源利用率最大化:确保每个副本的GPU显存占用量不超过单卡容量(如A100 80G可部署1个70B模型副本,或2个13B模型副本)。

  • 延迟与吞吐平衡:副本数越多,理论吞吐量越高,但单请求延迟可能因负载均衡调度略微增加。

  • 容灾冗余:至少保留1个备用副本(如总副本数≥2),避免单点故障导致服务中断。


2. 分场景推荐

场景1:资源有限(如单GPU)

  • 模型规模:≤7B参数的模型(如Llama-2-7B)

  • 推荐副本数:1-2个

    • 理由

      • 单个7B模型在FP16精度下显存占用约14GB,单卡(如24G显存)可部署1个副本并保留显存余量处理动态批处理。

      • 若启用量化(如GGML 4-bit),显存占用降至约4GB,单卡可部署2-3个副本提升并发能力。

场景2:高并发生产环境(多GPU集群)

  • 模型规模:≥13B参数的模型(如Llama-2-13B)

  • 推荐副本数:GPU数量×副本密度(参考下表)

GPU型号

单卡显存

模型精度

单卡副本数

总副本数(4卡)

A100 80G

80GB

FP16

1(13B)

4

A100 80G

80GB

8-bit量化

2(13B)

8

RTX 3090

24GB

4-bit量化

1(13B)

4(需4卡)

  • 动态调整策略

    • 初始部署按GPU数量1:1设置副本(如4卡→4副本),再根据实际QPS逐步增加。

    • 使用Kubernetes或Xinference内置的负载均衡器自动扩缩容。

场景3:延迟敏感型应用

  • 推荐副本数:副本数 ≤ GPU数量

    • 理由:避免跨节点通信开销(如模型并行),确保请求由本地副本直接响应。

    • 示例:4 GPU部署4副本,每个副本独占1卡,延迟最低。


3. 计算公式与基准测试

  • 理论最大副本数

    副本数=⌊单卡显存模型显存占用⌋×GPU数量副本数=⌊模型显存占用单卡显存​⌋×GPU数量

    例如:13B模型FP16显存占用约26GB,A100 80G单卡可部署3副本(80/26≈3.07)。

  • 基准测试步骤

    1. 压测工具:使用wrklocust模拟并发请求。

    2. 监控指标:关注吞吐量(QPS)、平均延迟(P50/P99)、GPU利用率。

    3. 调整依据

      • 若GPU利用率<70%,可增加副本或启用动态批处理。

      • 若P99延迟超过阈值(如1s),减少副本数或升级硬件。


4. 高级优化技巧

  1. 混合部署

    • 大模型(如70B)与小模型(如7B)共用集群,按请求类型路由。

    • 使用Xinference的模型优先级调度策略,确保高优先级请求优先分配资源。

  2. 量化与显存优化

    • 4-bit量化可将显存占用降低至1/4,允许部署更多副本。

    • 启用vLLM的gpu_memory_utilization=0.9参数,显存利用率提升10%-15%。

  3. 分布式副本

    • 跨多物理节点部署副本,通过Xinference的全局负载均衡分散流量(适合云原生环境)。


5. 总结建议

需求类型

推荐副本数

配置示例

开发测试环境

1副本(单GPU)

1×Llama-2-7B(4-bit量化)

中等并发生产环境

GPU数量×1.5

4 GPU → 6副本(13B 8-bit量化)

超高并发/低延迟

GPU数量×2 + 自动扩缩容

8 GPU → 16副本(7B FP16)

最终决策需基于实际压测结果,优先保证GPU利用率在80%-90%区间。

二、RAGFlow部署

RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。

项目地址:https://github.com/infiniflow/ragflow

文档地址:https://ragflow.io/docs/dev/

(一)克隆仓库

使用docker安装

git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker
git checkout -f v0.17.2

完成后如下图所示: 

(二) 使用预构建的Docker镜像并启动服务器

注意: 上面的命令会下载v0.17.2-slim版本的RAGFlow Docker镜像。有关不同RAGFlow版本的说明,请参考下表。如果要下载不同于v0.17.2-slim的RAGFlow版本,请在使用docker compose启动服务器之前,在docker/.env中相应地更新RAGFLOW_IMAGE变量。例如:设置RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.2以获取完整版本v0.17.2

 在当前目录下

vim ragflow/docker/.env

 

 官方给出默认使用CPU进行嵌入和DeepDoc任务,但我们一般使用的是GPU

# Use CPU for embedding and DeepDoc tasks:
# docker compose -f docker-compose.yml up -d

# To use GPU to accelerate embedding and DeepDoc tasks:
docker compose -f docker-compose-gpu.yml up -d
RAGFlow image tagImage size (GB)Has embedding models and Python packages?Stable?
v0.17.2≈9✔️Stable release
v0.17.2-slim≈2Stable release
nightly≈9✔️Unstable nightly build
nightly-slim≈2Unstable nightly build

 执行完如下图:

以上提示ragflow-server 的端口号被占用了,修改下端口号:

来自守护进程的错误响应:驱动程序编程失败外部连接端点ragflow-server (46624c43ac270416224d934ebe1f5894d0b275cd330bde66693f73b68bba9ae2):绑定0.0.0.0:443失败:端口已经分配

Error response from daemon: driver failed programming external connectivity on endpoint ragflow-server (46624c43ac270416224d934ebe1f5894d0b275cd330bde66693f73b68bba9ae2): Bind for 0.0.0.0:443 failed: port is already allocated

 编辑文件docker-compose.yml,修改端口号,如下图,80改为81,443改为8443,可以根据需要设置端口号。

vim ragflow/docker/docker-compose.yml

改完后,再重启容器

docker compose up -d

(三)服务器启动并运行后,检查服务器状态

docker logs -f ragflow-server

(四)访问

在浏览器中输入服务器

的IP地址:81,登录RAGFlow 

 

(五)部署RAGFlow遇到的问题

执行命令:docker compose -f docker-compose-gpu.yml up -d,提示unknown shorthand flag: 'f' in -f

查看版本号:docker -v

1. 确认 Docker 版本是否支持 Compose V2

Compose V2 需要 Docker Engine 20.10 或更高版本。运行以下命令检查 Docker 版本:

docker --version
  • 如果版本低于 20.10,需先升级 Docker:

    • Linux:使用包管理器升级(如 aptyum)。

    • macOS/Windows:下载最新版 Docker Desktop。


2. 安装 Docker Compose V2 插件

如果 Docker 版本符合要求但缺少插件,需手动安装:

方法 1:通过 Docker 官方脚本安装

# 下载并安装 Compose V2 插件
mkdir -p ~/.docker/cli-plugins
curl -SL https://github.com/docker/compose/releases/latest/download/docker-compose-linux-x86_64 -o ~/.docker/cli-plugins/docker-compose
chmod +x ~/.docker/cli-plugins/docker-compose

方法 2:使用包管理器安装(Linux)

  • Debian/Ubuntu

    sudo apt update
    sudo apt install docker-compose-plugin
  • CentOS/RHEL

    sudo yum install docker-compose-plugin

验证安装

docker compose version
# 输出应包含 `Docker Compose version v2.x.x`

3. 退而使用 Docker Compose V1

如果无法安装 V2 插件,可直接使用旧版 docker-compose(V1):

安装 Docker Compose V1

# 下载独立脚本
sudo curl -L "https://github.com/docker/compose/releases/download/v2.27.0/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose

验证安装

docker-compose --version
# 输出应类似 `docker-compose version 1.29.2`

4. 根据版本选择命令

  • Compose V2 插件:使用 docker compose ...

    docker compose -f docker-compose-gpu.yml up -d
  • Compose V1 独立版:使用 docker-compose ...

    docker-compose -f docker-compose-gpu.yml up -d

5. 其他可能的问题

  • 权限问题:确保插件或脚本有执行权限。

  • 路径问题:检查 ~/.docker/cli-plugins 或 /usr/local/bin 是否在系统 PATH 中。

  • 重启 Docker 服务:安装后重启 Docker 守护进程:

    sudo systemctl restart docker

三、 Dify部署

Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

项目地址:https://github.com/langgenius/dify 文档地址:https://docs.dify.ai/zh-hans#/

下载对应版本:

https://github.com/langgenius/dify/tags

(一)克隆代码到本地环境

git clone https://github.com/langgenius/dify.git --branch 1.1.3(最新版本)

(二)启动 Dify

  1. 进入 Dify 源代码的 Docker 目录

    cd dify/docker
  2. 复制环境配置文件

    cp .env.example .env
  3. 启动 Docker 容器

    根据你系统上的 Docker Compose 版本,选择合适的命令来启动容器。你可以通过 $ docker compose version 命令检查版本,详细说明请参考 Docker 官方文档:

    • 如果版本是 Docker Compose V2,使用以下命令:

    docker compose up -d
    • 如果版本是 Docker Compose V1,使用以下命令:

    docker-compose up -d

运行命令后,你应该会看到类似以下的输出,显示所有容器的状态和端口映射:

最后检查是否所有容器都正常运行:

docker compose ps

(三)更新 Dify

进入 dify 源代码的 docker 目录,按顺序执行以下命令:

cd dify/docker
docker compose down
git pull origin main
docker compose pull
docker compose up -d

同步环境变量配置 (重要!)

  • 如果 .env.example 文件有更新,请务必同步修改你本地的 .env 文件。

  • 检查 .env 文件中的所有配置项,确保它们与你的实际运行环境相匹配。你可能需要将 .env.example 中的新变量添加到 .env 文件中,并更新已更改的任何值。

(四)访问 Dify

你可以先前往管理员初始化页面设置设置管理员账户:

# 本地环境
http://localhost/install

# 服务器环境
http://your_server_ip/install

Dify 主页面:

# 本地环境
http://localhost

# 服务器环境
http://your_server_ip

(五)自定义配置

编辑 .env 文件中的环境变量值。然后重新启动 Dify:

docker compose down
docker compose up -d

完整的环境变量集合可以在 docker/.env.example 中找到。

(六)部署dify遇到的问题

 问题1:访问dify管理员页面的时候转圈卡住

F12查看错误码为502:

解决方法:

 Dify转圈圈报502错误,是nginx启动太早了,在docker重启nginx服务,或者命令行:docker compose restart nginx

docker compose restart nginx

 问题2:管理员账号输入太多次被锁住,需要等24小时

解决方法:连上 Redis ,删除这个 超时的Key

docker exec -it docker-redis-1 sh

 然后输入

redis-cli # 进入命令
keys * # 查看keys
ttl login_error_rate_limit:admin@126.com # 看当前用户还有多少限时
del login_error_rate_limit:admin@126.com # 删除限时

完成后,就可以继续登录了!

更多问题可参考:部署dify遇到的相关问题及解决方案-CSDN博客

四、Ollama部署

可参考:在Linux系统安装Ollama两种方法:自动安装和手动安装,并配置自启动服务 -CSDN博客

五、WebUI

项目地址:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)  文档地址:🏡 Home | Open WebUI

(一)步骤1:拉取Open web镜像 


首先从GitHub Container Registry中提取最新的Open web Docker镜像。

docker pull ghcr.io/open-webui/open-webui:main

(二)步骤2:运行容器 


使用默认设置运行容器,CPU运行的(CPU在加载网页的时候会比较慢,如果有条件的建议s使用GPU运行)。该命令包括一个卷映射,以确保数据的持久存储。

docker run -d 
-p 3000:8080 
--add-host=host.docker.internal:host-gateway 
-v open-webui:/data/6-docker 
--name open-webui 
--restart always 
ghcr.io/open-webui/open-webui:main

1. 参数说明:

Volume Mapping(-v open-webui:/app/backend/data):确保数据的持久存储。这可以防止容器重启之间的数据丢失。 
Port Mapping(-p 3000:8080):在本地机器的端口3000上公开web。

2. 使用GPU支持 
对于Nvidia GPU支持,在docker run命令中添加——GPU all:

前面的镜像拉取改为cuda的(这步不执行,会提示找不到ghcr.io/open-webui/open-webui:cuda,但也会自动去下载)

docker pull ghcr.io/open-webui/open-webui:cuda
docker run -d 
-p 3000:8080 
--gpus all 
--add-host=host.docker.internal:host-gateway 
-v open-webui:/data/6-docker 
--name open-webui 
--restart always 
ghcr.io/open-webui/open-webui:cuda

3. 单用户模式(禁止登录) 
要绕过单用户设置的登录页面,将WEBUI_AUTH环境变量设置为False:

docker run -d 
-p 3000:8080 
-e WEBUI_AUTH=False 
-v open-webui:/app/backend/data 
--name open-webui 
ghcr.io/open-webui/open-webui:main

提醒:修改完成后,不能在单用户模式和多用户模式之间进行切换。 

4. 高级配置:连接到另一台服务器上的Ollama 
要将Open web连接到位于另一台主机上的Ollama服务器,请添加OLLAMA_BASE_URL环境变量:

docker run -d 
-p 3000:8080 
-e OLLAMA_BASE_URL=https://example.com 
-v open-webui:/app/backend/data 
--name open-webui 
--restart always 
ghcr.io/open-webui/open-webui:main

5. 访问web界面 
容器运行后,进入Open WebUI:

http://localhost:3000

(三)更新 
要将本地Docker安装更新到最新版本,您可以使用Watchtower或手动更新容器。

选项1:使用watchtower
使用watchtower,您可以自动更新过程:

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

(如果不同,请将open-web替换为您的容器名称。)

选项2:手动更新 
1. 停止并移除当前容器:

docker rm -f open-webui

2. 获取最新版本: 

docker pull ghcr.io/open-webui/open-webui:main

3.再次启动容器:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

这两种方法都会让你的Docker实例更新并运行最新的版本。

下一个步骤 安装完成后,访问:

通过http://localhost:3000访问Open web。 
或http://localhost:8080/,当使用Python部署时。 

(三)遇到的问题

一)添加了新的用户后,并且给这些用户加到同一个组内,组的权限设置了新用户可以查看模型列表,但是新用户登录后依然看不到列表。

1. 添加了新的用户后,并且给这些用户加到同一个组内,组的权限设置了新用户可以查看模型列表,但是新用户登录后依然看不到列表。

2.新用户登录后,依然看不到模型选择列表

 3.直接进行对话,会让选择模型,😒

 4.设置——管理员面板——模型——选择你想分享的模型——设置——可见性——权限组——选择你想分享权限组——添加——保存并更新。

5.编辑每个模型的权限,把可见性由private改为public,保存并更新。也可以选择对应的工作组,在组内的成员能看到这些模型。

 二)open webui加载网页太慢了!!

刷新一次,页面很久都加载不出来,并且我是用gpu进行部署的open webui

六、进行组合

(一)Ragflow添加Ollama

(二)Ragflow添加Xinference

(三)Dify集成Ollama

1. 打开设置

2. 添加Ollama模型

(四)Dify集成Xinference 排序模型

1. 选择

2. 

(五)Dify集成RAGFlow 

1. 在RAGFlow中创建新密钥

2. 获取RAGFlow的知识库ID

 3. Dify添加外部知识库

(六)Dify集成vLLM

七、docker常见问题

(一)遇到 Docker 容器名称冲突错误,说明你尝试创建或运行的容器名称已被其他容器占用。以下是分步解决方案:

1. 查看已存在的同名容器

首先确认冲突容器的状态:

# 列出所有容器(包括已停止的),过滤名称 "xinference"
docker ps -a | grep "xinference"

输出示例:

bcac7f08fb09   xinference-image   "/entrypoint.sh"   2 hours ago   Exited (0) 1 hour ago    xinference


2. 根据需求选择操作

场景 1:不需要保留旧容器

直接删除占用名称的旧容器:

# 强制删除容器(无论是否在运行)
docker rm -f xinference

# 或分步操作(先停止后删除)
docker stop xinference
docker rm xinference

场景 2:需要保留旧容器但继续使用名称

修改新容器的名称(例如添加后缀):

# 在 docker run 时指定新名称
docker run --name xinference-new -d your-image

# 或在 docker-compose.yml 中修改服务名
services:
  xinference-new:  # 修改此处名称
    image: your-image

3. 重新运行容器

清除冲突后,重新执行原始命令:

# 直接运行(名称已释放)
docker run --name xinference -d your-image

# 或使用 docker-compose
docker-compose up -d

4. 防止未来冲突

(1) 自动清理旧容器(适合临时容器)

运行容器时添加 --rm 参数,容器停止后自动删除:

docker run --rm --name xinference -d your-image

(2) 定期清理无用容器

# 删除所有已停止的容器
docker container prune

(二)当需要运行一个已有的 Docker 容器时,通常有两种情况:启动已停止的容器 或 基于现有镜像创建并运行新容器

一、启动已停止的容器

如果容器已存在但处于停止状态(Exited),可以直接启动它:

1. 查看所有容器(包括已停止的)

docker ps -a

输出示例:

CONTAINER ID   IMAGE          COMMAND       CREATED       STATUS                    PORTS     NAMES
a1b2c3d4e5f6   nginx:latest   "nginx -g ..." 2 hours ago   Exited (0) 10 minutes ago           my-nginx

2. 启动指定容器

docker start <容器ID或名称>
# 示例
docker start a1b2c3d4e5f6
docker start my-nginx

3. 检查容器状态

docker ps | grep my-nginx

4. 查看容器日志(调试启动问题)

docker logs my-nginx

二、基于现有镜像运行新容器

如果希望基于已有镜像创建一个新容器(而非复用旧容器):

1. 查找可用镜像

docker images

输出示例:

REPOSITORY   TAG       IMAGE ID       CREATED        SIZE
nginx        latest    605c77e624dd   2 weeks ago    141MB

2. 运行新容器

docker run [选项] <镜像名称或ID>

常用选项:

选项

说明

-d

后台运行(守护模式)

--name <名称>

指定容器名称(避免随机命名冲突)

-p 主机端口:容器端口

端口映射(如 -p 80:80

-v 主机路径:容器路径

数据卷挂载

-it

交互式终端(常用于调试)

示例:

# 后台运行并命名容器
docker run -d --name my-nginx-new -p 80:80 nginx:latest

# 带交互式终端(退出后容器停止)
docker run -it --name my-alpine alpine:latest sh

三、处理常见问题

1. 端口冲突

若提示 port is already allocated,需修改端口映射或释放占用端口:

# 修改主机端口(如 8080:80)
docker run -d --name my-nginx-new -p 8080:80 nginx:latest

2. 容器名称冲突

若提示 container name already in use,删除旧容器或指定新名称:

# 强制删除旧容器
docker rm -f my-nginx-old

# 或运行新容器时换名
docker run -d --name my-nginx-v2 nginx:latest

3. 容器启动后自动退出

检查容器日志,通常是因为主进程结束:

docker logs my-nginx
  • 解决方案:确保容器内有持久化进程(如使用 nginx -g "daemon off;")。


四、使用 Docker Compose 管理容器

如果容器是通过 docker-compose.yml 定义的:

1. 启动所有服务

docker-compose up -d

2. 启动单个服务

docker-compose up -d <服务名>

3. 重建容器(修改配置后)

docker-compose up -d --build <服务名>

五、总结

场景命令
启动已停止的容器docker start <容器ID或名称>
创建并运行新容器docker run -d --name <名称> -p 端口:端口 <镜像>
解决端口/名称冲突修改端口映射或容器名称,或删除旧容器
调试容器启动失败docker logs <容器名>

参考:AI老板心中的迈巴赫:DeepSeek+Ollama+Xinference+RAGFlow+Dify部署教程,RAG落地5件套!

本文地址:https://www.vps345.com/4736.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 ssh deepseek Ollama 模型联网 API CherryStudio 进程 操作系统 进程控制 Ubuntu 数据库 centos oracle 关系型 安全 分布式 llama 算法 opencv 自然语言处理 神经网络 语言模型 javascript 前端 chrome edge python MCP harmonyos 华为 开发语言 typescript 计算机网络 ubuntu 阿里云 网络 网络安全 网络协议 react.js 前端面试题 node.js 持续部署 Dell R750XS 科技 ai java 人工智能 个人开发 adb nginx 监控 自动化运维 pycharm 深度学习 conda pillow django fastapi flask web3.py kubernetes 容器 学习方法 经验分享 程序人生 gitlab rust http numpy docker DeepSeek-R1 API接口 android c++ c语言 spring json html5 firefox tcp/ip 笔记 C 环境变量 进程地址空间 github 创意 社区 自动化 蓝耘科技 元生代平台工作流 ComfyUI RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 zotero WebDAV 同步失败 代理模式 IIS .net core Hosting Bundle .NET Framework vs2022 macos php ollama llm ESP32 YOLO pytorch nuxt3 vue3 sql KingBase 银河麒麟 kylin v10 麒麟 v10 mcp mcp-proxy mcp-inspector fastapi-mcp agent sse spring boot websocket 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 面试 sqlite dubbo openssl 密码学 向日葵 报错 后端 MQTT mosquitto 消息队列 vue.js 智能路由器 外网访问 内网穿透 端口映射 udp word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 spring cloud intellij-idea kafka hibernate JAVA Java shell 根服务器 debian maven 游戏程序 windows ffmpeg 音视频 sqlserver vscode 架构 微服务 统信 国产操作系统 虚拟机安装 计算机视觉 android studio ftp git 远程工作 运维开发 golang eureka web安全 云原生 AIGC apache 孤岛惊魂4 恒源云 java-ee tcp 博客 qt microsoft ssl chatgpt oneapi excel open webui 远程登录 telnet pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 华为认证 网络工程师 交换机 开源 多线程服务器 Linux网络编程 mongodb 爬虫 Headless Linux 机器人 live555 rtsp rtp ide visualstudio Dify c# zookeeper 电脑 WSL win11 无法解析服务器的名称或地址 学习 armbian u-boot 3d 数学建模 网络结构图 嵌入式硬件 驱动开发 硬件工程 嵌入式实习 ecmascript nextjs react reactjs URL tomcat jenkins gitee 单片机 机器学习 权限 搜索引擎 mysql HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x DeepSeek openwrt ux 多线程 Cursor 小程序 svn stm32 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 开发环境 SSL证书 能力提升 面试宝典 技术 IT信息化 腾讯云 ios flutter pygame 小游戏 五子棋 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn prometheus kylin 银河麒麟操作系统 国产化 rpc 远程过程调用 Windows环境 直播推流 物联网 Hyper-V WinRM TrustedHosts 媒体 微信公众平台 C语言 Docker Hub docker pull 镜像源 daemon.json Linux YOLOv8 NPU Atlas800 A300I pro asi_bench 联想开天P90Z装win10 僵尸进程 matlab mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 ecm bpm C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 redis Deepseek flash-attention cursor MCP server C/S LLM GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 unity 安全架构 游戏服务器 Minecraft ddos H3C AI编程 AI 数据集 agi ansible playbook gpu算力 华为云 springsecurity6 oauth2 授权服务器 前后端分离 uni-app virtualenv arm html FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 交互 go file server http server web server Reactor 设计模式 性能优化 C++ 集成学习 集成测试 代码调试 ipdb 远程连接 rdp 实验 UOS 统信操作系统 yum oceanbase rc.local 开机自启 systemd 麒麟 vim MNN Qwen 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 大模型 llama3 Chatglm 开源大模型 深度优先 图论 并集查找 换根法 树上倍增 重启 排查 系统重启 日志 原因 串口服务器 pppoe radius arm开发 xss next.js 部署 部署next.js jdk AI agent 监控k8s集群 集群内prometheus audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 googlecloud TCP服务器 qt项目 qt项目实战 qt教程 Docker Compose docker compose docker-compose bash IDEA 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP TRAE 医疗APP开发 app开发 idm 编辑器 宝塔面板 同步 备份 建站 安全威胁分析 vscode 1.86 ci/cd unity3d 目标检测 豆瓣 追剧助手 迅雷 nas 微信 内存 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 LDAP https jvm aws 服务器繁忙 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS IIS服务器 IIS性能 日志监控 fpga开发 intellij idea 华为od eclipse gateway Clion Nova ResharperC++引擎 Centos7 远程开发 图像处理 业界资讯 can 线程池 客户端 Agent code-server 技能大赛 1024程序员节 SVN Server tortoise svn r语言 数据挖掘 数据可视化 数据分析 rclone AList webdav fnOS 信息与通信 换源 国内源 Debian 计算机 程序员 wsl2 wsl ssh远程登录 AISphereButler 远程 命令 执行 sshpass 操作 linux上传下载 webrtc 测试工具 鲲鹏 昇腾 npu 健康医疗 互联网医院 kamailio sip VoIP 大数据 大数据平台 wps 安卓 银河麒麟高级服务器 外接硬盘 Kylin 中间件 jar gradle 框架搭建 历史版本 下载 安装 .net 回显服务器 UDP的API使用 vSphere vCenter Java Applet URL操作 服务器建立 Socket编程 网络文件读取 AI大模型 大模型入门 大模型教程 selete 高级IO ESXi Dell HPE 联想 浪潮 linux安装配置 ukui 麒麟kylinos openeuler rust腐蚀 safari pip Mac 系统 系统架构 rabbitmq rnn yaml Ultralytics 可视化 微信小程序 nvidia openEuler web 系统安全 devops ruoyi springboot 升级 CVE-2024-7347 漏洞 云服务器 VPS .net mvc断点续传 etl etcd 数据安全 RBAC 微信分享 鸿蒙 Image wxopensdk wireshark 嵌入式 linux驱动开发 企业微信 Linux24.04 deepin 温湿度数据上传到服务器 Arduino HTTP 需求分析 规格说明书 zabbix seatunnel 软件定义数据中心 sddc 智能手机 矩阵 big data 服务器管理 配置教程 服务器安装 网站管理 dify 雨云 NPS 飞书 开机自启动 rag ragflow ragflow 源码启动 web3 autodl list 模拟实现 传统数据库升级 银行 大语言模型 LLMs 单一职责原则 ui IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 小艺 Pura X 大模型微调 工业4.0 fd 文件描述符 IMM mamba Vmamba 视觉检测 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK echarts Linux的基础指令 gitea mac iis cocoapods xcode hexo 移动云 负载均衡 云服务 threejs 3D 可信计算技术 lio-sam SLAM token sas IMX317 MIPI H265 VCU 小智AI服务端 xiaozhi TTS FTP 服务器 composer SenseVoice 数据结构 计算机外设 Qwen2.5-coder 离线部署 yolov8 SSL 域名 rsyslog Anolis nginx安装 环境安装 linux插件下载 软件测试 游戏引擎 HarmonyOS Next HiCar CarLife+ CarPlay QT RK3588 VR手套 数据手套 动捕手套 动捕数据手套 僵尸世界大战 游戏服务器搭建 Node-Red 编程工具 流编程 鸿蒙系统 k8s nfs 课程设计 Samba SWAT 配置文件 服务管理 网络共享 输入法 CPU 主板 电源 网卡 程序 编程 性能分析 v10 软件 毕昇JDK unix webstorm Trae IDE AI 原生集成开发环境 Trae AI minio express mcu Kali Linux 黑客 渗透测试 信息收集 micropython esp32 mqtt linux 命令 sed 命令 黑客技术 策略模式 单例模式 项目部署到linux服务器 项目部署过程 本地部署 实时互动 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 虚拟化 半虚拟化 硬件虚拟化 Hypervisor EasyConnect 自动驾驶 Cline open Euler dde 统信UOS 网络攻击模型 LLM Web APP Streamlit .netcore hadoop ollama下载加速 网工 opensearch helm n8n 工作流 workflow jupyter ssrf 失效的访问控制 grafana vscode1.86 1.86版本 ssh远程连接 田俊楠 SSE adobe elk Python 网络编程 聊天服务器 套接字 TCP Socket bug Windows 合成模型 扩散模型 图像生成 无人机 TrinityCore 魔兽世界 sysctl.conf vm.nr_hugepages 其他 ip iperf3 带宽测试 群晖 文件分享 软件工程 W5500 OLED u8g2 chfs ubuntu 16.04 DevEco Studio HarmonyOS OpenHarmony 真机调试 odoo 服务器动作 Server action 远程桌面 ShenTong 硬件架构 环境迁移 视频编解码 Ubuntu 24.04.1 轻量级服务器 python3.11 dash 正则表达式 elasticsearch cpu 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 redhat 毕设 相差8小时 UTC 时间 前端框架 sdkman sentinel Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 visual studio code postgresql 线程 dns ipython 低代码 三级等保 服务器审计日志备份 cuda cudnn FTP服务器 相机 OD机试真题 华为OD机试真题 服务器能耗统计 bootstrap mysql离线安装 ubuntu22.04 mysql8.0 软考 Typore 源码 毕业设计 css AI-native Docker Desktop DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 智能音箱 智能家居 jmeter 多个客户端访问 IO多路复用 TCP相关API bonding 链路聚合 压力测试 hive Hive环境搭建 hive3环境 Hive远程模式 tailscale derp derper 中转 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors webgl XCC Lenovo 文件系统 路径解析 繁忙 解决办法 替代网站 汇总推荐 AI推理 CDN 考研 onlyoffice 在线office 软链接 硬链接 dba WebUI DeepSeek V3 efficientVIT YOLOv8替换主干网络 TOLOv8 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 gcc g++ g++13 windows日志 log4j 交叉编译 防火墙 NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 stm32项目 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 embedding 流水线 脚本式流水线 ardunio BLE 端口测试 iDRAC R720xd 命名管道 客户端与服务端通信 MySql Xinference RAGFlow freebsd glibc npm 常用命令 文本命令 目录命令 GCC Linux环境 epoll thingsboard LORA NLP iot 信号处理 魔百盒刷机 移动魔百盒 机顶盒ROM WSL2 USB转串口 CH340 飞牛NAS 飞牛OS MacBook Pro dell服务器 图形化界面 iventoy VmWare OpenEuler css3 邮件APP 免费软件 VMware安装Ubuntu Ubuntu安装k8s 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 AI写作 prompt XFS xfs文件系统损坏 I_O error es X11 Xming 缓存 服务器主板 AI芯片 超融合 deepseek r1 tensorflow Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Spring Security 我的世界 我的世界联机 数码 烟花代码 烟花 元旦 我的世界服务器搭建 asm apt 王者荣耀 Wi-Fi iphone IPMI 带外管理 职场和发展 db jetty undertow selenium tidb GLIBC xpath定位元素 make命令 makefile文件 ISO镜像作为本地源 dity make okhttp 云电竞 云电脑 todesk Erlang OTP gen_server 热代码交换 事务语义 VMware安装mocOS VMware macOS系统安装 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 NAS Termux 镜像 ruby 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 ROS 抗锯齿 Kali 虚拟机 GPU 实习 hugo c gaussdb navicat DeepSeek行业应用 Heroku 网站部署 MacOS录屏软件 kind AI作画 QQ 聊天室 ocr less 思科模拟器 思科 Cisco IM即时通讯 剪切板对通 HTML FORMAT Radius 金仓数据库 2025 征文 数据库平替用金仓 muduo 个人博客 Linux PID KylinV10 麒麟操作系统 Vmware 银河麒麟服务器操作系统 系统激活 算力 模拟器 教程 proxy模式 5G 3GPP 卫星通信 EMQX 通信协议 aarch64 编译安装 HPC HAProxy 虚拟局域网 弹性计算 KVM 计算虚拟化 弹性裸金属 iBMC UltraISO windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 bcompare Beyond Compare 显示管理器 lightdm gdm 树莓派 VNC 阻塞队列 生产者消费者模型 服务器崩坏原因 tcpdump laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 vue junit SEO 显卡驱动 p2p 网络穿透 实战案例 SSH Xterminal netty Python基础 Python教程 Python技巧 AD域 反向代理 致远OA OA服务器 服务器磁盘扩容 CORS 跨域 游戏机 中兴光猫 换光猫 网络桥接 自己换光猫 Netty 即时通信 NIO 环境配置 Claude HTTP 服务器控制 ESP32 DeepSeek ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS 虚幻 vasp安装 查询数据库服务IP地址 SQL Server 加解密 Yakit yaklang 语音识别 AutoDL 单元测试 功能测试 腾讯云大模型知识引擎 P2P HDLC k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm HCIE 数通 QT 5.12.12 QT开发环境 Ubuntu18.04 双系统 GRUB引导 Linux技巧 jina springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 frp mybatis 软件需求 沙盒 MS Materials word RAID RAID技术 磁盘 存储 edge浏览器 uv 模拟退火算法 多路转接 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 链表 项目部署 执法记录仪 智能安全帽 smarteye 元服务 应用上架 SysBench 基准测试 流量运营 华为机试 Playwright 自动化测试 数据库系统 C# MQTTS 双向认证 emqx trae 软负载 多进程 crosstool-ng matplotlib flink 信息可视化 网页设计 USB网络共享 deekseek 知识库 YOLOv12 vmware 卡死 llama.cpp 做raid 装系统 remote-ssh 多层架构 解耦 浏览器开发 AI浏览器 ssh漏洞 ssh9.9p2 CVE-2025-23419 cnn Cookie 分析解读 火绒安全 IO模型 AI代码编辑器 内网服务器 内网代理 内网通信 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 ue4 着色器 ue5 RTMP 应用层 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 seleium chromedriver 状态模式 ip命令 新增网卡 新增IP 启动网卡 剧本 风扇控制软件 uniapp 信号 MacMini 迷你主机 mini Apple DBeaver 数据仓库 kerberos 宠物 免费学习 宠物领养 宠物平台 VS Code PX4 anaconda Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 perf 微信开放平台 微信公众号配置 openstack Xen wpf VSCode TCP协议 产测工具框架 IMX6ULL 管理框架 AD 域管理 spark HistoryServer Spark YARN jobhistory 网站搭建 serv00 系统开发 binder 车载系统 framework 源码环境 Logstash 日志采集 程序员创富 x64 SIGSEGV xmm0 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS 开发 CLion milvus 智能硬件 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 服务器部署ai模型 大大通 第三代半导体 碳化硅 av1 电视盒子 curl wget bat 端口 查看 ss ai工具 java-rocketmq ldap 语法 热榜 firewalld minecraft GIS 遥感 WebGIS AI Agent 字节智能运维 7z h.264 RustDesk自建服务器 rustdesk服务器 docker rustdesk keepalived 流式接口 sonoma 自动更新 xshell termius iterm2 pyqt 分布式训练 neo4j 数据库开发 数据库架构 database Kylin-Server trea idea docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 内网环境 ubuntu24.04.1 迁移指南 网卡的名称修改 eth0 ens33 fast 大模型应用 ArcTS 登录 ArcUI GridItem cpp-httplib arkUI 服务网格 istio OpenSSH js 自动化任务管理 WebRTC gpt pgpool easyui langchain win服务器架设 windows server chrome devtools rpa ABAP 离线部署dify 键盘 飞牛nas fnos outlook xrdp yum源切换 更换国内yum源 序列化反序列化 SRS 流媒体 直播 IPv4 子网掩码 公网IP 私有IP springcloud SSH 密钥生成 SSH 公钥 私钥 生成 Linux find grep 性能测试 vr 雨云服务器 SSH 服务 SSH Server OpenSSH Server 嵌入式系统开发 崖山数据库 YashanDB 鸿蒙开发 移动开发 eNSP 企业网络规划 华为eNSP 网络规划 源码剖析 rtsp实现步骤 流媒体开发 代理服务器 NFS 存储维护 NetApp存储 EMC存储 图形渲染 黑苹果 rustdesk 远程控制 远程看看 远程协助 sequoiaDB 知识图谱 捆绑 链接 谷歌浏览器 youtube google gmail Linux的权限 alias unalias 别名 swoole prometheus数据采集 prometheus数据模型 prometheus特点 远程服务 李心怡 conda配置 conda镜像源 risc-v 西门子PLC 通讯 docker部署Python 大模型部署 混合开发 JDK regedit 开机启动 Invalid Host allowedHosts 北亚数据恢复 oracle数据恢复 visual studio 干货分享 黑客工具 密码爆破 基础入门 办公自动化 自动化生成 pdf教程 CentOS triton 模型分析 本地化部署 压测 ECS centos-root /dev/mapper yum clean all df -h / du -sh 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 宕机切换 服务器宕机 京东云 wsgiref Web 服务器网关接口 DenseNet 私有化 影刀 #影刀RPA# skynet transformer 产品经理 CrewAI MDK 嵌入式开发工具 论文笔记 sublime text arcgis DOIT 四博智联 玩机技巧 软件分享 软件图标 运维监控 边缘计算 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR PVE pyautogui 阿里云ECS bot Docker 虚幻引擎 Ubuntu Server Ubuntu 22.04.5 leetcode 推荐算法 DocFlow 磁盘监控 服务器配置 串口驱动 CH341 uart 485 ubuntu24 vivado24 代理 Unity插件 harmonyOS面试题 figma Jellyfin 自动化编程 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 TrueLicense 生物信息学 k8s集群资源管理 云原生开发 GoogLeNet RAGFLOW cd 目录切换 Google pay Apple pay DNS hosts UDP ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 Ark-TS语言 ros2 moveit 机器人运动 docker run 数据卷挂载 交互模式 Open WebUI 硬件 设备 PCI-Express VMware创建虚拟机 iftop 网络流量监控 grub 版本升级 扩容 cmos 服务器时间 粘包问题 游戏开发 信创 信创终端 中科方德 deep learning 大模型推理 大模型学习 强化学习 搭建个人相关服务器 sqlite3 音乐服务器 Navidrome 音流 searxng 网络药理学 生信 PPI String Cytoscape CytoHubba 本地知识库部署 DeepSeek R1 模型 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 测试用例 ping++ ros rime 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 VLAN 企业网络 camera Arduino 电子信息 linux环境变量 firewall wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 Ubuntu共享文件夹 共享目录 Linux共享文件夹 dns是什么 如何设置电脑dns dns应该如何设置 ceph nlp minicom 串口调试工具 Attention 架构与原理 RAG 检索增强生成 文档解析 大模型垂直应用 LInux 社交电子 docker命令大全 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 数据管理 数据治理 数据编织 数据虚拟化 Deepseek-R1 私有化部署 推理模型 nac 802.1 portal EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 充电桩 欧标 OCPP 物联网开发 lua clickhouse dock 加速 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 政务 分布式系统 监控运维 Prometheus Grafana 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 gpt-3 文心一言 直流充电桩 域名服务 DHCP 符号链接 配置 音乐库 飞牛 实用教程 CentOS Stream 网络用户购物行为分析可视化平台 大数据毕业设计 EMUI 回退 降级 gnu 蓝桥杯 Nuxt.js midjourney kali 共享文件夹 人工智能生成内容 金融 嵌入式Linux IPC 裸金属服务器 弹性裸金属服务器 拓扑图 深度求索 私域 大模型面经 状态管理的 UDP 服务器 Arduino RTOS AnythingLLM AnythingLLM安装 rocketmq 基础环境 mariadb ubuntu20.04 开机黑屏 技术共享 灵办AI Redis Desktop Windsurf docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 匿名管道