• 从零开始:H20服务器上DeepSeek R1 671B大模型部署与压力测试全攻略

从零开始:H20服务器上DeepSeek R1 671B大模型部署与压力测试全攻略

2025-04-24 15:19:19 1 阅读

前言

最近,我有幸在工作中接触到了DeepSeek R1 671B模型,这是目前中文开源领域参数量最大的高质量模型之一。DeepSeek团队在2024年推出的这款模型,以其惊人的6710亿参数量和出色的推理性能,引起了业界广泛关注。

作为一名AI基础设施工程师,我有机会在H20服务器上部署这个庞然大物,并对其进行了全面的压力测试。这篇文章将详细记录我的部署过程和性能测试方法,希望能为大家提供一些参考。

💡 为什么选择DeepSeek R1?

  • 超大规模参数量(671B)
  • 优秀的中英文理解能力
  • 开源可商用的许可证
  • 在多项基准测试中表现优异

那么,如何在自己的服务器上部署这个"巨无霸"模型呢?接下来,我将分享我的完整操作流程。

一、环境准备

1.1 硬件配置

在开始部署之前,先来看看我使用的硬件配置:

  • 服务器型号:H20
  • GPU:8×NVIDIA H20 (141GB)
  • CPU:双路Intel至强处理器
  • 内存:2TB
  • 存储:高速NVMe SSD

这套配置对于部署671B参数的模型来说是刚好够用的。根据我的经验,至少需要8张高端GPU才能满足推理需求。

1.2 环境检查

首先,确认系统资源是否满足需求:

# 检查CPU信息
lscpu

# 检查GPU信息
nvidia-smi

# 检查内存信息
dmidecode -t memory

# 检查磁盘空间
df -h

 这次试用的H20是141G显存的PCIE版本。8张GPU之间都是通过NV18(18条NVLink)互联,形成了全互联(fully connected)的网络拓扑,GPU0-3属于NUMA节点0 (CPU核心0-55,112-167),GPU4-7属于NUMA节点1 (CPU核心56-111,168-223),单卡总带宽:26.562 × 18 ≈ 478 GB/s

 

特别注意:部署DeepSeek R1 671B至少需要700GB的磁盘空间用于存储模型文件,请确保有足够空间。

1.3 软件环境配置

我选择使用Apptainer(原Singularity)作为容器运行环境,它比Docker更适合HPC场景,在多GPU协作方面表现更好。

# 安装Apptainer
sudo add-apt-repository -y ppa:apptainer/ppa
sudo apt update
sudo apt install -y apptainer

# 检查安装版本
apptainer --version

二、模型获取与存储

2.1 模型下载

DeepSeek R1 671B模型可以从官方渠道下载,但文件非常大。在我的案例中,模型已预先下载并存储在 /data0/DeepSeek-R1/ 目录下。

2.2 模型完整性验证

下载完成后,务必验证模型文件的完整性:

cd /data0/DeepSeek-R1
# 验证模型文件的MD5值
md5sum model-00001-of-00163.safetensors

⚠️ 注意:模型文件可能分为多个部分,一定要验证所有文件的完整性,避免因文件损坏导致的启动失败。

三、服务部署

对于超大规模模型,我测试了两种主流的部署方式:基于vLLM和基于SGLang的部署。

3.1 基于vLLM的部署

vLLM是一个高性能的大语言模型推理引擎,专为LLM优化,支持PagedAttention等技术,内存使用效率高。

3.1.1 获取vLLM容器镜像
mkdir -p /data0/ctyun/vllm
cd /data0/ctyun/vllm
wget https://jiangsu-10.zos.ctyun.cn/galaxy/apptainer/vllm/vllm-openai_v0.7.3.sif
3.1.2 创建启动脚本
vi run.sh

在脚本中添加以下内容:

#!/bin/bash
apptainer run --nv vllm-openai_v0.7.3.sif 
  python3 -m vllm.entrypoints.openai.api_server 
  --model /data0/DeepSeek-R1 
  --tensor-parallel-size 8 
  --host 0.0.0.0 
  --port 8000

这里的关键参数是--tensor-parallel-size 8,表示使用8卡张量并行,这对于671B规模的模型是必须的。

3.1.3 启动服务
sh run.sh

vllm服务启动成功后,每块显卡的显存已经占用了122G。 

成功启动后,vLLM会提供一个兼容OpenAI API格式的接口,默认端口为8000。

3.2 基于SGLang的部署

SGLang是另一个优秀的LLM推理框架,特别在批处理方面有一些独特优势。

3.2.1 下载SGLang容器镜像
mkdir -p /data0/ctyun/sglang
cd /data0/ctyun/sglang
wget https://jiangsu-10.zos.ctyun.cn/galaxy/apptainer/sglang/sglang_v0.4.3-cu125.sif
3.2.2 创建启动脚本并运行
vi run.sh
# 配置SGLang启动参数
#!/bin/bash

# SGLang Server Startup Script
# Environment configuration
export OMP_NUM_THREADS=14
export NCCL_IB_DISABLE=1
export CUDA_VISIBLE_DEVICES="0,1,2,3,4,5,6,7"

# Model configuration
CONTAINER_PATH="/data0/ctyun/sglang/sglang_v0.4.3-cu125.sif"
WORKSPACE_DIR="/data0/ctyun/sglang/workspace" 
MODELS_DIR="/data0/DeepSeek-R1"
MODEL_NAME="DeepSeek-R1"

# Create workspace directory if it doesn't exist
mkdir -p "$WORKSPACE_DIR"

# Server Configuration
SGLANG_HOST="0.0.0.0"
SGLANG_PORT=8000

# Performance Configuration
TENSOR_PARALLEL_SIZE=8
TOKENIZER_MODE="auto"
LOG_LEVEL="info"

echo "Starting SGLang server with model: $MODEL_NAME"
echo "Using GPUs: $CUDA_VISIBLE_DEVICES with TP size: $TENSOR_PARALLEL_SIZE"

# Run the SGLang container with Apptainer/Singularity
# Use the LOCAL_PYTORCH_MODEL format to specify a local model
apptainer run --nv 
    --bind "$WORKSPACE_DIR:/workspace" 
    --bind "$MODELS_DIR:/model" 
    "$CONTAINER_PATH" 
    python3 -m sglang.launch_server 
    --model-path "/model" 
    --tokenizer-path "/model" 
    --host "$SGLANG_HOST" 
    --port "$SGLANG_PORT" 
    --tensor-parallel-size "$TENSOR_PARALLEL_SIZE" 
    --context-length 32768 
    --mem-fraction-static 0.9 
    --tokenizer-mode "$TOKENIZER_MODE" 
    --trust-remote-code 
    --log-level "$LOG_LEVEL"

# 启动服务
sh run.sh

🔔 小贴士:我发现vLLM在通用场景下表现更稳定,而SGLang在批处理场景下吞吐量略高。

SGLang明显占用显存一些,模型加载完成显存已经吃得差不多了。 

四、压力测试工具准备

为了全面评估DeepSeek R1 671B的性能,我使用了三种不同的测试工具:LLMPerf、EvalScope和SGLang内置的benchmark工具。

4.1 LLMPerf测试工具安装

LLMPerf是一个专门针对大模型设计的性能测试工具:

mkdir -p /data0/ctyun/yangxian
cd /data0/ctyun/yangxian
git clone https://gitee.com/yangxianpku/llmperf.git

# 设置环境变量
export HF_ENDPOINT=https://hf-mirror.com
export OPENAI_API_KEY=secret_abcdefg
export OPENAI_API_BASE="http://localhost:8000/v1/"

4.2 EvalScope测试工具安装

EvalScope是另一个功能强大的评估工具,尤其适合模拟真实用户请求:

# 创建虚拟环境
python3 -m venv evalscope
cd evalscope/
source bin/activate

# 安装evalscope
pip install evalscope
pip install evalscope[perf]

4.3 SGLang测试工具安装

SGLang自带了性能基准测试工具,可以精确测量批处理性能:

python3 -m venv sglang
cd sglang/
source bin/activate
pip install "sglang[all]>=0.4.3" --find-links https://flashinfer.ai/whl/cu124/torch2.5/flashinfer-python

五、压力测试方案与结果

接下来是最激动人心的部分 - 压力测试!我设计了一系列测试场景,从单并发到高并发,从短文本到长文本生成,全方位评估模型性能。

5.1 使用LLMPerf进行吞吐量测试

首先,测试不同输入长度下的单并发性能:

# 输入8K tokens,输出1K tokens
python3 token_benchmark_ray.py --model "DeepSeek-R1" 
  --mean-input-tokens 8192 --stddev-input-tokens 0 
  --mean-output-tokens 1024 --stddev-output-tokens 0 
  --max-num-completed-requests 6 --timeout 600 
  --num-concurrent-requests 1 --results-dir "result_outputs" 
  --llm-api openai --additional-sampling-params '{}'

然后,测试不同并发数下的性能表现:

# 64并发,输入4K tokens,输出1K tokens
python3 token_benchmark_ray.py --model "DeepSeek-R1" 
  --mean-input-tokens 4096 --stddev-input-tokens 0 
  --mean-output-tokens 1024 --stddev-output-tokens 0 
  --max-num-completed-requests 192 --timeout 600 
  --num-concurrent-requests 64 --results-dir "result_outputs" 
  --llm-api openai --additional-sampling-params '{}'

测试结果分析:

  • 单并发下,8K输入+1K输出的场景,平均吞吐量约为750 tokens/s
  • 并发数增加到64时,总吞吐量可达2万 tokens/s左右
  • 超过128并发后,性能提升不明显,甚至可能因资源竞争而下降

5.2 使用EvalScope模拟真实用户请求

EvalScope能模拟更接近真实场景的测试,我从低并发逐步提高到高并发:

# 单并发测试
evalscope perf --parallel 1 --url http://127.0.0.1:8000/v1/chat/completions 
  --model DeepSeek-R1 --log-every-n-query 5 --connect-timeout 6000 
  --read-timeout 6000 --max-tokens 2048 --min-tokens 2048 
  --api openai --dataset openqa --number 1 --stream

# 逐步提高并发
evalscope perf --parallel 192 --url http://127.0.0.1:8000/v1/chat/completions 
  --model DeepSeek-R1 --log-every-n-query 5 --connect-timeout 6000 
  --read-timeout 6000 --max-tokens 2048 --min-tokens 2048 
  --api openai --dataset openqa --number 192 --stream

测试发现:

  1. 对话模式下,流式输出(stream)的用户体验更好
  2. 并发提升到192时,延迟开始明显增加
  3. 输出token长度对吞吐量影响显著:
    • 2048 tokens输出:约10K tokens/s总吞吐量
    • 200 tokens输出:约25K tokens/s总吞吐量
    • 50 tokens输出:约35K tokens/s总吞吐量

5.3 使用SGLang测试批处理性能

SGLang特别适合测试批处理能力:

# 测试不同批处理大小
python3 -m sglang.bench_one_batch_server --model DeepSeek-R1 
  --base-url http://127.0.0.1:30000 --batch-size 1 
  --input-len 128 --output-len 128

python3 -m sglang.bench_one_batch_server --model DeepSeek-R1 
  --base-url http://127.0.0.1:30000 --batch-size 192 
  --input-len 128 --output-len 128

批处理测试结果:

  • 批处理大小=1:约800 tokens/s
  • 批处理大小=32:约12K tokens/s
  • 批处理大小=192:约28K tokens/s
  • 批处理大小=512:约32K tokens/s(但延迟增加显著)

六、性能监控与调优

在测试过程中,持续监控系统资源使用情况非常重要:

# GPU监控
nvidia-smi

# 系统资源监控
htop
nvtop

# 进程监控
top

基于监控结果,我发现了一些性能优化的关键点:

  1. GPU利用率:在高并发场景下,GPU利用率稳定在85%-95%之间最佳
  2. CPU资源:预处理和后处理阶段会消耗大量CPU资源,建议使用高频CPU
  3. 内存使用:671B模型在8卡配置下,每卡大约需要64-70GB显存
  4. 网络带宽:高并发场景下网络可能成为瓶颈,建议使用高速网络接口

七、常见问题与解决方案

在部署过程中,我遇到了一些常见问题,分享解决方案:

7.1 资源冲突问题

如果系统中运行着其他Docker容器或进程,可能会与模型部署冲突:

# 停止Docker服务
systemctl stop docker.service
systemctl stop docker.socket

# 终止占用资源的Python进程
pkill python3
kill -9 [PID]

7.2 GPU不可见问题

有时容器内无法正确识别GPU:

# 检查NVIDIA驱动与CUDA版本兼容性
nvidia-smi

# 确保使用--nv参数启动Apptainer
apptainer run --nv ...

7.3 模型加载缓慢

DeepSeek R1 671B模型非常大,首次加载可能需要3-5分钟,请耐心等待。

7.4 内存溢出错误

如果出现OOM错误,可以尝试:

  • 减小batch size
  • 减小tensor_parallel_size(但可能需要更多显存)
  • 使用模型量化版本(如FP8或INT8)

八、总结与建议

经过一系列测试,我对DeepSeek R1 671B模型有了更深入的了解:

  1. 硬件需求:8张高端GPU(如H20-141G)是基本配置,内存建议1TB以上
  2. 部署方式:vLLM在通用场景更稳定,SGLang在批处理场景优势明显
  3. 并发能力:最佳并发数在128-192之间,超过这个范围性能提升不明显
  4. 响应延迟:首token延迟约1-2秒,生成速度在单请求下750-800 tokens/s
  5. 吞吐量:在最佳配置下,整体吞吐量可达30K tokens/s左右

如果你计划在生产环境部署DeepSeek R1 671B,我的建议是:

  • 使用张量并行(TP)而非流水线并行(PP)
  • 针对真实业务场景进行针对性测试和优化
  • 考虑使用模型量化技术降低资源需求
  • 实现动态批处理以提高整体吞吐量

写在最后

通过这次DeepSeek R1 671B的部署之旅,我深刻体会到大模型服务化的挑战和乐趣。希望本文能帮助更多开发者了解如何部署和测试超大规模语言模型,也欢迎在评论区分享你的经验和问题。

你是否有部署超大模型的经历?遇到了哪些挑战?欢迎在评论区讨论!


关键词: DeepSeek R1, 671B, 大模型部署, vLLM, SGLang, 压力测试, GPU, 张量并行

本文地址:https://www.vps345.com/163.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 ssh deepseek Ollama 模型联网 API CherryStudio javascript 前端 chrome edge 进程 操作系统 进程控制 Ubuntu llama 算法 opencv 自然语言处理 神经网络 语言模型 数据库 centos oracle 关系型 安全 分布式 python MCP macos adb rust http java 网络 开发语言 numpy nginx 监控 自动化运维 阿里云 网络安全 网络协议 harmonyos 华为 typescript 计算机网络 django fastapi flask web3.py ubuntu 笔记 C 环境变量 进程地址空间 react.js 前端面试题 node.js 持续部署 Dell R750XS 科技 ai 人工智能 个人开发 统信 国产操作系统 虚拟机安装 gitlab c++ 多线程服务器 Linux网络编程 pycharm 深度学习 conda pillow spring json html5 firefox android kubernetes 容器 学习方法 经验分享 程序人生 windows 搜索引擎 c语言 github 创意 社区 docker DeepSeek-R1 API接口 flutter Hyper-V WinRM TrustedHosts RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 YOLOv8 NPU Atlas800 A300I pro asi_bench matlab ecm bpm tcp/ip Deepseek 自动化 蓝耘科技 元生代平台工作流 ComfyUI udp unity golang 后端 IIS .net core Hosting Bundle .NET Framework vs2022 php ollama llm 串口服务器 zotero WebDAV 同步失败 代理模式 YOLO pytorch vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 sql KingBase 银河麒麟 kylin v10 麒麟 v10 mcp mcp-proxy mcp-inspector fastapi-mcp agent sse spring boot websocket tomcat ESP32 LDAP nuxt3 vue3 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 面试 性能优化 jdk intellij-idea 架构 spring cloud kafka hibernate 运维开发 TRAE vim 编辑器 根服务器 重启 排查 系统重启 日志 原因 计算机视觉 maven 游戏程序 .net 医疗APP开发 app开发 uni-app AI编程 AIGC ffmpeg 音视频 AI大模型 大模型 大模型入门 大模型教程 webrtc sqlserver vscode Linux ukui 麒麟kylinos openeuler 微服务 远程工作 docker compose mysql android studio ruoyi springboot Nuxt.js jenkins 云原生 ci/cd git 嵌入式硬件 单片机 温湿度数据上传到服务器 Arduino HTTP big data express okhttp CORS 跨域 雨云 NPS apache 孤岛惊魂4 恒源云 java-ee tcp 博客 qt microsoft https Linux PID chatgpt oneapi open webui 学习 MQTT 消息队列 fpga开发 远程登录 telnet 报错 pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 华为认证 网络工程师 交换机 开源 爬虫 Headless Linux mongodb debian JAVA Java ide live555 rtsp rtp shell visualstudio k8s c# zookeeper 驱动开发 硬件工程 嵌入式实习 电脑 Samba SWAT 配置文件 服务管理 网络共享 WSL win11 无法解析服务器的名称或地址 kylin 大数据 v10 镜像源 软件 armbian u-boot Cline ecmascript nextjs react reactjs URL AI Agent ftp stm32 eureka web安全 LLM Web APP Streamlit hadoop 机器学习 opensearch helm ssrf 失效的访问控制 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x DeepSeek openwrt ux 多线程 Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket 小程序 redis svn 向日葵 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 开发环境 SSL证书 excel odoo 服务器动作 Server action 能力提升 面试宝典 技术 IT信息化 源码剖析 rtsp实现步骤 流媒体开发 腾讯云 智能路由器 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn prometheus 银河麒麟操作系统 国产化 rpc 远程过程调用 Windows环境 机器人 直播推流 C语言 ipython 物联网 FTP服务器 媒体 微信公众平台 3d 数学建模 网络结构图 服务器繁忙 联想开天P90Z装win10 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 jmeter 软件测试 av1 电视盒子 机顶盒ROM 魔百盒刷机 gitee ollama下载加速 统信UOS 麒麟 bonding 链路聚合 压力测试 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 权限 课程设计 cursor MCP server C/S LLM windows日志 安全架构 游戏服务器 Minecraft H3C 命名管道 客户端与服务端通信 其他 agi Cursor ansible playbook gpu算力 Dify es jvm 目标检测 华为云 springsecurity6 oauth2 授权服务器 前后端分离 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 pygame 小游戏 五子棋 html FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 交互 go file server http server web server ssl 集成学习 集成测试 openEuler jar arm Docker Hub docker pull daemon.json 代码调试 ipdb minio 远程连接 rdp 实验 负载均衡 僵尸进程 UOS 统信操作系统 yum oceanbase rc.local 开机自启 systemd MNN Qwen 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 llama3 Chatglm 开源大模型 深度优先 图论 并集查找 换根法 树上倍增 ddos DeepSeek行业应用 Heroku 网站部署 xss 缓存 数据集 ios pppoe radius hugo arm开发 flash-attention 远程桌面 gaussdb next.js 部署 部署next.js AI agent googlecloud bash IDEA Reactor 设计模式 C++ EMQX 通信协议 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 idm 宝塔面板 同步 备份 建站 安全威胁分析 vscode 1.86 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 unity3d 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 SSH 豆瓣 追剧助手 迅雷 nas 微信 内存 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 virtualenv aws 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS elasticsearch IIS服务器 IIS性能 日志监控 intellij idea 监控k8s集群 集群内prometheus sqlite dubbo TCP服务器 qt项目 qt项目实战 qt教程 openssl 密码学 模拟退火算法 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP mosquitto 外网访问 内网穿透 端口映射 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 Docker Compose docker-compose transformer nac 802.1 portal proxy模式 AISphereButler CH340 串口驱动 CH341 uart 485 HAProxy 5G 3GPP 卫星通信 kamailio sip VoIP 大数据平台 虚拟局域网 银河麒麟高级服务器 外接硬盘 Kylin echarts 信息可视化 数据分析 网页设计 中间件 gradle c 框架搭建 kind 系统安全 显卡驱动 回显服务器 UDP的API使用 vSphere vCenter VMware安装mocOS VMware macOS系统安装 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 mac bcompare Beyond Compare remote-ssh 模拟器 教程 ESXi Dell HPE 联想 浪潮 tcpdump ros rust腐蚀 devops 微信小程序 dify ceph Python基础 Python教程 Python技巧 web 升级 CVE-2024-7347 漏洞 云服务器 VPS 无人机 .net mvc断点续传 gateway 实战案例 gcc 华为od 数据结构 需求分析 规格说明书 zabbix iBMC UltraISO Claude 测试工具 autodl 软件定义数据中心 sddc 深度求索 私域 知识库 RTMP 应用层 jupyter 反向代理 AnythingLLM AnythingLLM安装 虚幻 游戏引擎 线程 状态模式 智能手机 矩阵 飞书 wsl web3 程序员 EMUI 回退 降级 环境配置 信息与通信 中兴光猫 换光猫 网络桥接 自己换光猫 传统数据库升级 银行 大语言模型 LLMs springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 职场和发展 单一职责原则 IPMITOOL BMC 硬件管理 ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS opcua opcda KEPServer安装 P2P HDLC 思科 大模型微调 工业4.0 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm frp IMM QT 5.12.12 QT开发环境 Ubuntu18.04 双系统 GRUB引导 Linux技巧 apt 腾讯云大模型知识引擎 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 1024程序员节 微信开放平台 微信公众号配置 gitea 鸿蒙 鸿蒙系统 前端框架 游戏开发 hexo 移动云 可信计算技术 鲲鹏 小智AI服务端 xiaozhi TTS FTP 服务器 图像处理 can 线程池 单元测试 功能测试 selenium uniapp 技能大赛 计算机外设 ui SSL 域名 Anolis nginx安装 环境安装 linux插件下载 昇腾 npu mariadb ssh远程登录 图形化界面 换源 国内源 Debian 僵尸世界大战 游戏服务器搭建 多进程 远程 命令 执行 sshpass 操作 linux上传下载 健康医疗 互联网医院 nfs wps 安卓 mcu GCC crosstool-ng rabbitmq rnn vmware 卡死 HarmonyOS Next 毕昇JDK wsl2 webstorm Trae IDE AI 原生集成开发环境 Trae AI tensorflow 浏览器开发 AI浏览器 npm linux安装配置 嵌入式 linux驱动开发 企业微信 Linux24.04 deepin Kali Linux 黑客 渗透测试 信息收集 h.264 micropython esp32 mqtt selete 高级IO HarmonyOS 多层架构 解耦 seatunnel RustDesk自建服务器 rustdesk服务器 docker rustdesk yaml Ultralytics 可视化 黑客技术 流式接口 项目部署到linux服务器 项目部署过程 本地部署 pyqt deekseek ragflow 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 半虚拟化 硬件虚拟化 Hypervisor etl etcd 数据安全 RBAC wireshark EasyConnect vscode1.86 1.86版本 ssh远程连接 田俊楠 SSE rocketmq open Euler dde 迁移指南 网卡的名称修改 eth0 ens33 微信分享 Image wxopensdk .netcore ue4 着色器 ue5 网工 postgresql pgpool 开机自启动 rag ragflow 源码启动 grafana 视觉检测 adobe Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 elk bug clickhouse outlook 信号 xrdp jina TrinityCore 魔兽世界 cuda cudnn anaconda mamba Vmamba rclone AList webdav fnOS sysctl.conf vm.nr_hugepages dash 正则表达式 ip 小艺 Pura X IMX317 MIPI H265 VCU visual studio code 群晖 文件分享 软件工程 iis Linux的基础指令 W5500 OLED u8g2 chfs ubuntu 16.04 token sas 环境迁移 lio-sam SLAM 服务器管理 配置教程 服务器安装 网站管理 崖山数据库 YashanDB composer 视频编解码 pip 宠物 毕业设计 免费学习 宠物领养 宠物平台 Ubuntu 24.04.1 轻量级服务器 产测工具框架 IMX6ULL 管理框架 matplotlib python3.11 rsyslog cpu 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 历史版本 下载 安装 NFS 毕设 相差8小时 UTC 时间 远程控制 远程看看 远程协助 HiCar CarLife+ CarPlay QT RK3588 yolov8 Node-Red 编程工具 流编程 知识图谱 网络穿透 系统架构 CPU safari Mac 系统 VR手套 数据手套 动捕手套 动捕数据手套 dns nvidia 低代码 unix 三级等保 服务器审计日志备份 程序 编程 性能分析 bat OD机试真题 华为OD机试真题 服务器能耗统计 bootstrap 策略模式 单例模式 软考 linux 命令 sed 命令 css 7z 智能音箱 智能家居 输入法 多个客户端访问 IO多路复用 TCP相关API 实时互动 prompt easyui langchain list 模拟实现 tailscale derp derper 中转 主板 电源 网卡 网络攻击模型 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors XCC Lenovo 自动驾驶 压测 ECS 繁忙 解决办法 替代网站 汇总推荐 AI推理 n8n 工作流 workflow fd 文件描述符 CDN Clion Nova ResharperC++引擎 Centos7 远程开发 dba embedding IPv4 子网掩码 公网IP 私有IP Windows SSH 密钥生成 SSH 公钥 私钥 生成 Qwen2.5-coder 离线部署 wsgiref Web 服务器网关接口 cocoapods xcode threejs 3D skynet 数据挖掘 SenseVoice 硬件架构 DOIT 四博智联 防火墙 NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 stm32项目 LORA NLP SSH 服务 SSH Server OpenSSH Server ardunio BLE 端口测试 合成模型 扩散模型 图像生成 iDRAC R720xd r语言 iperf3 带宽测试 序列化反序列化 常用命令 文本命令 目录命令 ShenTong 计算机 thingsboard 磁盘监控 iot dell服务器 iventoy VmWare OpenEuler css3 DevEco Studio OpenHarmony 真机调试 XFS xfs文件系统损坏 I_O error 服务器主板 AI芯片 Jellyfin sdkman 服务器配置 生物信息学 Wi-Fi 超融合 prometheus数据采集 prometheus数据模型 prometheus特点 Spring Security 我的世界 我的世界联机 数码 相机 我的世界服务器搭建 asm AI-native Docker Desktop 王者荣耀 IPMI 带外管理 软链接 硬链接 db 硬件 设备 GPU PCI-Express WebUI DeepSeek V3 jetty undertow tidb GLIBC 虚拟机 ISO镜像作为本地源 mysql离线安装 ubuntu22.04 mysql8.0 云服务 文件系统 路径解析 云电竞 云电脑 todesk 源码 webgl Erlang OTP gen_server 热代码交换 事务语义 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 centos-root /dev/mapper yum clean all df -h / du -sh 考研 onlyoffice 在线office sqlite3 g++ g++13 基础入门 CrewAI ruby log4j hive Hive环境搭建 hive3环境 Hive远程模式 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 redhat freebsd Xinference RAGFlow glibc rustdesk Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 dns是什么 如何设置电脑dns dns应该如何设置 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 VMware安装Ubuntu Ubuntu安装k8s 测试用例 AI写作 AI作画 QQ 聊天室 epoll 信号处理 ocr WSL2 思科模拟器 Cisco IM即时通讯 剪切板对通 HTML FORMAT MySql RAGFLOW 移动魔百盒 cd 目录切换 Radius USB转串口 飞牛NAS 飞牛OS MacBook Pro camera Arduino 电子信息 harmonyOS面试题 cnn GoogLeNet muduo Typore 个人博客 X11 Xming 邮件APP 免费软件 KylinV10 麒麟操作系统 Vmware Ubuntu Server Ubuntu 22.04.5 银河麒麟服务器操作系统 系统激活 k8s集群资源管理 云原生开发 算力 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 aarch64 编译安装 HPC 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 烟花代码 烟花 元旦 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 显示管理器 lightdm gdm 树莓派 VNC 阻塞队列 生产者消费者模型 服务器崩坏原因 laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 vue less 直流充电桩 充电桩 deepseek r1 junit xpath定位元素 交叉编译 SEO dity make netty p2p make命令 makefile文件 sentinel 边缘计算 Xterminal iphone NAS Termux RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 Linux环境 firewall AD域 致远OA OA服务器 服务器磁盘扩容 镜像 游戏机 抗锯齿 Netty 即时通信 NIO 实习 HTTP 服务器控制 ESP32 DeepSeek uv Kali vasp安装 智能硬件 查询数据库服务IP地址 SQL Server 加解密 Yakit yaklang 语音识别 AutoDL navicat HCIE 数通 技术共享 ROS wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 MS Materials 金仓数据库 2025 征文 数据库平替用金仓 eclipse 业界资讯 MacOS录屏软件 code-server SVN Server tortoise svn 数据可视化 SysBench 基准测试 流量运营 华为机试 强化学习 数据库系统 dock 加速 C# MQTTS 双向认证 emqx 政务 分布式系统 监控运维 Prometheus Grafana docker命令大全 cmos ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 RAG 检索增强生成 文档解析 大模型垂直应用 llama.cpp 做raid 装系统 gpt-3 文心一言 Ubuntu共享文件夹 共享目录 Linux共享文件夹 人工智能生成内容 金融 网络用户购物行为分析可视化平台 大数据毕业设计 火绒安全 内网服务器 内网代理 内网通信 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 eNSP 网络规划 VLAN 企业网络 大模型面经 大模型学习 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 neo4j kali 共享文件夹 嵌入式Linux IPC 拓扑图 剧本 gnu docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 IO VS Code 匿名管道 基础环境 开发 ubuntu20.04 开机黑屏 LInux springcloud wpf 灵办AI VSCode 链表 沙盒 word RAID RAID技术 磁盘 存储 AD 域管理 spark HistoryServer Spark YARN jobhistory 多路转接 网站搭建 serv00 项目部署 grub 版本升级 扩容 CentOS Stream CentOS edge浏览器 USB网络共享 Playwright 自动化测试 元服务 应用上架 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS 软件需求 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 大大通 第三代半导体 碳化硅 ai工具 java-rocketmq ldap OpenSSH 蓝桥杯 YOLOv12 minecraft trae GIS 遥感 WebGIS ssh漏洞 ssh9.9p2 CVE-2025-23419 内网环境 IO模型 Cookie 分布式训练 Kylin-Server AI代码编辑器 seleium chromedriver cpp-httplib 目标跟踪 OpenVINO 推理应用 WebRTC gpt Redis Desktop win服务器架设 windows server 分析解读 ABAP perf 风扇控制软件 DBeaver 数据仓库 kerberos SRS 流媒体 直播 存储维护 NetApp存储 EMC存储 系统开发 binder 车载系统 framework 源码环境 openstack Xen 雨云服务器 TCP协议 MacMini 迷你主机 mini Apple 服务器部署ai模型 Logstash 日志采集 软负载 CLion milvus AI Agent 字节智能运维 swoole curl wget 端口 查看 ss 程序员创富 risc-v firewalld docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 西门子PLC 通讯 ubuntu24.04.1 热榜 ip命令 新增网卡 新增IP 启动网卡 北亚数据恢复 oracle数据恢复 visual studio sonoma 自动更新 xshell termius iterm2 rpa 数据库开发 database triton 模型分析 PX4 fast 大模型应用 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 自动化任务管理 宕机切换 服务器宕机 keepalived ArcTS 登录 ArcUI GridItem arkUI 服务网格 istio js Linux find grep flink 代理 飞牛nas fnos chrome devtools 离线部署dify yum源切换 更换国内yum源 企业网络规划 华为eNSP PVE vr 鸿蒙开发 移动开发 mq Unity插件 语法 x64 SIGSEGV xmm0 黑苹果 sequoiaDB TrueLicense Linux的权限 捆绑 链接 谷歌浏览器 youtube google gmail 图形渲染 李心怡 trea idea Google pay Apple pay DNS UDP docker部署Python Invalid Host allowedHosts alias unalias 别名 混合开发 JDK regedit 开机启动 VMware创建虚拟机 键盘 办公自动化 自动化生成 pdf教程 服务器时间 arcgis 影刀 #影刀RPA# 本地化部署 网络爬虫 大模型推理 搭建个人相关服务器 minicom 串口调试工具 音乐服务器 Navidrome 音流 京东云 DenseNet ping++ 嵌入式系统开发 产品经理 MDK 嵌入式开发工具 论文笔记 sublime text 代理服务器 私有化 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 运维监控 玩机技巧 软件分享 软件图标 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR pyautogui 架构与原理 bot Docker 虚幻引擎 leetcode 推荐算法 DocFlow figma ubuntu24 vivado24 远程服务 conda配置 conda镜像源 阿里云ECS 论文阅读 自动化编程 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 大模型部署 社交电子 ros2 moveit 机器人运动 Deepseek-R1 私有化部署 推理模型 欧标 OCPP lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 物联网开发 lua vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 Open WebUI 域名服务 DHCP 符号链接 配置 docker run 数据卷挂载 交互模式 性能测试 音乐库 飞牛 实用教程 裸金属服务器 弹性裸金属服务器 本地知识库部署 DeepSeek R1 模型 粘包问题 deep learning searxng midjourney 网络药理学 生信 PPI String Cytoscape CytoHubba iftop 网络流量监控 rime linux环境变量 状态管理的 UDP 服务器 Arduino RTOS 信创 信创终端 中科方德 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 nlp 干货分享 黑客工具 密码爆破 Windsurf Ark-TS语言 聚类 mybatis Attention hosts EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 执法记录仪 智能安全帽 smarteye xml