最新资讯

  • 从零开始:H20服务器上DeepSeek R1 671B大模型部署与压力测试全攻略

从零开始:H20服务器上DeepSeek R1 671B大模型部署与压力测试全攻略

2025-04-28 19:02:11 0 阅读

前言

最近,我有幸在工作中接触到了DeepSeek R1 671B模型,这是目前中文开源领域参数量最大的高质量模型之一。DeepSeek团队在2024年推出的这款模型,以其惊人的6710亿参数量和出色的推理性能,引起了业界广泛关注。

作为一名AI基础设施工程师,我有机会在H20服务器上部署这个庞然大物,并对其进行了全面的压力测试。这篇文章将详细记录我的部署过程和性能测试方法,希望能为大家提供一些参考。

💡 为什么选择DeepSeek R1?

  • 超大规模参数量(671B)
  • 优秀的中英文理解能力
  • 开源可商用的许可证
  • 在多项基准测试中表现优异

那么,如何在自己的服务器上部署这个"巨无霸"模型呢?接下来,我将分享我的完整操作流程。

一、环境准备

1.1 硬件配置

在开始部署之前,先来看看我使用的硬件配置:

  • 服务器型号:H20
  • GPU:8×NVIDIA H20 (141GB)
  • CPU:双路Intel至强处理器
  • 内存:2TB
  • 存储:高速NVMe SSD

这套配置对于部署671B参数的模型来说是刚好够用的。根据我的经验,至少需要8张高端GPU才能满足推理需求。

1.2 环境检查

首先,确认系统资源是否满足需求:

# 检查CPU信息
lscpu

# 检查GPU信息
nvidia-smi

# 检查内存信息
dmidecode -t memory

# 检查磁盘空间
df -h

 这次试用的H20是141G显存的PCIE版本。8张GPU之间都是通过NV18(18条NVLink)互联,形成了全互联(fully connected)的网络拓扑,GPU0-3属于NUMA节点0 (CPU核心0-55,112-167),GPU4-7属于NUMA节点1 (CPU核心56-111,168-223),单卡总带宽:26.562 × 18 ≈ 478 GB/s

 

特别注意:部署DeepSeek R1 671B至少需要700GB的磁盘空间用于存储模型文件,请确保有足够空间。

1.3 软件环境配置

我选择使用Apptainer(原Singularity)作为容器运行环境,它比Docker更适合HPC场景,在多GPU协作方面表现更好。

# 安装Apptainer
sudo add-apt-repository -y ppa:apptainer/ppa
sudo apt update
sudo apt install -y apptainer

# 检查安装版本
apptainer --version

二、模型获取与存储

2.1 模型下载

DeepSeek R1 671B模型可以从官方渠道下载,但文件非常大。在我的案例中,模型已预先下载并存储在 /data0/DeepSeek-R1/ 目录下。

2.2 模型完整性验证

下载完成后,务必验证模型文件的完整性:

cd /data0/DeepSeek-R1
# 验证模型文件的MD5值
md5sum model-00001-of-00163.safetensors

⚠️ 注意:模型文件可能分为多个部分,一定要验证所有文件的完整性,避免因文件损坏导致的启动失败。

三、服务部署

对于超大规模模型,我测试了两种主流的部署方式:基于vLLM和基于SGLang的部署。

3.1 基于vLLM的部署

vLLM是一个高性能的大语言模型推理引擎,专为LLM优化,支持PagedAttention等技术,内存使用效率高。

3.1.1 获取vLLM容器镜像
mkdir -p /data0/ctyun/vllm
cd /data0/ctyun/vllm
wget https://jiangsu-10.zos.ctyun.cn/galaxy/apptainer/vllm/vllm-openai_v0.7.3.sif
3.1.2 创建启动脚本
vi run.sh

在脚本中添加以下内容:

#!/bin/bash
apptainer run --nv vllm-openai_v0.7.3.sif 
  python3 -m vllm.entrypoints.openai.api_server 
  --model /data0/DeepSeek-R1 
  --tensor-parallel-size 8 
  --host 0.0.0.0 
  --port 8000

这里的关键参数是--tensor-parallel-size 8,表示使用8卡张量并行,这对于671B规模的模型是必须的。

3.1.3 启动服务
sh run.sh

vllm服务启动成功后,每块显卡的显存已经占用了122G。 

成功启动后,vLLM会提供一个兼容OpenAI API格式的接口,默认端口为8000。

3.2 基于SGLang的部署

SGLang是另一个优秀的LLM推理框架,特别在批处理方面有一些独特优势。

3.2.1 下载SGLang容器镜像
mkdir -p /data0/ctyun/sglang
cd /data0/ctyun/sglang
wget https://jiangsu-10.zos.ctyun.cn/galaxy/apptainer/sglang/sglang_v0.4.3-cu125.sif
3.2.2 创建启动脚本并运行
vi run.sh
# 配置SGLang启动参数
#!/bin/bash

# SGLang Server Startup Script
# Environment configuration
export OMP_NUM_THREADS=14
export NCCL_IB_DISABLE=1
export CUDA_VISIBLE_DEVICES="0,1,2,3,4,5,6,7"

# Model configuration
CONTAINER_PATH="/data0/ctyun/sglang/sglang_v0.4.3-cu125.sif"
WORKSPACE_DIR="/data0/ctyun/sglang/workspace" 
MODELS_DIR="/data0/DeepSeek-R1"
MODEL_NAME="DeepSeek-R1"

# Create workspace directory if it doesn't exist
mkdir -p "$WORKSPACE_DIR"

# Server Configuration
SGLANG_HOST="0.0.0.0"
SGLANG_PORT=8000

# Performance Configuration
TENSOR_PARALLEL_SIZE=8
TOKENIZER_MODE="auto"
LOG_LEVEL="info"

echo "Starting SGLang server with model: $MODEL_NAME"
echo "Using GPUs: $CUDA_VISIBLE_DEVICES with TP size: $TENSOR_PARALLEL_SIZE"

# Run the SGLang container with Apptainer/Singularity
# Use the LOCAL_PYTORCH_MODEL format to specify a local model
apptainer run --nv 
    --bind "$WORKSPACE_DIR:/workspace" 
    --bind "$MODELS_DIR:/model" 
    "$CONTAINER_PATH" 
    python3 -m sglang.launch_server 
    --model-path "/model" 
    --tokenizer-path "/model" 
    --host "$SGLANG_HOST" 
    --port "$SGLANG_PORT" 
    --tensor-parallel-size "$TENSOR_PARALLEL_SIZE" 
    --context-length 32768 
    --mem-fraction-static 0.9 
    --tokenizer-mode "$TOKENIZER_MODE" 
    --trust-remote-code 
    --log-level "$LOG_LEVEL"

# 启动服务
sh run.sh

🔔 小贴士:我发现vLLM在通用场景下表现更稳定,而SGLang在批处理场景下吞吐量略高。

SGLang明显占用显存一些,模型加载完成显存已经吃得差不多了。 

四、压力测试工具准备

为了全面评估DeepSeek R1 671B的性能,我使用了三种不同的测试工具:LLMPerf、EvalScope和SGLang内置的benchmark工具。

4.1 LLMPerf测试工具安装

LLMPerf是一个专门针对大模型设计的性能测试工具:

mkdir -p /data0/ctyun/yangxian
cd /data0/ctyun/yangxian
git clone https://gitee.com/yangxianpku/llmperf.git

# 设置环境变量
export HF_ENDPOINT=https://hf-mirror.com
export OPENAI_API_KEY=secret_abcdefg
export OPENAI_API_BASE="http://localhost:8000/v1/"

4.2 EvalScope测试工具安装

EvalScope是另一个功能强大的评估工具,尤其适合模拟真实用户请求:

# 创建虚拟环境
python3 -m venv evalscope
cd evalscope/
source bin/activate

# 安装evalscope
pip install evalscope
pip install evalscope[perf]

4.3 SGLang测试工具安装

SGLang自带了性能基准测试工具,可以精确测量批处理性能:

python3 -m venv sglang
cd sglang/
source bin/activate
pip install "sglang[all]>=0.4.3" --find-links https://flashinfer.ai/whl/cu124/torch2.5/flashinfer-python

五、压力测试方案与结果

接下来是最激动人心的部分 - 压力测试!我设计了一系列测试场景,从单并发到高并发,从短文本到长文本生成,全方位评估模型性能。

5.1 使用LLMPerf进行吞吐量测试

首先,测试不同输入长度下的单并发性能:

# 输入8K tokens,输出1K tokens
python3 token_benchmark_ray.py --model "DeepSeek-R1" 
  --mean-input-tokens 8192 --stddev-input-tokens 0 
  --mean-output-tokens 1024 --stddev-output-tokens 0 
  --max-num-completed-requests 6 --timeout 600 
  --num-concurrent-requests 1 --results-dir "result_outputs" 
  --llm-api openai --additional-sampling-params '{}'

然后,测试不同并发数下的性能表现:

# 64并发,输入4K tokens,输出1K tokens
python3 token_benchmark_ray.py --model "DeepSeek-R1" 
  --mean-input-tokens 4096 --stddev-input-tokens 0 
  --mean-output-tokens 1024 --stddev-output-tokens 0 
  --max-num-completed-requests 192 --timeout 600 
  --num-concurrent-requests 64 --results-dir "result_outputs" 
  --llm-api openai --additional-sampling-params '{}'

测试结果分析:

  • 单并发下,8K输入+1K输出的场景,平均吞吐量约为750 tokens/s
  • 并发数增加到64时,总吞吐量可达2万 tokens/s左右
  • 超过128并发后,性能提升不明显,甚至可能因资源竞争而下降

5.2 使用EvalScope模拟真实用户请求

EvalScope能模拟更接近真实场景的测试,我从低并发逐步提高到高并发:

# 单并发测试
evalscope perf --parallel 1 --url http://127.0.0.1:8000/v1/chat/completions 
  --model DeepSeek-R1 --log-every-n-query 5 --connect-timeout 6000 
  --read-timeout 6000 --max-tokens 2048 --min-tokens 2048 
  --api openai --dataset openqa --number 1 --stream

# 逐步提高并发
evalscope perf --parallel 192 --url http://127.0.0.1:8000/v1/chat/completions 
  --model DeepSeek-R1 --log-every-n-query 5 --connect-timeout 6000 
  --read-timeout 6000 --max-tokens 2048 --min-tokens 2048 
  --api openai --dataset openqa --number 192 --stream

测试发现:

  1. 对话模式下,流式输出(stream)的用户体验更好
  2. 并发提升到192时,延迟开始明显增加
  3. 输出token长度对吞吐量影响显著:
    • 2048 tokens输出:约10K tokens/s总吞吐量
    • 200 tokens输出:约25K tokens/s总吞吐量
    • 50 tokens输出:约35K tokens/s总吞吐量

5.3 使用SGLang测试批处理性能

SGLang特别适合测试批处理能力:

# 测试不同批处理大小
python3 -m sglang.bench_one_batch_server --model DeepSeek-R1 
  --base-url http://127.0.0.1:30000 --batch-size 1 
  --input-len 128 --output-len 128

python3 -m sglang.bench_one_batch_server --model DeepSeek-R1 
  --base-url http://127.0.0.1:30000 --batch-size 192 
  --input-len 128 --output-len 128

批处理测试结果:

  • 批处理大小=1:约800 tokens/s
  • 批处理大小=32:约12K tokens/s
  • 批处理大小=192:约28K tokens/s
  • 批处理大小=512:约32K tokens/s(但延迟增加显著)

六、性能监控与调优

在测试过程中,持续监控系统资源使用情况非常重要:

# GPU监控
nvidia-smi

# 系统资源监控
htop
nvtop

# 进程监控
top

基于监控结果,我发现了一些性能优化的关键点:

  1. GPU利用率:在高并发场景下,GPU利用率稳定在85%-95%之间最佳
  2. CPU资源:预处理和后处理阶段会消耗大量CPU资源,建议使用高频CPU
  3. 内存使用:671B模型在8卡配置下,每卡大约需要64-70GB显存
  4. 网络带宽:高并发场景下网络可能成为瓶颈,建议使用高速网络接口

七、常见问题与解决方案

在部署过程中,我遇到了一些常见问题,分享解决方案:

7.1 资源冲突问题

如果系统中运行着其他Docker容器或进程,可能会与模型部署冲突:

# 停止Docker服务
systemctl stop docker.service
systemctl stop docker.socket

# 终止占用资源的Python进程
pkill python3
kill -9 [PID]

7.2 GPU不可见问题

有时容器内无法正确识别GPU:

# 检查NVIDIA驱动与CUDA版本兼容性
nvidia-smi

# 确保使用--nv参数启动Apptainer
apptainer run --nv ...

7.3 模型加载缓慢

DeepSeek R1 671B模型非常大,首次加载可能需要3-5分钟,请耐心等待。

7.4 内存溢出错误

如果出现OOM错误,可以尝试:

  • 减小batch size
  • 减小tensor_parallel_size(但可能需要更多显存)
  • 使用模型量化版本(如FP8或INT8)

八、总结与建议

经过一系列测试,我对DeepSeek R1 671B模型有了更深入的了解:

  1. 硬件需求:8张高端GPU(如H20-141G)是基本配置,内存建议1TB以上
  2. 部署方式:vLLM在通用场景更稳定,SGLang在批处理场景优势明显
  3. 并发能力:最佳并发数在128-192之间,超过这个范围性能提升不明显
  4. 响应延迟:首token延迟约1-2秒,生成速度在单请求下750-800 tokens/s
  5. 吞吐量:在最佳配置下,整体吞吐量可达30K tokens/s左右

如果你计划在生产环境部署DeepSeek R1 671B,我的建议是:

  • 使用张量并行(TP)而非流水线并行(PP)
  • 针对真实业务场景进行针对性测试和优化
  • 考虑使用模型量化技术降低资源需求
  • 实现动态批处理以提高整体吞吐量

写在最后

通过这次DeepSeek R1 671B的部署之旅,我深刻体会到大模型服务化的挑战和乐趣。希望本文能帮助更多开发者了解如何部署和测试超大规模语言模型,也欢迎在评论区分享你的经验和问题。

你是否有部署超大模型的经历?遇到了哪些挑战?欢迎在评论区讨论!


关键词: DeepSeek R1, 671B, 大模型部署, vLLM, SGLang, 压力测试, GPU, 张量并行

本文地址:https://www.vps345.com/4907.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 进程 操作系统 进程控制 Ubuntu ssh deepseek Ollama 模型联网 API CherryStudio python MCP llama 算法 opencv 自然语言处理 神经网络 语言模型 数据库 centos oracle 关系型 安全 分布式 javascript 前端 chrome edge Dell R750XS 科技 ai java 人工智能 个人开发 harmonyos 华为 开发语言 typescript 计算机网络 ubuntu 阿里云 网络 网络安全 网络协议 react.js 前端面试题 node.js 持续部署 php android ollama llm c++ c语言 http ESP32 YOLO 深度学习 pytorch nuxt3 vue3 sql KingBase 银河麒麟 kylin v10 麒麟 v10 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse spring boot websocket 自动化 蓝耘科技 元生代平台工作流 ComfyUI docker 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 adb nginx 监控 自动化运维 pycharm conda pillow django flask web3.py kubernetes 容器 学习方法 经验分享 程序人生 gitlab rust numpy DeepSeek-R1 API接口 spring json html5 firefox macos tcp/ip github 创意 社区 笔记 C 环境变量 进程地址空间 RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 ecm bpm zotero WebDAV 同步失败 代理模式 IIS .net core Hosting Bundle .NET Framework vs2022 ssl Reactor 设计模式 性能优化 C++ UOS 统信操作系统 yum windows oceanbase rc.local 开机自启 systemd 麒麟 eureka web安全 云原生 AIGC AI MNN DeepSeek Qwen 机器学习 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 chatgpt 大模型 llama3 Chatglm 开源大模型 媒体 kylin 深度优先 图论 并集查找 换根法 树上倍增 redis xss 串口服务器 后端 pppoe radius microsoft arm开发 架构 mongodb golang Dify java-ee udp react next.js 部署 部署next.js AI编程 机器人 AI agent prometheus 监控k8s集群 集群内prometheus ide vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 googlecloud tomcat qt 多线程服务器 TCP服务器 qt项目 qt项目实战 qt教程 bash 小程序 JAVA IDEA Java YOLOv8 NPU Atlas800 A300I pro 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 远程工作 面试 jdk intellij-idea idm 编辑器 宝塔面板 同步 备份 建站 安全威胁分析 vscode 1.86 jenkins gitee uni-app unity unity3d 目标检测 计算机视觉 医疗APP开发 app开发 豆瓣 追剧助手 迅雷 nas 微信 内存 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 LDAP https jvm aws 服务器繁忙 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS 国产化 IIS服务器 IIS性能 日志监控 ios flutter maven intellij idea 腾讯云 sqlite dubbo openssl 密码学 MQTT mosquitto 消息队列 智能路由器 外网访问 内网穿透 端口映射 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 debian fpga开发 spring cloud kafka hibernate shell 根服务器 游戏程序 ffmpeg 音视频 sqlserver vscode 微服务 统信 国产操作系统 虚拟机安装 android studio ftp git GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 运维开发 apache 孤岛惊魂4 恒源云 爬虫 数据集 tcp 博客 oneapi open webui virtualenv arm 远程登录 telnet pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 华为认证 网络工程师 交换机 开源 Linux网络编程 Headless Linux excel live555 rtsp rtp visualstudio c# zookeeper 嵌入式硬件 驱动开发 硬件工程 嵌入式实习 电脑 WSL win11 无法解析服务器的名称或地址 学习 armbian u-boot vim Cline ecmascript nextjs reactjs 重启 排查 系统重启 日志 原因 URL 单片机 3d 数学建模 权限 网络结构图 搜索引擎 mysql HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x openwrt ux 多线程 Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket svn stm32 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 开发环境 SSL证书 Docker Compose docker compose docker-compose 能力提升 面试宝典 技术 IT信息化 源码剖析 rtsp实现步骤 流媒体开发 Cursor TRAE Flask FastAPI Waitress Gunicorn uWSGI Uvicorn 银河麒麟操作系统 rpc 远程过程调用 Windows环境 直播推流 C语言 物联网 Hyper-V WinRM TrustedHosts 微信公众平台 Docker Hub docker pull 镜像源 daemon.json Linux asi_bench ci/cd pygame 小游戏 五子棋 联想开天P90Z装win10 matlab mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 Deepseek cursor MCP server C/S LLM 僵尸进程 安全架构 游戏服务器 Minecraft ddos H3C 向日葵 agi 报错 ansible playbook gpu算力 华为云 springsecurity6 oauth2 授权服务器 前后端分离 flash-attention html FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 交互 go file server http server web server 集成学习 集成测试 代码调试 ipdb 远程连接 rdp 实验 jar BMC IPMI 带外管理 企业微信 Linux24.04 deepin 职场和发展 db 微信小程序 jetty undertow selenium 测试工具 tidb GLIBC xpath定位元素 缓存 鸿蒙 华为od ISO镜像作为本地源 n8n dity make postgresql okhttp 云电竞 云电脑 todesk 王者荣耀 视觉检测 Erlang OTP gen_server 热代码交换 事务语义 devops 1024程序员节 信息与通信 ip list 模拟实现 ui 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 群晖 大数据 智能手机 NAS Termux Samba rabbitmq ruby express fd 文件描述符 deepseek r1 低代码 DeepSeek行业应用 Heroku 网站部署 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 jupyter pip 游戏引擎 抗锯齿 Qwen2.5-coder 离线部署 unix mac GPU 实习 make命令 makefile文件 hugo cocoapods xcode threejs 3D c 虚拟机 IMX317 MIPI H265 VCU 远程桌面 gaussdb SenseVoice ruoyi 负载均衡 iphone 程序员 无人机 鸿蒙系统 kind yolov8 AI写作 AI作画 QQ 聊天室 安卓 HarmonyOS Next wireshark ocr 镜像 思科模拟器 思科 Cisco IM即时通讯 剪切板对通 HTML FORMAT elasticsearch minio Radius 金仓数据库 2025 征文 数据库平替用金仓 软件测试 muduo 个人博客 KylinV10 麒麟操作系统 Vmware 其他 银河麒麟服务器操作系统 系统激活 navicat hadoop ROS 自动驾驶 命令 算力 visual studio code 系统安全 mamba Vmamba proxy模式 5G 3GPP 卫星通信 EMQX 通信协议 GCC aarch64 编译安装 HPC less HAProxy 虚拟局域网 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 策略模式 单例模式 信号处理 iBMC UltraISO windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 MacOS录屏软件 显示管理器 lightdm gdm 树莓派 VNC 阻塞队列 生产者消费者模型 服务器崩坏原因 tcpdump laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 vue css grafana ollama下载加速 junit SEO 显卡驱动 漏洞 netty Python基础 Python教程 Python技巧 p2p 网络穿透 云服务器 实战案例 Nuxt.js webrtc SSH Xterminal Windows bcompare Beyond Compare 模拟器 教程 AD域 反向代理 致远OA OA服务器 服务器磁盘扩容 CORS 跨域 游戏机 Netty 即时通信 NIO 环境配置 Claude HTTP 服务器控制 ESP32 DeepSeek 虚幻 AnythingLLM AnythingLLM安装 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 vasp安装 查询数据库服务IP地址 SQL Server 加解密 Yakit yaklang 语音识别 AutoDL P2P HDLC k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm HCIE 数通 redhat QT 5.12.12 QT开发环境 Ubuntu18.04 双系统 GRUB引导 Linux技巧 wsl springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 计算机 apt 中兴光猫 换光猫 网络桥接 自己换光猫 eclipse gateway Clion Nova ResharperC++引擎 Centos7 远程开发 图像处理 业界资讯 can 线程池 Agent ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS code-server 技能大赛 SVN Server tortoise svn r语言 数据挖掘 数据可视化 数据分析 zabbix 单元测试 功能测试 ssh远程登录 AISphereButler 远程 执行 sshpass 操作 Typore linux上传下载 健康医疗 互联网医院 kamailio sip VoIP 大数据平台 wps 银河麒麟高级服务器 外接硬盘 Kylin 中间件 gradle 框架搭建 压力测试 .net 回显服务器 UDP的API使用 vSphere vCenter Java Applet URL操作 服务器建立 Socket编程 网络文件读取 AI大模型 大模型入门 大模型教程 ESXi Dell HPE 联想 浪潮 linux安装配置 ukui 麒麟kylinos openeuler 换源 国内源 Debian rust腐蚀 rnn seatunnel yaml Ultralytics 可视化 openEuler web springboot 系统架构 升级 CVE-2024-7347 VPS .net mvc断点续传 etl etcd 数据安全 RBAC 嵌入式 linux驱动开发 温湿度数据上传到服务器 Arduino HTTP 需求分析 规格说明书 wsl2 交叉编译 Linux环境 autodl 软件定义数据中心 sddc 矩阵 big data selete 高级IO 服务器管理 配置教程 服务器安装 网站管理 dify 雨云 NPS 飞书 开机自启动 rag ragflow ragflow 源码启动 web3 传统数据库升级 银行 大语言模型 LLMs 单一职责原则 IPMITOOL 硬件管理 opcua opcda KEPServer安装 大模型微调 微信分享 Image wxopensdk 工业4.0 IMM cuda cudnn anaconda rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK echarts Linux的基础指令 gitea iis hexo 移动云 云服务 可信计算技术 lio-sam SLAM token sas 鲲鹏 小智AI服务端 xiaozhi TTS FTP 服务器 composer 计算机外设 课程设计 SSL 域名 rsyslog Anolis nginx安装 环境安装 linux插件下载 小艺 Pura X HiCar CarLife+ CarPlay QT RK3588 僵尸世界大战 游戏服务器搭建 Node-Red 编程工具 流编程 k8s nfs SWAT 配置文件 服务管理 网络共享 CPU 主板 电源 网卡 程序 编程 性能分析 v10 软件 毕昇JDK 数据结构 webstorm Trae IDE AI 原生集成开发环境 Trae AI mcu Kali Linux 黑客 渗透测试 信息收集 micropython esp32 mqtt linux 命令 sed 命令 黑客技术 VR手套 数据手套 动捕手套 动捕数据手套 VMware安装mocOS VMware macOS系统安装 项目部署到linux服务器 项目部署过程 本地部署 实时互动 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 半虚拟化 硬件虚拟化 Hypervisor EasyConnect vscode1.86 1.86版本 ssh远程连接 输入法 田俊楠 SSE open Euler dde 统信UOS 网络攻击模型 LLM Web APP Streamlit .netcore 网工 opensearch helm 工作流 workflow Kali ssrf 失效的访问控制 gcc adobe elk bug TrinityCore 魔兽世界 sysctl.conf vm.nr_hugepages dash 正则表达式 iperf3 带宽测试 文件分享 软件工程 W5500 OLED u8g2 chfs ubuntu 16.04 odoo 服务器动作 Server action ShenTong 硬件架构 Linux PID 环境迁移 视频编解码 Ubuntu 24.04.1 轻量级服务器 python3.11 cpu 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 毕设 合成模型 扩散模型 图像生成 相差8小时 UTC 时间 前端框架 远程控制 远程看看 远程协助 sentinel 线程 dns ipython DevEco Studio HarmonyOS OpenHarmony 真机调试 三级等保 服务器审计日志备份 FTP服务器 OD机试真题 华为OD机试真题 服务器能耗统计 bootstrap 软考 sdkman AI-native Docker Desktop DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 智能音箱 智能家居 jmeter 多个客户端访问 IO多路复用 TCP相关API WebUI DeepSeek V3 bonding 链路聚合 nvidia tailscale derp derper 中转 prometheus数据采集 prometheus数据模型 prometheus特点 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors XCC Lenovo 相机 文件系统 路径解析 繁忙 解决办法 替代网站 汇总推荐 AI推理 CDN 软链接 硬链接 dba 流水线 脚本式流水线 mysql离线安装 ubuntu22.04 mysql8.0 efficientVIT YOLOv8替换主干网络 TOLOv8 源码 毕业设计 frp g++ g++13 windows日志 腾讯云大模型知识引擎 log4j 防火墙 NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 stm32项目 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 jina embedding LORA NLP ardunio BLE 端口测试 rclone AList webdav fnOS hive Hive环境搭建 hive3环境 Hive远程模式 iDRAC R720xd 命名管道 客户端与服务端通信 webgl Xinference RAGFlow freebsd glibc npm 考研 常用命令 文本命令 目录命令 onlyoffice 在线office thingsboard es chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 iot WSL2 dell服务器 图形化界面 iventoy VmWare OpenEuler css3 昇腾 npu VMware安装Ubuntu Ubuntu安装k8s 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 prompt XFS xfs文件系统损坏 I_O error 服务器主板 AI芯片 safari Mac 系统 MySql 历史版本 下载 安装 X11 Xming epoll 超融合 tensorflow Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 Spring Security 我的世界 我的世界联机 数码 魔百盒刷机 移动魔百盒 机顶盒ROM 烟花代码 烟花 元旦 USB转串口 CH340 飞牛NAS 飞牛OS MacBook Pro 邮件APP 免费软件 我的世界服务器搭建 asm Wi-Fi Open WebUI 硬件 设备 PCI-Express VMware创建虚拟机 grub 版本升级 扩容 服务器时间 ip命令 新增网卡 新增IP 启动网卡 游戏开发 信创 信创终端 中科方德 langchain deep learning 大模型推理 大模型学习 强化学习 搭建个人相关服务器 sqlite3 音乐服务器 Navidrome 音流 searxng 网络药理学 生物信息学 生信 PPI String Cytoscape CytoHubba PX4 测试用例 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 ping++ 链表 rime NFS 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 iftop 网络流量监控 camera Arduino 电子信息 粘包问题 rustdesk firewall wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 dns是什么 如何设置电脑dns dns应该如何设置 ceph 架构与原理 uv 程序员创富 nlp minicom 串口调试工具 车载系统 语法 政务 分布式系统 监控运维 Prometheus Grafana trea idea 社交电子 docker命令大全 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 热榜 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 Deepseek-R1 私有化部署 推理模型 Attention EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 充电桩 欧标 OCPP edge浏览器 物联网开发 lua clickhouse dock 加速 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 边缘计算 RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 gpt-3 文心一言 直流充电桩 域名服务 DHCP 符号链接 配置 串口驱动 CH341 uart 485 音乐库 飞牛 实用教程 裸金属服务器 弹性裸金属服务器 网络用户购物行为分析可视化平台 大数据毕业设计 离线部署dify 键盘 序列化反序列化 midjourney 人工智能生成内容 金融 代理服务器 拓扑图 SSH 服务 SSH Server OpenSSH Server 嵌入式系统开发 eNSP 企业网络规划 华为eNSP 网络规划 大模型面经 状态管理的 UDP 服务器 Arduino RTOS EMUI 回退 降级 智能硬件 gnu 基础环境 mariadb ubuntu20.04 开机黑屏 kali 共享文件夹 技术共享 Windsurf docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 嵌入式Linux IPC conda配置 conda镜像源 mybatis 沙盒 MS Materials RAID RAID技术 磁盘 存储 word 模拟退火算法 多路转接 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 项目部署 执法记录仪 智能安全帽 smarteye 远程服务 SysBench 基准测试 流量运营 华为机试 Playwright 自动化测试 数据库系统 C# MQTTS 双向认证 emqx springcloud 软负载 多进程 DBeaver 灵办AI 大模型部署 YOLOv12 flink 信息可视化 网页设计 USB网络共享 软件需求 vmware 卡死 llama.cpp 做raid 装系统 remote-ssh 元服务 应用上架 浏览器开发 AI浏览器 ssh漏洞 ssh9.9p2 CVE-2025-23419 cnn trae Cookie crosstool-ng 火绒安全 AI代码编辑器 影刀 #影刀RPA# 内网服务器 内网代理 内网通信 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 ue4 着色器 ue5 RTMP 应用层 seleium chromedriver uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 状态模式 多层架构 解耦 剧本 uniapp deekseek 知识库 figma 数据仓库 kerberos 分析解读 VS Code Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 perf 微信开放平台 微信公众号配置 openstack Xen wpf VSCode TCP协议 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 风扇控制软件 产测工具框架 IMX6ULL 管理框架 AD 域管理 spark HistoryServer Spark YARN jobhistory 网站搭建 serv00 信号 GoogLeNet 系统开发 binder framework 源码环境 MacMini 迷你主机 mini Apple 宠物 免费学习 宠物领养 宠物平台 Logstash 日志采集 Ark-TS语言 x64 SIGSEGV xmm0 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 hosts 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS 开发 CLion milvus AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 服务器部署ai模型 大大通 第三代半导体 碳化硅 docker run 数据卷挂载 交互模式 curl wget bat 端口 查看 ss ai工具 java-rocketmq ldap cmos firewalld minecraft GIS 遥感 WebGIS AI Agent 字节智能运维 ubuntu24.04.1 h.264 RustDesk自建服务器 rustdesk服务器 docker rustdesk 流式接口 pyqt 分布式训练 Kylin-Server 本地知识库部署 DeepSeek R1 模型 docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 ros 内网环境 av1 电视盒子 Ubuntu共享文件夹 共享目录 Linux共享文件夹 迁移指南 网卡的名称修改 eth0 ens33 fast VLAN 企业网络 大模型应用 cpp-httplib OpenSSH linux环境变量 自动化任务管理 WebRTC gpt pgpool easyui 7z win服务器架设 windows server rpa Linux find grep ABAP keepalived sonoma 自动更新 飞牛nas fnos neo4j 知识图谱 xshell termius iterm2 outlook 数据库开发 database xrdp yum源切换 更换国内yum源 SRS 流媒体 直播 IPv4 子网掩码 公网IP 私有IP SSH 密钥生成 SSH 公钥 私钥 生成 存储维护 NetApp存储 EMC存储 ArcTS 登录 ArcUI GridItem arkUI 性能测试 服务网格 istio vr 雨云服务器 js 崖山数据库 YashanDB chrome devtools LInux cd 目录切换 nac 802.1 portal Linux的权限 CentOS Stream CentOS swoole 鸿蒙开发 移动开发 李心怡 risc-v 干货分享 黑客工具 密码爆破 图形渲染 西门子PLC 通讯 黑苹果 docker部署Python sequoiaDB Invalid Host allowedHosts 蓝桥杯 北亚数据恢复 oracle数据恢复 捆绑 链接 谷歌浏览器 youtube google gmail visual studio alias unalias 别名 办公自动化 自动化生成 pdf教程 rocketmq triton 模型分析 压测 ECS 深度求索 私域 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 宕机切换 服务器宕机 匿名管道 wsgiref Web 服务器网关接口 DenseNet 混合开发 JDK regedit 开机启动 skynet transformer CrewAI 产品经理 MDK 嵌入式开发工具 论文笔记 sublime text arcgis DOIT 四博智联 Redis Desktop 运维监控 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 本地化部署 PVE centos-root /dev/mapper yum clean all df -h / du -sh pyautogui 京东云 阿里云ECS 基础入门 虚幻引擎 bot Docker matplotlib DocFlow leetcode 推荐算法 磁盘监控 私有化 服务器配置 ubuntu24 vivado24 代理 Unity插件 玩机技巧 软件分享 软件图标 Jellyfin 自动化编程 TrueLicense k8s集群资源管理 云原生开发 Google pay Apple pay ros2 moveit 机器人运动 DNS UDP harmonyOS面试题 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 IO模型 Ubuntu Server Ubuntu 22.04.5