最新资讯

  • Linux本地部署DeepSeekR1-70B量化版

Linux本地部署DeepSeekR1-70B量化版

2025-04-29 14:00:15 0 阅读

Linux本地部署DeepSeek-R1-70B

1、基础配置

服务器配置:i9-13900K、GPU 两块RTX4090D、内存 ddr5 6000hz 128GB、电源1200W、存储2TB

系统:Ubuntu20.04

模型: DeepSeek-R1-70B-4bit的量化版本

大模型管理工具:vLLM

访问方式:ONENAPI RESTFUL

2、具体步骤

2.1、步骤一:系统环境准备

2.1.1、安装 NVIDIA 驱动和 CUDA

已经安装好的跳过

# 添加 NVIDIA 驱动仓库
sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt update

# 安装驱动(选择最新版本,需适配 RTX 4090D)
sudo ubuntu-drivers autoinstall

# 安装 CUDA 11.8(适配 PyTorch 2.0+ 和 bitsandbytes)
wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run
sudo sh cuda_11.8.0_520.61.05_linux.run

2.1.2、安装Python环境

已经安装好的跳过,python>=3.8,我的python为3.10。

安装好python后,创建一个文件夹,然后cd进入该文件夹并创建一个虚拟环境。

# 这里以ldy为例子,创建一个运行deepseek的文件夹
sudo mkdir ldy 
cd ldy
pip install virtualenv
virtualenv deepseek_env -p python3.10   # 我这里的python版本为3.10
source venv/bin/activate

下载huggingface依赖包,我们通过这个来下载量化后的模型

pip install -U huggingface_hub
2.1.3、下载Deepseek模型

这里下载的Deepseek-R1-70B-AWQ,vLLM不支持4bit的量化版本。

下载地址:Valdemardi/DeepSeek-R1-Distill-Llama-70B-AWQ · HF Mirror

设置模型下载的环境变量,这里使用的是国内的镜像地址。

export HF_ENDPOINT=https://hf-mirror.com

下载模型到本地

huggingface-cli download --resume-download Valdemardi/DeepSeek-R1-Distill-Llama-70B-AWQ --local-dir /home/xxx/deepseek-model-new
# --resume-download  为模型的仓库地址,支持断点下载
# --local-dir 为模型的保存路径  同时也是用户在请求服务器时的模型名称

等待下载…

可能存在部分模型没有下载下来的情况,需要手动下载到模型保存目录。

2.1.4、安装vLLM
pip install vllm

# 验证安装
python -c "from vllm import AsyncLLMEngine; print('Success')"

2.2 步骤二:启动vLLM服务

2.2.1、编写启动vLLM服务脚本
sudo vim start_vllm.sh

# 将下面的内容复制进去。
# 使用 vLLM 内置的 OpenAI API 服务,支持api+密钥的访问方式。
# 部分参数可以进行调整。
#!/bin/bash
/home/xxx/桌面/ldy/deepseek_venv/bin/python -m vllm.entrypoints.openai.api_server 
--model /home/xxx/deepseek-model-new 
--quantization awq 
--dtype float16 
--tensor-parallel-size 2 
--max-model-len 4096 
--gpu-memory-utilization 0.95 
--max-num-batched-tokens 16384 
--block-size 32 
--enforce-eager 
--swap-space 32 
--api-key "you_api_key" 
--host 0.0.0.0 
--port 8000



# 具体参数配置解释
--model /home/xxx/deepseek-model-new
作用:指定要加载的模型路径(需为 HuggingFace 格式的模型目录)。
注意:确保路径正确且模型文件完整(包含 config.json、pytorch_model.bin 等文件)。

--quantization awq
作用:使用 AWQ (Activation-aware Weight Quantization) 量化技术,降低模型显存占用。
适用场景:需模型支持 AWQ(如部分 Llama/Mistral 架构模型)。
效果:牺牲少量精度,显著提升推理速度并减少显存需求。

--dtype float16
作用:以半精度(16 位浮点数)加载模型。
对比选项:
bfloat16:兼容性更好,但内存占用相同
float32:更高精度,但显存占用翻倍
建议:大多数 GPU(如 NVIDIA 20 系及以上)支持 float16,优先使用。


二、资源分配与并行
--tensor-parallel-size 2
作用:启用张量并行,将模型拆分到多个 GPU 上(此处为 2 块 GPU)。
要求:需物理存在多块 GPU,且型号一致(如 2 块 RTX 3090)。
性能影响:提升推理速度,但增加 GPU 间通信开销。

--gpu-memory-utilization 0.95
作用:设置 GPU 显存利用率上限为 95%。
平衡点:
值过高(如 0.99):可能因显存碎片导致 OOM(内存不足)
值过低(如 0.8):浪费显存资源
建议:根据实际负载逐步调整,通常 0.9-0.95 是安全范围。

--swap-space 32
作用:预留 32GB 磁盘空间作为显存交换区(当显存不足时使用)。
代价:显著增加推理延迟(磁盘 I/O 速度远低于显存)。
应急方案:仅在显存不足且无法减少 max-model-len 时启用。

三、性能优化参数
--max-model-len 4096
作用:设置模型支持的最大上下文长度(token 数)。
影响:
值越大:支持更长对话,但显存占用更高
值过小:长文本生成会被截断
典型值:与模型训练长度对齐(如 LLaMA-2 通常为 4096)。

--max-num-batched-tokens 16384
作用:单次批处理的最大总 token 数(所有请求合并计算)。
平衡点:
值大:提高吞吐量,但增加显存占用和延迟
值小:降低显存需求,但吞吐量下降
建议:根据 GPU 显存和并发请求数调整。

--block-size 32
作用:设置内存块管理的粒度(每个块存储 32 个 token 的 KV 缓存)。
影响:
值小:内存利用率高,适合变长请求
值大:减少内存碎片,但可能浪费空间
典型值:16/32(短文本场景)或 64(长文本场景)。

--enforce-eager
作用:禁用 CUDA 图优化,强制使用逐行执行模式。
用途:
调试:更容易捕获错误堆栈
兼容性:解决某些 CUDA 版本或硬件的兼容问题
代价:降低推理速度(生产环境不建议启用)。

四、网络与安全配置
--api-key "you_api_key"
作用:设置 API 访问密钥(客户端需在请求头中携带 Authorization: Bearer you_api_key)。
安全建议:
使用复杂密钥(如 UUID)
配合 HTTPS 和防火墙规则使用

--host 0.0.0.0
作用:监听所有网络接口(允许外部设备访问)。
风险:若未配置防火墙,可能暴露服务到公网。
安全方案:
生产环境建议绑定内网 IP(如 192.168.x.x)
使用 Nginx 反向代理 + IP 白名单

--port 8000
作用:指定服务监听的端口号。
检查冲突:运行 netstat -tuln | grep 8000 确认端口未被占用

参数调优建议
场景	      调整参数
显存不足	 降低 --gpu-memory-utilization、减小 --max-model-len、启用 --swap-space
提高吞吐量	增大 --max-num-batched-tokens、增加 --tensor-parallel-size
减少延迟	 移除 --enforce-eager、关闭 --swap-space、使用更高效的量化(如 GPTQ)
长文本生成	增大 --max-model-len、调整 --block-size 为 64
2.2.2、4090D显卡专属优化

编辑~/.bashrc文件,将一下内容填入文件末尾

# 添加到 ~/.bashrc
export CUDA_LAUNCH_BLOCKING=1
export VLLM_USE_TF32=0
export VLLM_DEFAULT_DTYPE=float16
2.2.3、修改模型配置文件
# 编辑模型目录下的config.json
vim /home/xxx/deepseek-model-new/config.json
# 将文件中的"torch_dtype": "bfloat16"  改为 "torch_dtype": "float16"
2.2.4、启动vLLM服务
./start_vllm.sh

#注:一般来说第一次启动模型会存在各种各样的问题导致模型不能正常启动,遇到的问题百度一下应该能解决。

#注:模型启动的时间较长,启动成功后的输出如下:

INFO 02-26 09:19:17 api_server.py:958] Starting vLLM API server on http://0.0.0.                                                                      0:8000
INFO 02-26 09:19:17 launcher.py:23] Available routes are:
INFO 02-26 09:19:17 launcher.py:31] Route: /openapi.json, Methods: GET, HEAD
INFO 02-26 09:19:17 launcher.py:31] Route: /docs, Methods: GET, HEAD
INFO 02-26 09:19:17 launcher.py:31] Route: /docs/oauth2-redirect, Methods: GET,                                                                       HEAD
INFO 02-26 09:19:17 launcher.py:31] Route: /redoc, Methods: GET, HEAD
INFO 02-26 09:19:17 launcher.py:31] Route: /health, Methods: GET
INFO 02-26 09:19:17 launcher.py:31] Route: /ping, Methods: GET, POST
INFO 02-26 09:19:17 launcher.py:31] Route: /tokenize, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /detokenize, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/models, Methods: GET
INFO 02-26 09:19:17 launcher.py:31] Route: /version, Methods: GET
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/chat/completions, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/completions, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/embeddings, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /pooling, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /score, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/score, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/audio/transcriptions, Methods: PO                                                                      ST
INFO 02-26 09:19:17 launcher.py:31] Route: /rerank, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v1/rerank, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /v2/rerank, Methods: POST
INFO 02-26 09:19:17 launcher.py:31] Route: /invocations, Methods: POST
INFO:     Started server process [12267]
INFO:     Waiting for application startup.
INFO:     Application startup complete.

2.3、测试服务

2.3.1、流式调用
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_SECRET_KEY",
    base_url="http://localhost:8000/v1"
)

stream = client.completions.create(
    model="deepseek-r1-70b",
    prompt="请用Python实现快速排序:",
    max_tokens=512,
    stream=True  # 启用流式
)

for chunk in stream:
    print(chunk.choices[0].text, end="", flush=True)

2.3.2、非流式调用
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_SECRET_KEY",
    base_url="http://localhost:8000/v1"  # vLLM 的 OpenAI 兼容端点
)

response = client.completions.create(
    model="deepseek-r1-70b",
    prompt="你好,请介绍量子力学:",
    max_tokens=512,
    stream=False
)

print(response.choices[0].text)

3、ChatBox访问服务

ChatBox下载地址Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

  1. 模型提供方选择OPENAI API(遵循OPENAI 的RESTFUL API规范)
  2. 填写api密钥
  3. 填写api域名
  4. 填写模型名称,模型名称选择自定义模型,然后将模型的名称填入,我这里是:/home/ldtx/deepseek-model-new

4.3、设置为开机自启动

4.3.1、修改systemd服务配置
sudo vim /etc/systemd/system/vllm-api.service

# 将下面的内容复制进去
[Unit]
Description=vLLM OpenAI API Server
After=network.target

[Service]
User=xxx  # 替换为你的实际用户名
WorkingDirectory=/home/xxx/桌面/ldy  # 设置工作目录
ExecStart=/home/xxx/桌面/ldy/start_vllm.sh
Restart=on-failure
RestartSec=5s

# 日志配置(可选)
StandardOutput=file:/home/xxx/桌面/ldy/vllm-api.log
StandardError=file:/home/xxx/桌面/ldy/vllm-api-error.log

# 环境变量(如果GPU需要)
Environment="PATH=/usr/local/cuda/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"

[Install]
WantedBy=multi-user.target

4.3.2、应用配置
# 重新加载服务配置
sudo systemctl daemon-reload

# 启用开机启动
sudo systemctl enable vllm-api.service

# 立即启动服务
sudo systemctl start vllm-api.service

4.3.3、验证方法
# 查看服务状态
systemctl status vllm-api.service

# 服务正常启动应该显示
● vllm-api.service - vLLM OpenAI API Server
     Loaded: loaded (/etc/systemd/system/vllm-api.service; enabled; vendor preset: enabled)
     Active: active (running) since Thu 2025-02-27 16:00:00 CST; 1min ago
   Main PID: 12345 (python)
      Tasks: 10 (limit: 4915)
     Memory: 10.2G
     CGroup: /system.slice/vllm-api.service
             └─12345 /home/xxx/桌面/ldy/deepseek_venv/bin/python -m vllm.entrypoints.openai.api_server...

本文地址:https://www.vps345.com/5577.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge 进程 操作系统 进程控制 Ubuntu deepseek Ollama 模型联网 API CherryStudio python MCP ssh llama 算法 opencv 自然语言处理 神经网络 语言模型 阿里云 网络 网络安全 网络协议 ubuntu harmonyos 华为 开发语言 typescript 计算机网络 数据库 centos oracle 关系型 安全 分布式 github 创意 社区 RTSP xop RTP RTSPServer 推流 视频 flutter Hyper-V WinRM TrustedHosts rust http java tcp/ip udp unity react.js 前端面试题 node.js 持续部署 ssl ollama ai 人工智能 llm php android Dell R750XS 科技 个人开发 pycharm ide pytorch fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 深度学习 YOLO 目标检测 计算机视觉 macos adb nginx 监控 自动化运维 笔记 C 环境变量 进程地址空间 django flask web3.py numpy 运维开发 云原生 c# ffmpeg 音视频 c++ vim YOLOv12 嵌入式硬件 单片机 温湿度数据上传到服务器 Arduino HTTP Flask FastAPI Waitress Gunicorn uWSGI Uvicorn Qwen2.5-coder 离线部署 prometheus kvm 无桌面 命令行 经验分享 媒体 微信公众平台 面试 性能优化 jdk intellij-idea 架构 docker 容器 后端 matlab YOLOv8 NPU Atlas800 A300I pro asi_bench 博客 机器学习 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 vscode mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 ecm bpm ddos c语言 qt stm32项目 stm32 mongodb windows spring ansible playbook zotero WebDAV 同步失败 代理模式 golang IIS .net core Hosting Bundle .NET Framework vs2022 es jvm AI编程 嵌入式 linux驱动开发 arm开发 智能路由器 dell服务器 go websocket html .netcore 集成学习 集成测试 ollama下载加速 大模型 oceanbase rc.local 开机自启 systemd 麒麟 jenkins gitee spring boot chatgpt llama3 Chatglm 开源大模型 前端框架 conda kylin 深度优先 图论 并集查找 换根法 树上倍增 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 低代码 ESP32 vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 nuxt3 vue3 jmeter 软件测试 java-ee 自动化 bash 银河麒麟服务器操作系统 系统激活 sqlserver sql KingBase elasticsearch uni-app 银河麒麟 kylin v10 麒麟 v10 AI 爬虫 数据集 android studio 交互 tomcat postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 LDAP mysql asm 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 HCIE 数通 maven intellij idea 代码调试 ipdb 腾讯云 外网访问 内网穿透 端口映射 系统开发 binder 车载系统 framework 源码环境 dubbo gateway Clion Nova ResharperC++引擎 Centos7 远程开发 pillow kamailio sip VoIP 统信 国产操作系统 虚拟机安装 .net 串口服务器 openEuler kubernetes 学习方法 程序人生 VMware安装Ubuntu Ubuntu安装k8s k8s mysql离线安装 ubuntu22.04 mysql8.0 gitlab Docker Compose docker compose docker-compose 大模型微调 多线程服务器 Linux网络编程 springsecurity6 oauth2 授权服务器 token sas DeepSeek-R1 API接口 live555 rtsp rtp rabbitmq json html5 firefox visualstudio WSL win11 无法解析服务器的名称或地址 蓝耘科技 元生代平台工作流 ComfyUI 开源 Cline web安全 Kali Linux 黑客 渗透测试 信息收集 apache Deepseek 搜索引擎 ESXi string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 gpu算力 开发环境 SSL证书 sysctl.conf vm.nr_hugepages adobe elk Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket 报错 小程序 目标跟踪 OpenVINO 推理应用 svn 物联网 Linux xrdp 远程桌面 远程连接 视频编解码 pip 源码剖析 rtsp实现步骤 流媒体开发 Ubuntu 24.04.1 轻量级服务器 NFS redhat kafka 系统安全 微信 群晖 文件分享 JAVA Java spring cloud 职场和发展 测试工具 自动化测试 性能测试 功能测试 odoo 服务器动作 Server action NPS 雨云服务器 雨云 能力提升 面试宝典 技术 IT信息化 游戏程序 Dell HPE 联想 浪潮 崖山数据库 YashanDB rpc 远程过程调用 Windows环境 文件系统 路径解析 直播推流 cpu 内存 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 毕设 jar 电脑 相差8小时 UTC 时间 redis netty 远程控制 远程看看 远程协助 学习 git gitea risc-v aws 中间件 C语言 MacOS录屏软件 ipython 硬件工程 智能手机 大数据 矩阵 fpga开发 信息与通信 硬件架构 三级等保 服务器审计日志备份 多进程 1024程序员节 FTP服务器 yum Dify 剧本 firewalld minio 多个客户端访问 IO多路复用 回显服务器 TCP相关API 计算机 干货分享 黑客工具 密码爆破 bootstrap web ci/cd microsoft 软考 eureka jupyter DeepSeek css 工业4.0 联想开天P90Z装win10 Invalid Host allowedHosts vue 网站搭建 serv00 宕机切换 服务器宕机 统信UOS bonding 链路聚合 远程登录 telnet 压力测试 tailscale derp derper 中转 agi 线性代数 电商平台 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 压测 ECS 医疗APP开发 app开发 Agent Minecraft prompt easyui AI大模型 langchain DOIT 四博智联 Unity Dedicated Server Host Client 无头主机 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer virtualenv webrtc ui 远程工作 课程设计 debian cursor MCP server C/S LLM windows日志 transformer 数据挖掘 thingsboard postgresql 负载均衡 unix 宝塔面板 部署 机器人 H3C iDRAC R720xd 命名管道 客户端与服务端通信 AIGC CPU 主板 电源 网卡 freebsd PVE 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 虚拟化 半虚拟化 硬件虚拟化 Hypervisor 云服务 XFS xfs文件系统损坏 I_O error micropython esp32 mqtt shell 磁盘监控 iot 华为云 前后端分离 命令 华为认证 网络工程师 系统架构 arm ios 田俊楠 FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 file server http server web server 策略模式 单例模式 https X11 Xming Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 进程信号 服务器配置 生物信息学 王者荣耀 Wi-Fi DNS Spring Security 计算机外设 mac 软件需求 outlook rdp 实验 云电竞 云电脑 todesk Docker Hub docker pull 镜像源 daemon.json wsl2 wsl 交换机 硬件 设备 GPU PCI-Express W5500 OLED u8g2 TCP服务器 jetty undertow chfs ubuntu 16.04 express UOS 统信操作系统 ISO镜像作为本地源 WebUI DeepSeek V3 Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen ip 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 权限 音乐服务器 Navidrome 音流 npm selete 高级IO ping++ NAS Termux Samba gaussdb ruoyi 银河麒麟桌面操作系统 Kylin OS 国产化 DeepSeek行业应用 Heroku 网站部署 xss minicom 串口调试工具 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 pppoe radius 交叉编译 hugo SWAT 配置文件 服务管理 网络共享 微信分享 鸿蒙 Image wxopensdk 思科模拟器 思科 Cisco 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 saltstack 测试用例 kind AI写作 AI作画 react next.js 部署next.js QQ 聊天室 编辑器 ocr AI agent 算力 protobuf 序列化和反序列化 安装 googlecloud MacMini Mac 迷你主机 mini Apple 宠物 毕业设计 免费学习 宠物领养 宠物平台 qt项目 qt项目实战 qt教程 muduo XCC Lenovo excel 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 其他 数据结构 安全架构 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 clickhouse embedding Open WebUI 社交电子 EMQX MQTT 通信协议 list skynet 弹性计算 KVM 计算虚拟化 弹性裸金属 漏洞 LORA 大语言模型 NLP HarmonyOS Next 同步 备份 建站 安全威胁分析 r语言 xml 阻塞队列 生产者消费者模型 服务器崩坏原因 vscode 1.86 laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 VR手套 数据手套 动捕手套 动捕数据手套 grafana 直流充电桩 充电桩 IPMI junit SSH bug 豆瓣 追剧助手 迅雷 nas 云服务器 裸金属服务器 弹性裸金属服务器 7z p2p 输入法 unity3d av1 电视盒子 机顶盒ROM 魔百盒刷机 网络穿透 3d 数学建模 Nuxt.js Xterminal 网络结构图 c HTTP 服务器控制 ESP32 DeepSeek VMware安装mocOS VMware macOS系统安装 服务器繁忙 备选 网站 api 调用 示例 服务器主板 AI芯片 AD域 反向代理 致远OA OA服务器 服务器磁盘扩容 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 okhttp CORS 跨域 游戏机 远程 执行 sshpass 操作 zabbix Netty 即时通信 NIO 重启 排查 系统重启 日志 原因 dns 华为od chrome devtools selenium chromedriver 消息队列 vasp安装 边缘计算 智能硬件 AutoDL IIS服务器 IIS性能 日志监控 cnn GoogLeNet Windsurf 数据可视化 数据分析 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 视觉检测 程序员 Cursor VMware创建虚拟机 sqlite 产品经理 MS Materials 5G 3GPP 卫星通信 openssl 密码学 业界资讯 tidb GLIBC 模拟退火算法 WSL2 code-server mosquitto 监控k8s集群 集群内prometheus 银河麒麟高级服务器 外接硬盘 Kylin flink vmware 卡死 gradle 语法 华为机试 C++ Linux PID openwrt 数据库系统 AISphereButler hibernate 大数据平台 ukui 麒麟kylinos openeuler rust腐蚀 微服务 框架搭建 UDP的API使用 系统 黑苹果 虚拟机 pygame 小游戏 五子棋 大模型入门 大模型教程 remote-ssh 技能大赛 wireshark 显示过滤器 ICMP Wireshark安装 需求分析 规格说明书 软件工程 架构与原理 微信小程序 linux环境变量 alias unalias 别名 springboot ftp 火绒安全 VPS uniapp 恒源云 tcp dify vscode1.86 1.86版本 ssh远程连接 vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 camera Arduino 电子信息 big data IDEA 飞书 孤岛惊魂4 僵尸进程 WebRTC gpt 京东云 echarts vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 传统数据库升级 银行 LLMs 单一职责原则 hive Hive环境搭建 hive3环境 Hive远程模式 IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 oneapi 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 open webui idm centos-root /dev/mapper yum clean all df -h / du -sh Headless Linux TRAE flash-attention pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 iis VSCode 移动云 nac 802.1 portal 可信计算技术 缓存 鲲鹏 FTP 服务器 midjourney zookeeper 服务器部署ai模型 向日葵 SSL 域名 rsyslog Anolis nginx安装 环境安装 linux插件下载 raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS 僵尸世界大战 游戏服务器搭建 银河麒麟操作系统 Trae IDE AI 原生集成开发环境 Trae AI mcu 状态管理的 UDP 服务器 Arduino RTOS 驱动开发 嵌入式实习 Ubuntu Server Ubuntu 22.04.5 ceph v10 软件 armbian u-boot 飞牛NAS 飞牛OS MacBook Pro Kylin-Server 服务器安装 EasyConnect ecmascript nextjs reactjs RustDesk自建服务器 rustdesk服务器 docker rustdesk 黑客技术 深度求索 私域 知识库 流式接口 URL tcpdump Reactor 设计模式 本地部署 pyqt 技术共享 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 企业微信 Linux24.04 deepin SysBench 基准测试 ux 多线程 SSE open Euler dde LLM Web APP Streamlit mybatis hadoop 网工 opensearch helm ssrf 失效的访问控制 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x 执法记录仪 智能安全帽 smarteye SRS 流媒体 直播 iperf3 带宽测试 visual studio code ip命令 新增网卡 新增IP 启动网卡 Linux的基础指令 iphone iftop 网络流量监控 composer make命令 makefile文件 粘包问题 产测工具框架 IMX6ULL 管理框架 镜像 支付 微信支付 开放平台 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 python3.11 dash 正则表达式 迁移指南 DevEco Studio devops Logstash 日志采集 fd 文件描述符 鸿蒙系统 llama.cpp uv 开发 安卓 环境迁移 cuda cudnn anaconda 用户缓冲区 milvus mamba Vmamba 模拟实现 sentinel navicat 知识图谱 cocoapods xcode threejs 3D 无人机 ROS 自动驾驶 SenseVoice UOS1070e lio-sam SLAM glibc .net mvc断点续传 信号处理 ubuntu24.04.1 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 蓝桥杯 状态模式 IO模型 swoole 版本 HiCar CarLife+ CarPlay QT RK3588 yolov8 服务器管理 配置教程 网站管理 CLion Node-Red 编程工具 流编程 less 加解密 Yakit yaklang CH340 串口驱动 CH341 uart 485 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 网络攻击模型 fast curl wget RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 VS Code 端口 查看 ss n8n 工作流 workflow AD 域管理 SSH 密钥生成 SSH 公钥 私钥 生成 bcompare Beyond Compare 模拟器 教程 微信开放平台 微信公众号配置 Cookie hexo Ubuntu22.04 开发人员主页 triton 模型分析 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors trea idea 流量运营 arcgis 小智AI服务端 xiaozhi TTS 防火墙 NAT转发 NAT Server ue4 着色器 ue5 虚幻 IMX317 MIPI H265 VCU 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 ShenTong 开机自启动 rag ragflow ragflow 源码启动 kali 共享文件夹 bot Docker springcloud 我的世界服务器搭建 minecraft 键盘 线程 Linux find grep 端口测试 EMUI 回退 降级 升级 代理 飞牛nas fnos 毕昇JDK linux安装配置 Kali 常用命令 文本命令 目录命令 yum源切换 更换国内yum源 OpenManus ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS apt 代理服务器 中兴光猫 换光猫 网络桥接 自己换光猫 Unity插件 iventoy VmWare OpenEuler css3 分布式训练 链表 pgpool 图像处理 Jellyfin 游戏引擎 mq rocketmq TrueLicense 单元测试 AI-native Docker Desktop 灵办AI 免费域名 域名解析 元服务 应用上架 图形化界面 换源 国内源 Debian 超融合 ABAP 办公自动化 自动化生成 pdf教程 RAID RAID技术 磁盘 存储 我的世界 我的世界联机 数码 xpath定位元素 bat UDP Typore Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 强化学习 带外管理 linux 命令 sed 命令 Windows tensorflow trae gcc g++ g++13 grub 版本升级 扩容 服务器时间 昇腾 npu GCC crosstool-ng 设置代理 实用教程 游戏开发 软链接 硬链接 deekseek SSH 服务 SSH Server OpenSSH Server eNSP 企业网络规划 华为eNSP 网络规划 rustdesk pyautogui 自动化任务管理 多层架构 解耦 OD机试真题 华为OD机试真题 服务器能耗统计 dns是什么 如何设置电脑dns dns应该如何设置 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 DenseNet 分析解读 log4j onlyoffice qemu libvirt 智能音箱 智能家居 IM即时通讯 剪切板对通 HTML FORMAT cd 目录切换 并查集 leetcode 信号 Xinference RAGFlow vr Linux环境 编程 繁忙 解决办法 替代网站 汇总推荐 AI推理 双系统 CDN docker命令大全 dba Radius webstorm 个人博客 ubuntu24 vivado24 小艺 Pura X 物联网开发 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 wsgiref Web 服务器网关接口 HAProxy perl 强制清理 强制删除 mac废纸篓 k8s集群资源管理 云原生开发 edge浏览器 SEO 阿里云ECS 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? 显示管理器 lightdm gdm ardunio BLE Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 影刀 #影刀RPA# 程序员创富 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 Ark-TS语言 虚拟显示器 cmos 实习 大模型面经 大模型学习 AnythingLLM AnythingLLM安装 Google pay Apple pay 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 keepalived ros sonoma 自动更新 CrewAI figma rime firewall 金仓数据库 2025 征文 数据库平替用金仓 查询数据库服务IP地址 SQL Server 语音识别 ArcTS 登录 ArcUI GridItem arkUI 服务网格 istio Ubuntu共享文件夹 共享目录 Linux共享文件夹 SVN Server tortoise svn db 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 合成模型 扩散模型 图像生成 USB网络共享 序列化反序列化 ruby docker run 数据卷挂载 交互模式 信息可视化 网页设计 本地部署AI大模型 LInux MVS 海康威视相机 HarmonyOS OpenHarmony 真机调试 浏览器开发 AI浏览器 ssh漏洞 ssh9.9p2 CVE-2025-23419 sqlite3 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 捆绑 链接 谷歌浏览器 youtube google gmail 政务 分布式系统 监控运维 Prometheus Grafana Python基础 Python教程 Python技巧 ros2 moveit 机器人运动 程序 proxy模式 图形渲染 烟花代码 烟花 元旦 本地知识库部署 DeepSeek R1 模型 etl 做raid 装系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 react native sdkman sequoiaDB Claude dity make VLAN 企业网络 C# MQTTS 双向认证 emqx nvidia gpt-3 文心一言 CVE-2024-7347 prometheus数据采集 prometheus数据模型 prometheus特点 环境配置 frp 内网服务器 内网代理 内网通信 相机 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 web3 autodl 网络用户购物行为分析可视化平台 大数据毕业设计 基础环境 源码 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 实战案例 混合开发 JDK 主从复制 regedit 开机启动 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 KylinV10 麒麟操作系统 Vmware 考研 在线office openstack Xen iBMC UltraISO lua 基础入门 TCP协议 抗锯齿 aarch64 编译安装 HPC webgl can 线程池 Deepseek-R1 私有化部署 推理模型 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 IMM spark HistoryServer Spark YARN jobhistory 音乐库 飞牛 Playwright wpf 树莓派 VNC ssh远程登录 P2P HDLC chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 linux上传下载 QT 5.12.12 QT开发环境 Ubuntu18.04 健康医疗 互联网医院 GRUB引导 Linux技巧 域名服务 DHCP 符号链接 配置 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos epoll AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 nfs 性能分析 MySql rclone AList webdav fnOS 邮件APP 免费软件 GIS 遥感 WebGIS yaml Ultralytics 可视化 大大通 第三代半导体 碳化硅 实时互动 ai工具 移动魔百盒 java-rocketmq 虚拟局域网 ldap matplotlib AI代码编辑器 USB转串口 harmonyOS面试题 wps 历史版本 下载 rnn 显卡驱动 内网环境 h.264 大模型应用 OpenSSH mariadb 项目部署到linux服务器 项目部署过程 safari win服务器架设 windows server perf 金融 seatunnel 腾讯云大模型知识引擎 deepseek r1 网卡的名称修改 eth0 ens33 容器技术 eclipse cpp-httplib jina IPv4 子网掩码 公网IP 私有IP 匿名管道 etcd 数据安全 RBAC seleium c/c++ 串口 PX4 代码 对比 工具 meld DiffMerge 宝塔 渗透 网络建设与运维 软负载 Attention visual studio AI Agent 字节智能运维 kernel deployment daemonset statefulset cronjob ranger MySQL8.0 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 运维监控 rpa nlp 嵌入式Linux IPC 钉钉 gnu 嵌入式系统开发 DeepSeek r1 热榜 x64 SIGSEGV xmm0 miniapp 调试 debug 断点 网络API请求调试方法 CentOS 远程服务 conda配置 conda镜像源 李心怡 稳定性 看门狗 DBeaver docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 离线部署dify 存储维护 NetApp存储 EMC存储 大模型部署 docker部署Python MDK 嵌入式开发工具 论文笔记 sublime text 大模型推理 查看显卡进程 fuser ArtTS MQTT协议 消息服务器 网络爬虫 推荐算法 西门子PLC 通讯 风扇控制软件 DocFlow mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 论文阅读 Linux的权限 hosts deep learning 监控k8s 监控kubernetes 网络搭建 神州数码 神州数码云平台 云平台 yum换源 neo4j 数据仓库 数据库开发 database WebVM PPI String Cytoscape CytoHubba xshell termius iterm2 HarmonyOS NEXT 原生鸿蒙 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR js 虚幻引擎 问题解决 智能电视 fstab 聚类 自动化编程 信创 信创终端 中科方德 搭建个人相关服务器 鸿蒙开发 移动开发 性能调优 安全代理 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 CentOS Stream 人工智能生成内容 服务器正确解析请求体 ubuntu20.04 开机黑屏 searxng IO 沙盒 word 拓扑图 多路转接 本地化部署 欧标 OCPP 玩机技巧 软件分享 软件图标 Redis Desktop Qwen2.5-VL vllm 项目部署 软件卸载 系统清理 dock 加速 kerberos