最新资讯

  • 【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

2025-04-27 21:37:22 0 阅读

系列篇章💥

No.文章
01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能
02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南
03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力
04【DeepSeek开发入门】DeepSeek API 开发初体验
05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)
06【DeepSeek开发入门】Function Calling 函数功能应用实战指南
07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手
08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南
09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器
10【DeepSeek部署实战】基于Ollama快速部署DeepSeek-R1系列模型实战指南(Linux)
11【DeepSeek部署实战】基于Ollama+Chatbox零成本部署DeepSeek-R1系列模型攻略(Windows)
12【DeepSeek开发实战】DeepSeek-R1-Distill-Qwen与LangChain的本地大模型应用开发指南

目录

  • 系列篇章💥
  • 前言
  • 一、vLLM框架特性解析
    • 1、高效内存管理
    • 2、吞吐量王者
    • 3、无缝生态集成
    • 4、分布式推理支持
    • 5、开源社区驱动
  • 二、环境配置指南
    • 1、基础环境要求
    • 2、安装相关依赖
    • 3、模型文件下载
  • 三、模型推理实践
    • 1、导入相关依赖包
    • 2、定义LLM处理函数
    • 3、指定模型地址&定义消息
    • 4、获取输出结果
  • 四、OpenAI API服务部署测试
    • 1、发布OpenAI API服务
    • 2、Completions API调用
    • 3、Chat Completions API调用
    • 4、命令行调用OpenAI API接口
  • 五、最佳实践建议
    • 1. 显存优化
    • 2. 温度参数
  • 总结


前言

大语言模型的落地应用离不开高效推理框架的支持,vLLM以其卓越的性能在众多框架中脱颖而出。本文将带你深入探索如何使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型,无论是深度学习新手还是有经验的开发者,都能从中获取实用的知识和技能。

一、vLLM框架特性解析

1、高效内存管理

在大模型推理中,内存管理至关重要。vLLM独创的PagedAttention算法,如同为显存空间安排了一位智能管家。它借鉴操作系统虚拟内存管理机制,实现了KV缓存的动态分页管理。这意味着,当模型处理大量数据时,不再需要一次性占用连续的显存空间,而是像拼积木一样,动态分配所需的显存块。在实际应用中,相较于传统方案,vLLM的内存利用率提升高达24倍,这使得在有限的显存条件下,也能高效运行大模型,大大降低了硬件门槛。

2、吞吐量王者

vLLM在推理速度上堪称王者。它支持连续批处理(Continuous Batching)和异步推理,就像一位高效的流水线工人,在A100 GPU上实测,吞吐量可达HuggingFace Transformers的24倍。在处理长文本生成任务时,这种优势更为显著。连续批处理技术让vLLM无需等待前一批次推理完成,就能马不停蹄地接收新任务,充分榨干GPU的计算资源;异步推理则进一步提升了系统的并发处理能力,让多个推理任务并行执行,大大提高了整体处理效率。

3、无缝生态集成

生态兼容性是vLLM的又一亮点。它与HuggingFace模型库完美兼容,支持超过50种主流大模型,这使得开发者可以轻松将vLLM融入现有的基于HuggingFace的开发流程中。同时,vLLM通过OpenAI API兼容设计,为现有基于ChatGPT的应用提供了便捷的迁移路径。开发者无需大规模修改代码,就能将应用迁移到使用vLLM框架的DeepSeek-R1-Distill-Qwen大语言模型上,极大地降低了技术迁移成本。

4、分布式推理支持

对于大规模推理任务,vLLM采用张量并行(Tensor Parallelism)技术,支持多GPU分布式推理。在4*A100的环境下实测,推理速度提升3.8倍。这就好比将多个小引擎组合成一个超级引擎,充分利用多块GPU的计算能力,实现大规模模型的快速推理,满足企业级应用对高并发、低延迟的需求。无论是在线服务还是离线分析场景,分布式推理都能显著提升系统性能和响应速度。

5、开源社区驱动

vLLM拥有活跃的开源社区,在GitHub上星标数已突破3.9万,官方Discord社区日活开发者超过500人。社区成员们积极交流经验、分享代码、提出建议,共同推动vLLM的发展。同时,vLLM持续保持每周3 - 5次的版本迭代更新,不断优化性能、修复漏洞、增加新功能,让开发者能够始终使用到最前沿的技术。

二、环境配置指南

1、基础环境要求

为了高效部署 DeepSeek-R1-Distill-Qwen,推荐使用 Ubuntu 22.04 LTS 操作系统、Python 3.12 环境、CUDA 12.1 与 PyTorch 2.3.0,并配备至少 24GB 显存的 NVIDIA GPU,以确保模型推理的高性能和稳定性。

2、安装相关依赖

# 配置清华镜像源加速下载
python -m pip install --upgrade pip
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

# 安装核心依赖包
pip install modelscope==1.22.3
pip install openai==1.61.0
pip install vllm==0.7.1

首先,将pip升级到最新版本,确保能使用最新的功能和特性。然后,将pip源配置为清华大学的镜像源,这样在下载依赖包时能显著提高下载速度,减少等待时间。接下来,依次安装核心依赖库。modelscope库提供灵活的模型下载和管理功能,方便获取DeepSeek-R1-Distill-Qwen模型;openai库用于与vLLM的OpenAI API兼容接口进行交互;vllm库则是本次部署的核心框架,实现高效的模型推理。

3、模型文件下载

from modelscope import snapshot_download
# 下载预训练模型并指定缓存路径
model_dir = snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-7B', cache_dir='/root/autodl-tmp', revision='master')

这段代码用modelscope库的snapshot_download函数下载模型。deepseek-ai/DeepSeek-R1-Distill-Qwen-7B是模型在平台上的名字,cache_dir是你要把模型存到哪里,你可以自己改,revision='master’表示下最新版本。

三、模型推理实践

1、导入相关依赖包

from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
import os
import json

# 自动下载模型时,指定使用modelscope; 否则,会从HuggingFace下载
os.environ['VLLM_USE_MODELSCOPE']='True'

2、定义LLM处理函数

def get_completion(prompts, model, tokenizer=None, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048):
    stop_token_ids = [151329, 151336, 151338]
    # 创建采样参数。temperature 控制生成文本的多样性,top_p 控制核心采样的概率
    sampling_params = SamplingParams(temperature=temperature, top_p=top_p, max_tokens=max_tokens, stop_token_ids=stop_token_ids)
    # 初始化 vLLM 推理引擎
    llm = LLM(model=model, tokenizer=tokenizer, max_model_len=max_model_len,trust_remote_code=True)
    outputs = llm.generate(prompts, sampling_params)
return outputs

3、指定模型地址&定义消息

# 初始化 vLLM 推理引擎
model='/root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B' # 指定模型路径
# model="deepseek-ai/DeepSeek-R1-Distill-Qwen-7B" # 指定模型名称,自动下载模型
tokenizer = None
# 加载分词器后传入vLLM 模型,但不是必要的。
# tokenizer = AutoTokenizer.from_pretrained(model, use_fast=False) 

text = ["请帮我推荐一种深圳到北京的出行方式
", ] 
# 可用 List 同时传入多个 prompt,根据 DeepSeek 官方的建议,每个 prompt 都需要以 
 结尾,
#如果是数学推理内容,建议包含(中英文皆可):Please reason step by step, and put your final answer within oxed{}.

# messages = [
#     {"role": "user", "content": prompt+"
"}
# ]
# 作为聊天模板的消息,不是必要的。
# text = tokenizer.apply_chat_template(
#     messages,
#     tokenize=False,
#     add_generation_prompt=True
# )

4、获取输出结果

# 思考需要输出更多的 Token 数,max_tokens 设为 8K,根据 DeepSeek 官方的建议,temperature应在 0.5-0.7,推荐 0.6
outputs = get_completion(text, model, tokenizer=tokenizer, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048) 

# 输出是一个包含 prompt、生成文本和其他信息的 RequestOutput 对象列表。
# 打印输出。
for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    if r"" in generated_text:
        think_content, answer_content = generated_text.split(r"")
    else:
        think_content = ""
        answer_content = generated_text
print(f"Prompt: {prompt!r}, Think: {think_content!r}, Answer: {answer_content!r}")

执行如下:

打印结果如下:

Prompt: '请帮我推荐一种深圳到北京的出行方式
', Think: '好的,我现在要帮用户推荐从深圳到北京的出行方式。用户之前已经问过这个问题,现在可能需要进一步的信息或不同的选项。首先,我得考虑用户的需求可能是什么。他们可能时间紧迫,或者喜欢不同的旅行风格。

深圳到北京的路线有很多,比如高铁、飞机、大巴,还有可能的自驾或者中转其他城市。我应该先列出几种主要的交通方式,然后详细说明每种方式的优缺点,这样用户可以根据自己的情况选择。

首先,高铁是最快的方式,时间大概4-5小时,而且舒适,还有直达的班次。但高铁需要提前预订,特别是节假日,可能要提前一到两周。高铁适合大多数用户,尤其是那些时间紧张或喜欢高铁舒适环境的人。

然后是飞机,深圳有机场,北京有首都机场和大兴机场。飞机时间大约2-3小时,但价格比较高,而且航班可能比较紧张,尤其是热门季节。如果用户喜欢 direct flight,或者时间不够,飞机是个不错的选择。

接下来是大巴,虽然时间较长,但价格便宜,而且在车上可以睡觉,体验更像旅行。但大巴的班次可能不如高铁频繁,而且在大站之间可能比较慢,适合预算有限的用户。

另外,用户可能还考虑是否需要中转。比如从深圳飞到上海,再转到北京,或者深圳到天津再到北京。这样的路线可能在价格上更有优势,但时间会更长,可能不太适合时间紧张的用户。

如果用户喜欢自驾,可以考虑从深圳到北京自驾,但需要考虑时间、路线、油费等因素,而且北京的限行政策可能需要提前了解。

还有,是否有直达的高铁?比如深圳北站到北京西站的G字头列车,这可能是一个快速的选择。如果用户对高铁比较熟悉,这样的选择会很方便。

我还需要提醒用户注意一些细节,比如高铁需要提前订票,尤其是节假日,可能会有 seat changes 的限制。飞机方面,提前预订机票,选择合适的航班,避免延误。

另外,北京的天气可能在冬季较冷,用户可能需要带保暖衣物,或者考虑是否需要提前预订住宿。

综合考虑,我应该推荐高铁作为首选,因为时间快、舒适,然后飞机作为替代,接着是大巴,最后是中转或自驾。这样用户可以根据自己的情况和预算做出选择。
', Answer: '

深圳到北京的出行方式多样,您可以根据自己的时间和预算选择最适合的方式。以下是几种主要的出行方式推荐:

### 1. **高铁**
   - **优点**:时间最短,约4-5小时,舒适,直达。
   - **缺点**:需要提前预订,节假日可能需要提前一到两周。
   - **推荐理由**:如果时间紧张且喜欢高铁的舒适性,高铁是最佳选择。

### 2. **飞机**
   - **优点**:时间较短,约2-3小时,直达。
   - **缺点**:价格较高,航班可能紧张,尤其是节假日。
   - **推荐理由**:如果您喜欢 direct flight,或者时间不够,飞机是一个不错的选择。

### 3. **大巴**
   - **优点**:价格便宜,时间较长(约8-12小时),适合预算有限的用户。
   - **缺点**:班次可能不如高铁频繁,体验可能更像旅行。
   - **推荐理由**:如果预算有限且时间允许,大巴是一个经济的选择。

### 4. **中转**
   - 深圳到北京的高铁和飞机主要班次都从北京西站或首都机场出发,您也可以选择中转,例如:
     - 深圳飞上海或天津,再转乘高铁或飞机到北京。
     - 深圳飞天津或上海,再转乘高铁到北京。
   - **优点**:价格可能更优惠,适合预算有限的用户。
   - **缺点**:时间会更长,建议提前规划。

### 5. **自驾**
   - **优点**:时间灵活,可以体验沿途风光。
   - **缺点**:需要考虑时间和路线,油费等额外费用。
   - **推荐理由**:如果喜欢自驾,可以选择从深圳出发,沿京昆高速、京沪高速等行驶到北京。

### 6. **其他方式**
   - **公共交通**:深圳有地铁、公交等,但直接到北京可能不太方便。
   - **共享出行**:如网约车服务(如滴滴出行、出租车等),方便灵活。

### 建议:
- **时间紧迫且喜欢高铁**:高铁是最佳选择。
- **喜欢 direct flight**:飞机是不错的选择。
- **预算有限**:大巴或中转是更好的选择。

希望这些信息能帮助您选择合适的出行方式!如果需要更详细的行程规划或预订建议,可以告诉我您的偏好,我会尽力帮助您。'

四、OpenAI API服务部署测试

DeepSeek-R1-Distill-Qwen 是一款高性能的蒸馏语言模型,它兼容 OpenAI API 协议,能够通过 vLLM 框架快速创建一个本地的 OpenAI API 服务器。vLLM 是一个开源的高效推理框架,专为大语言模型设计,支持多种优化技术,如 PagedAttention 算法,能够显著提升推理效率。启动的服务器默认监听 http://localhost:8000,支持以下功能:

  • Completions API:用于基本的文本生成任务,如生成文章、故事或邮件。
  • Chat Completions API:用于对话任务,如构建聊天机器人。

1、发布OpenAI API服务

部署服务器时,可以指定以下参数:
–host 和 --port:指定服务器地址和端口。
–model:指定模型路径。
–chat-template:指定聊天模板。
–served-model-name:指定服务模型的名称。
–max-model-len:指定模型的最大上下文长度。
以下是启动命令:

python -m vllm.entrypoints.openai.api_server 
  --model /root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 
  --served-model-name DeepSeek-R1-Distill-Qwen-7B 
  --max-model-len=2048

服务启动如下:

此命令将启动一个本地服务器,监听 http://localhost:8000。

2、Completions API调用

from openai import OpenAI

client = OpenAI(base_url="http://localhost:8000/v1", api_key="sk-xxx")
response = client.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    prompt="简单介绍一下deepseek?
",
    max_tokens=1024
)
print(response.choices[0].text)

在这段代码中,使用openai库创建OpenAI客户端对象,指定base_url为本地启动的vLLM服务地址http://localhost:8000/v1api_key为任意值(因为在本地测试,这里主要用于满足接口格式要求)。然后,调用client.completions.create方法,传入模型名称、提示词和最大生成token数,获取模型的推理结果,并打印生成的文本。如果在调用过程中出现错误,可能是因为服务未启动、参数设置错误等原因,需要仔细排查。

模型响应输出如下

好的,我现在要介绍一下DeepSeek。首先,我得快速浏览一下用户提供的内容,了解DeepSeek的基本信息。DeepSeek是一家专注实现AGI的中国的人工智能公司,由深度求索人工智能研究院成立,致力于AGI研究和落地。

我知道AGI指的是通用人工智能,即在智力上超越人类的人工智能系统,具有自主学习、推理、解决问题等能力。所以DeepSeek的项目目标就是实现这一点。接下来,他们的研究领域包括认知科学、计算机科学、量子计算、脑机接口和元学习,这些都是AGI研究的重要方向。

然后看了一下他们的方向,包括认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升、元学习与自适应学习。这些听起来比较广泛,涵盖了多个技术领域。技术能力方面提到了自然语言处理、计算机视觉、数值计算等,这些都是机器学习中的核心领域,特别是深度学习在这些方面的应用。

医疗、教育、 withdrawal这些应用领域,尤其是医疗和教育,都是AI应用的重要方向。医疗AI可以帮助诊断疾病,提高治疗效果;教育AI可以提供个性化学习体验,提高教育效率。

最后,他们的愿景是让用户与AI成为完美的协作伙伴,这可能意味着DeepSeek希望通过其技术帮助用户更高效地解决各种问题,提升生活质量和工作效率。

整体来看,DeepSeek是一家致力于实现AGI的公司,涉及多个技术领域,并且有明确的应用目标,这使得他们的 work likely 在AI领域有不错的影响力。如果有时间,我想深入了解它们的研究方法、取得的成果以及面临的挑战。

现在,我要检查一下是否理解正确,以及信息是否有遗漏。比如,DeepSeek的成立背景是什么?我需要确保“深度求索人工智能研究院”是其成立的背景,而非其他。此外,AGI的定义是否正确,是否有其他公司也在 chasing AGI?

另外,DeepSeek的具体技术手段是什么?是基于特定模型或算法的创新?提到的自然语言处理、计算机视觉等,这些具体如何实现AGI的目标?

在应用方面, withdraw的应用可能是指用户退出或其他功能,可能需要更正。此外,技术能力部分可能需要更详细地解释每个技术如何支持AGI。

总结来说,我需要确保在介绍中准确传达DeepSeek的核心目标、研究领域、技术能力以及应用,同时注意使用准确的专业术语,并保持逻辑清晰。
</think>

DeepSeek 是一家专注实现通用人工智能(AGI)的中国公司,由深度求索人工智能研究院成立于2023年。其目标是通过研究和实现AGI,推动人工智能技术的变革性发展。以下是DeepSeek的详细介绍:

1. **背景与目标**
   - **成立背景**:由深度求索人工智能研究院成立,致力于AGI研究和落地。
   - **核心目标**:实现AGI,即超越人类智力水平的人工智能系统,具备自主学习、推理和解决问题的能力。

2. **研究领域**
   - 涵盖认知科学、计算机科学、量子计算、脑机接口和元学习,涵盖多个关键领域,包括但不仅限于认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升以及元学习与自适应学习。

3. **技术能力**
   - 应用于自然语言处理、计算机视觉、数值计算、元学习和强化学习等技术领域,推动新兴技术的发展,特别是深度学习在各领域的创新应用。

4. **应用领域**
   - **医疗**:通过AI提高诊断准确性和治疗效果,优化资源配置,提升医疗服务。
   - **教育**:提供个性化学习方案,提升学习体验和教育效率。
   - **其他**:DeepSeek 还探索在 withdrawals 行业的应用,如安全监控和应急响应等领域。

5. **愿景**
   - 让用户与AI成为完美的协作伙伴,提升生活质量和工作效率,实现人机完美的协作。

**补充说明**- **成立背景**:作为一家新兴的高科技公司,DeepSeek可能尚未获得广泛的关注,但其专注于AGI的研究,可能在量子计算、脑机接口等领域具备先发优势。
- **AGI挑战**:AGI的实现仍面临巨大挑战,包括技术突破、伦理问题和应用安全等,DeepSeek的进展值得持续关注。
- **技术手段**:具体的创新可能包括新型算法、硬件加速技术或跨学科的国际合作,以突破现有技术限制。

DeepSeek的成立标志着中国AI生态中的又一重要参与者,其目标不仅是技术突破,更是推动社会的整体发展。

3、Chat Completions API调用

chat_response = client.chat.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    messages=[{"role": "user", "content": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?"}]
)
print(chat_response.choices[0].message.content)

此代码用于调用Chat Completions API,通过client.chat.completions.create方法,传入模型名称和包含用户消息的列表,获取聊天模式下的推理结果,并打印模型生成的回答内容。在实际应用中,可以根据用户需求,优化提示词和消息列表,以获得更准确、更有用的回答。

模型响应输出如下

你买了总共10个苹果。

给了对方3个, yourself剩下10减去3等于7个苹果。

接着,自己又吃了1个苹果,剩下7减去1等于6个苹果。

所以,最终剩下6个苹果。
</think>

**解答:**

1. **总苹果数**:你最初有10个苹果。

2. **给对方3**( 10 - 3 = 7 )  
   你剩下7个苹果。

3. **自己吃了1**( 7 - 1 = 6 )  
   最终剩下6个苹果。

**答案:oxed{6}**

4、命令行调用OpenAI API接口

命令行调用示例如下:

curl http://localhost:8000/v1/completions 
    -H "Content-Type: application/json" 
    -d '{
        "model": "DeepSeek-R1-Distill-Qwen-7B",
        "prompt": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?
",
        "max_tokens": 1024,
        "temperature": 0
}'

执行结果如下:

五、最佳实践建议

1. 显存优化

对于配备24G显存的3090显卡,建议设置max_model_len=2048。因为模型长度与显存占用密切相关,合理设置max_model_len,可以避免因模型长度过大导致显存不足的问题,确保模型能够稳定运行。如果需要处理更长的文本,可以考虑增加显存或者优化模型结构。

2. 温度参数

在不同的任务场景下,合理调整温度参数(temperature)至关重要。对于创造性任务,如文本创作、故事生成等,建议将temperature设置为0.7 - 0.9,这样可以使生成的文本更加多样化和富有创意;对于逻辑推理任务,如数学计算、知识问答等,建议将temperature设置为0.3 - 0.5,以确保生成的文本更加准确和逻辑严谨。

总结

通过本文的详细介绍,你已经掌握了使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型的全流程。从vLLM框架的特性解析,到环境配置、模型部署、API接口测试,再到最佳实践建议,每一步都为你在大语言模型部署的道路上提供了坚实的指引。希望你在实际应用中,能够灵活运用这些知识,充分发挥vLLM和DeepSeek-R1-Distill-Qwen模型的优势,实现更多创新的应用。

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:我是寻道AI小兵,资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索。
📖 技术交流:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,加入技术交流群,开启编程探索之旅。
💘精心准备📚500本编程经典书籍、💎AI专业教程,以及高效AI工具。等你加入,与我们一同成长,共铸辉煌未来。
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我,让我们携手同行AI的探索之旅,一起开启智能时代的大门!

本文地址:https://www.vps345.com/3890.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 deepseek Ollama 模型联网 API CherryStudio javascript 前端 chrome edge 进程 操作系统 进程控制 Ubuntu ssh llama 算法 opencv 自然语言处理 神经网络 语言模型 python MCP 数据库 centos oracle 关系型 安全 分布式 numpy 笔记 C ubuntu 环境变量 进程地址空间 rust http java 网络 开发语言 阿里云 网络安全 网络协议 adb nginx 监控 自动化运维 django fastapi flask web3.py flutter react.js 前端面试题 node.js 持续部署 Dell R750XS 科技 ai 人工智能 个人开发 harmonyos 华为 typescript 计算机网络 macos gitlab 后端 c++ 多线程服务器 Linux网络编程 json html5 firefox pycharm 深度学习 conda pillow spring android windows 搜索引擎 kubernetes 容器 学习方法 经验分享 程序人生 github 创意 社区 docker DeepSeek-R1 API接口 c语言 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 Hyper-V WinRM TrustedHosts matlab YOLOv8 NPU Atlas800 A300I pro asi_bench ecm bpm tcp/ip Deepseek 面试 性能优化 jdk intellij-idea 架构 自动化 蓝耘科技 元生代平台工作流 ComfyUI udp unity golang IIS .net core Hosting Bundle .NET Framework vs2022 php html ollama llm 机器学习 chatgpt 大模型 llama3 Chatglm 开源大模型 zotero WebDAV 同步失败 代理模式 串口服务器 YOLO pytorch vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 sql KingBase mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 银河麒麟 kylin v10 麒麟 v10 ESP32 LDAP spring boot websocket tomcat ide nuxt3 vue3 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 Docker Compose docker compose docker-compose 统信 国产操作系统 虚拟机安装 .net ruoyi springboot Nuxt.js git 嵌入式硬件 单片机 温湿度数据上传到服务器 Arduino HTTP 需求分析 规格说明书 远程工作 jenkins 云原生 ci/cd mysql android studio express okhttp CORS 跨域 雨云 NPS apache 孤岛惊魂4 其他 恒源云 java-ee tcp Cursor vim big data AIGC oneapi 大模型微调 open webui 学习 Linux PID MQTT 消息队列 博客 kafka qt microsoft https 报错 爬虫 Headless Linux mongodb 远程登录 telnet pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 华为认证 网络工程师 交换机 开源 pygame 小游戏 五子棋 live555 rtsp rtp JAVA Java spring cloud shell visualstudio k8s c# zookeeper debian vscode kylin 大数据 v10 镜像源 软件 armbian u-boot 僵尸进程 驱动开发 硬件工程 嵌入式实习 电脑 Samba SWAT 配置文件 服务管理 网络共享 WSL win11 无法解析服务器的名称或地址 AI编程 AI Agent ftp stm32 EasyConnect Cline 企业微信 Linux24.04 deepin ecmascript nextjs react reactjs 流式接口 URL opensearch helm eureka web安全 ssrf 失效的访问控制 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x DeepSeek openwrt maven flash-attention ux 多线程 LLM Web APP Streamlit 缓存 hadoop 运维开发 svn Linux xrdp 远程桌面 远程连接 redis string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 向日葵 开发环境 SSL证书 sysctl.conf vm.nr_hugepages Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket 小程序 能力提升 面试宝典 技术 IT信息化 源码剖析 rtsp实现步骤 流媒体开发 odoo 服务器动作 Server action prometheus 银河麒麟操作系统 国产化 rpc 远程过程调用 Windows环境 直播推流 腾讯云 rsyslog 智能路由器 机器人 Reactor 设计模式 C++ FTP服务器 媒体 微信公众平台 C语言 ipython 物联网 服务器繁忙 联想开天P90Z装win10 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 jmeter 软件测试 gitee ollama下载加速 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 权限 统信UOS 麒麟 bonding 链路聚合 压力测试 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 MCP server C/S LLM windows日志 安全架构 游戏服务器 Minecraft 课程设计 cursor agi 计算机视觉 ansible playbook gpu算力 负载均衡 unix LORA 大语言模型 NLP H3C 命名管道 客户端与服务端通信 Dify springsecurity6 oauth2 授权服务器 前后端分离 uni-app go 硬件架构 系统架构 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 es jvm 目标检测 华为云 集成学习 集成测试 医疗APP开发 app开发 openEuler jar arm FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 交互 file server http server web server ssl 代码调试 ipdb rdp 实验 minio Docker Hub docker pull daemon.json UOS 统信操作系统 yum oceanbase rc.local 开机自启 systemd 深度优先 图论 并集查找 换根法 树上倍增 ddos MNN Qwen 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 hugo arm开发 数据集 ios gaussdb DeepSeek行业应用 Heroku 网站部署 xss 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 fpga开发 pppoe radius ocr AI agent 思科模拟器 思科 Cisco kind next.js 部署 部署next.js IDEA googlecloud X11 Xming bash 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 idm EMQX 通信协议 漏洞 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 宝塔面板 同步 备份 建站 安全威胁分析 vscode 1.86 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 SSH 豆瓣 追剧助手 迅雷 nas 微信 内存 unity3d 编辑器 aws 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS virtualenv postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 excel intellij idea 监控k8s集群 集群内prometheus elasticsearch IIS服务器 IIS性能 日志监控 模拟退火算法 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP mosquitto 外网访问 内网穿透 端口映射 r语言 数据挖掘 数据可视化 数据分析 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 华为od sqlite dubbo TCP服务器 qt项目 qt项目实战 qt教程 openssl 密码学 网络结构图 kamailio sip VoIP 根服务器 TRAE av1 电视盒子 机顶盒ROM 魔百盒刷机 3d 数学建模 hibernate AI大模型 大模型入门 大模型教程 webrtc remote-ssh sqlserver ukui 麒麟kylinos openeuler 微服务 游戏程序 ffmpeg 音视频 重启 排查 系统重启 日志 原因 升级 CVE-2024-7347 云服务器 VPS .net mvc断点续传 ceph gateway 实战案例 序列化反序列化 GCC Linux环境 数据结构 zabbix iBMC UltraISO devops xcode 微信小程序 dify gcc Python基础 Python教程 Python技巧 web 系统安全 深度求索 私域 知识库 飞书 鸿蒙 鸿蒙系统 web3 程序员 环境配置 Claude 测试工具 autodl vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 jupyter 反向代理 AnythingLLM AnythingLLM安装 虚幻 游戏引擎 线程 状态模式 智能手机 矩阵 信息与通信 合成模型 扩散模型 图像生成 opcua opcda KEPServer安装 P2P HDLC 工业4.0 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm IMM QT 5.12.12 QT开发环境 Ubuntu18.04 双系统 GRUB引导 Linux技巧 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos echarts frp 传统数据库升级 银行 LLMs springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 单一职责原则 DevEco Studio HarmonyOS OpenHarmony 真机调试 腾讯云大模型知识引擎 IPMITOOL BMC 硬件管理 sdkman 鲲鹏 小智AI服务端 xiaozhi TTS FTP 服务器 RAID RAID技术 磁盘 存储 图像处理 can 线程池 postgresql uniapp 技能大赛 计算机外设 1024程序员节 微信开放平台 微信公众号配置 gitea 游戏开发 hexo 移动云 可信计算技术 mariadb ssh远程登录 自定义客户端 SAS 相机 昇腾 npu 僵尸世界大战 游戏服务器搭建 多进程 远程 命令 执行 sshpass 操作 linux上传下载 软件工程 健康医疗 互联网医院 nfs wps 安卓 ui SSL 域名 Anolis nginx安装 环境安装 linux插件下载 cuda cudnn nvidia prometheus数据采集 prometheus数据模型 prometheus特点 HarmonyOS Next ldap 毕昇JDK webstorm Trae IDE AI 原生集成开发环境 Trae AI 浏览器开发 AI浏览器 npm linux安装配置 mcu mysql离线安装 ubuntu22.04 mysql8.0 源码 毕业设计 rabbitmq rnn 大大通 第三代半导体 碳化硅 vmware 卡死 项目部署到linux服务器 项目部署过程 本地部署 centos-root /dev/mapper yum clean all df -h / du -sh pyqt 考研 onlyoffice 在线office 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 半虚拟化 硬件虚拟化 Hypervisor etl etcd 数据安全 RBAC wireshark 嵌入式 linux驱动开发 基础入门 编程 Kali Linux 黑客 渗透测试 信息收集 h.264 micropython esp32 mqtt hive Hive环境搭建 hive3环境 Hive远程模式 seatunnel RustDesk自建服务器 rustdesk服务器 docker rustdesk yaml Ultralytics 可视化 webgl 黑客技术 cpp-httplib 网工 pgpool 开机自启动 rag ragflow ragflow 源码启动 grafana vscode1.86 1.86版本 ssh远程连接 田俊楠 SSE rocketmq open Euler dde 迁移指南 chrome 浏览器下载 chrome 下载安装 mac 谷歌浏览器下载 网卡的名称修改 eth0 ens33 .netcore ue4 着色器 ue5 outlook epoll jina TrinityCore 魔兽世界 anaconda mamba Vmamba 视觉检测 adobe Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 MySql elk rclone AList webdav fnOS bug clickhouse 飞牛NAS 飞牛OS MacBook Pro harmonyOS面试题 token sas IMX317 MIPI H265 VCU 环境迁移 lio-sam SLAM 服务器管理 配置教程 服务器安装 网站管理 邮件APP 免费软件 崖山数据库 YashanDB composer 视频编解码 pip Ubuntu Server Ubuntu 22.04.5 Ubuntu 24.04.1 轻量级服务器 产测工具框架 IMX6ULL 管理框架 python3.11 dash 正则表达式 ip visual studio code 群晖 文件分享 中间件 iis Linux的基础指令 移动魔百盒 W5500 OLED u8g2 chfs ubuntu 16.04 matplotlib USB转串口 CH340 相差8小时 UTC 时间 前端框架 历史版本 下载 安装 远程控制 远程看看 远程协助 HiCar CarLife+ CarPlay QT RK3588 yolov8 Node-Red 编程工具 流编程 知识图谱 网络穿透 CPU cpu 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 NFS 毕设 safari Mac 系统 程序 性能分析 bat OD机试真题 华为OD机试真题 服务器能耗统计 deepseek r1 dns 低代码 三级等保 服务器审计日志备份 策略模式 单例模式 css ESXi 智能音箱 智能家居 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 多个客户端访问 IO多路复用 回显服务器 TCP相关API 实时互动 iphone bootstrap 软考 linux 命令 sed 命令 make命令 makefile文件 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors XCC Lenovo list 模拟实现 压测 ECS 镜像 繁忙 解决办法 替代网站 汇总推荐 AI推理 n8n 工作流 workflow CDN Clion Nova ResharperC++引擎 Centos7 远程开发 dba prompt easyui langchain fd 文件描述符 uv tailscale derp derper 中转 主板 电源 网卡 网络攻击模型 线性代数 电商平台 Windows skynet Qwen2.5-coder 离线部署 navicat 文件系统 路径解析 cocoapods DOIT 四博智联 threejs 3D yum源切换 更换国内yum源 防火墙 NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 stm32项目 无人机 ROS 自动驾驶 embedding wsl IPv4 子网掩码 公网IP 私有IP SenseVoice SSH 密钥生成 SSH 公钥 私钥 生成 Linux find grep wsgiref Web 服务器网关接口 less 常用命令 文本命令 目录命令 ShenTong 信号处理 计算机 thingsboard MacOS录屏软件 ardunio BLE 端口测试 iDRAC R720xd iperf3 带宽测试 SSH 服务 SSH Server OpenSSH Server dell服务器 iventoy VmWare OpenEuler css3 串口驱动 CH341 uart 485 XFS xfs文件系统损坏 I_O error 磁盘监控 iot 服务器配置 生物信息学 bcompare Beyond Compare 模拟器 教程 服务器主板 AI芯片 Jellyfin c 我的世界服务器搭建 asm AI-native Docker Desktop 王者荣耀 Wi-Fi 超融合 Spring Security 我的世界 我的世界联机 数码 tidb GLIBC 虚拟机 ISO镜像作为本地源 云服务 云电竞 云电脑 todesk EMUI 回退 降级 IPMI 带外管理 软链接 硬链接 职场和发展 db 硬件 设备 GPU PCI-Express WebUI DeepSeek V3 jetty undertow sqlite3 g++ g++13 cnn DenseNet ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS CrewAI ruby log4j Erlang OTP gen_server 热代码交换 事务语义 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 apt 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 中兴光猫 换光猫 网络桥接 自己换光猫 Xinference RAGFlow glibc rustdesk redhat dns是什么 如何设置电脑dns dns应该如何设置 单元测试 功能测试 selenium Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 freebsd WSL2 IM即时通讯 QQ 剪切板对通 HTML FORMAT 图形化界面 换源 国内源 Debian 架构与原理 VMware安装Ubuntu Ubuntu安装k8s 测试用例 AI写作 AI作画 聊天室 KylinV10 麒麟操作系统 Vmware GoogLeNet 银河麒麟服务器操作系统 系统激活 Typore k8s集群资源管理 云原生开发 wsl2 算力 RAGFLOW cd 目录切换 Radius tensorflow camera Arduino 电子信息 muduo crosstool-ng 个人博客 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 烟花代码 烟花 元旦 多层架构 解耦 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 deekseek windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 aarch64 编译安装 HPC selete 高级IO laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 vue 微信分享 Image wxopensdk 直流充电桩 充电桩 junit xpath定位元素 自动化测试 性能测试 SEO dity make 显示管理器 lightdm gdm 树莓派 VNC 交叉编译 Open WebUI 阻塞队列 生产者消费者模型 服务器崩坏原因 Xterminal 边缘计算 NAS Termux RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 信号 netty p2p sentinel 游戏机 抗锯齿 Netty 即时通信 NIO 实习 HTTP 服务器控制 ESP32 DeepSeek 状态管理的 UDP 服务器 Arduino RTOS firewall AD域 宠物 免费学习 宠物领养 宠物平台 致远OA OA服务器 服务器磁盘扩容 Kali 小艺 Pura X gpt 技术共享 vasp安装 智能硬件 查询数据库服务IP地址 SQL Server 加解密 Yakit yaklang 语音识别 AutoDL HCIE 数通 业界资讯 code-server SVN Server tortoise svn SysBench 基准测试 流量运营 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 MS Materials 金仓数据库 2025 征文 数据库平替用金仓 VR手套 数据手套 动捕手套 动捕数据手套 eclipse HAProxy 5G 3GPP 卫星通信 nac 802.1 portal 大数据平台 虚拟局域网 银河麒麟高级服务器 外接硬盘 Kylin 7z 信息可视化 网页设计 gradle transformer 输入法 华为机试 proxy模式 AISphereButler Java Applet URL操作 服务器建立 Socket编程 网络文件读取 Dell HPE 联想 浪潮 tcpdump VMware安装mocOS VMware macOS系统安装 rust腐蚀 框架搭建 显卡驱动 ros UDP的API使用 llama.cpp js 火绒安全 内网服务器 内网代理 内网通信 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 chrome devtools chromedriver 人工智能生成内容 金融 ArcTS 登录 ArcUI GridItem 网络用户购物行为分析可视化平台 大数据毕业设计 arkUI 服务网格 istio Ubuntu共享文件夹 共享目录 Linux共享文件夹 拓扑图 剧本 neo4j docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 eNSP 网络规划 VLAN 企业网络 大模型面经 大模型学习 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 基础环境 鸿蒙开发 移动开发 开发 ubuntu20.04 开机黑屏 匿名管道 语法 IO LInux VS Code 沙盒 word sequoiaDB AD 域管理 spark HistoryServer Spark YARN jobhistory 多路转接 捆绑 链接 谷歌浏览器 youtube google gmail 网站搭建 serv00 项目部署 grub 版本升级 扩容 图形渲染 wpf VSCode 黑苹果 raid5数据恢复 磁盘阵列数据恢复 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 alias unalias 别名 USB网络共享 Playwright 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 CentOS Stream CentOS regedit 开机启动 java-rocketmq OpenSSH minecraft GIS 遥感 WebGIS ssh漏洞 ssh9.9p2 CVE-2025-23419 蓝桥杯 YOLOv12 混合开发 JDK ai工具 IO模型 分布式训练 Kylin-Server AI代码编辑器 京东云 内网环境 Cookie 本地化部署 目标跟踪 OpenVINO 推理应用 玩机技巧 软件分享 软件图标 WebRTC win服务器架设 windows server Redis Desktop 私有化 seleium SRS 流媒体 直播 ABAP 链表 perf DBeaver 数据仓库 kerberos TCP协议 软件需求 存储维护 NetApp存储 EMC存储 系统开发 binder 车载系统 framework 源码环境 openstack Xen 雨云服务器 软负载 CLion milvus 服务器部署ai模型 Logstash 日志采集 curl wget 端口 查看 ss risc-v firewalld AI Agent 字节智能运维 swoole 粘包问题 visual studio ip命令 新增网卡 新增IP 启动网卡 docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 iftop 网络流量监控 西门子PLC 通讯 ubuntu24.04.1 fast 大模型应用 PX4 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 自动化任务管理 宕机切换 服务器宕机 rpa triton 模型分析 代理 飞牛nas fnos springcloud 离线部署dify flink PVE vr Attention 企业网络规划 华为eNSP mq Unity插件 x64 SIGSEGV xmm0 RAG 检索增强生成 文档解析 大模型垂直应用 李心怡 Google pay Apple pay trea idea TrueLicense Linux的权限 docker部署Python Invalid Host allowedHosts DNS 热榜 UDP 服务器时间 kali 共享文件夹 键盘 嵌入式Linux IPC gnu VMware创建虚拟机 办公自动化 自动化生成 pdf教程 音乐服务器 Navidrome 音流 ping++ 产品经理 MDK 嵌入式开发工具 论文笔记 sublime text arcgis 嵌入式系统开发 网络爬虫 大模型推理 代理服务器 搭建个人相关服务器 影刀 #影刀RPA# minicom 串口调试工具 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 灵办AI pyautogui 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 运维监控 ubuntu24 vivado24 元服务 应用上架 figma 远程服务 bot Docker 虚幻引擎 conda配置 conda镜像源 edge浏览器 leetcode 推荐算法 DocFlow 大模型部署 阿里云ECS trae 论文阅读 自动化编程 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 Deepseek-R1 私有化部署 推理模型 欧标 OCPP 物联网开发 lua vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 社交电子 ros2 moveit 机器人运动 域名服务 DHCP 符号链接 配置 音乐库 飞牛 实用教程 docker run 数据卷挂载 交互模式 分析解读 强化学习 风扇控制软件 本地知识库部署 DeepSeek R1 模型 searxng midjourney 网络药理学 生信 PPI String Cytoscape CytoHubba rime 裸金属服务器 弹性裸金属服务器 deep learning MacMini 迷你主机 mini Apple linux环境变量 程序员创富 nlp 干货分享 黑客工具 密码爆破 Windsurf mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 信创 信创终端 中科方德 Ark-TS语言 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 执法记录仪 智能安全帽 smarteye hosts 聚类 xml mybatis docker命令大全 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 cmos 数据库系统 dock 加速 C# MQTTS 双向认证 emqx 政务 分布式系统 监控运维 Prometheus Grafana xshell termius iterm2 做raid 装系统 数据库开发 database gpt-3 文心一言 keepalived sonoma 自动更新