• 【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器

2025-04-25 18:18:01 1 阅读

系列篇章💥

No.文章
01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能
02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南
03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力
04【DeepSeek开发入门】DeepSeek API 开发初体验
05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)
06【DeepSeek开发入门】Function Calling 函数功能应用实战指南
07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手
08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南
09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器
10【DeepSeek部署实战】基于Ollama快速部署DeepSeek-R1系列模型实战指南(Linux)
11【DeepSeek部署实战】基于Ollama+Chatbox零成本部署DeepSeek-R1系列模型攻略(Windows)
12【DeepSeek开发实战】DeepSeek-R1-Distill-Qwen与LangChain的本地大模型应用开发指南

目录

  • 系列篇章💥
  • 前言
  • 一、vLLM框架特性解析
    • 1、高效内存管理
    • 2、吞吐量王者
    • 3、无缝生态集成
    • 4、分布式推理支持
    • 5、开源社区驱动
  • 二、环境配置指南
    • 1、基础环境要求
    • 2、安装相关依赖
    • 3、模型文件下载
  • 三、模型推理实践
    • 1、导入相关依赖包
    • 2、定义LLM处理函数
    • 3、指定模型地址&定义消息
    • 4、获取输出结果
  • 四、OpenAI API服务部署测试
    • 1、发布OpenAI API服务
    • 2、Completions API调用
    • 3、Chat Completions API调用
    • 4、命令行调用OpenAI API接口
  • 五、最佳实践建议
    • 1. 显存优化
    • 2. 温度参数
  • 总结


前言

大语言模型的落地应用离不开高效推理框架的支持,vLLM以其卓越的性能在众多框架中脱颖而出。本文将带你深入探索如何使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型,无论是深度学习新手还是有经验的开发者,都能从中获取实用的知识和技能。

一、vLLM框架特性解析

1、高效内存管理

在大模型推理中,内存管理至关重要。vLLM独创的PagedAttention算法,如同为显存空间安排了一位智能管家。它借鉴操作系统虚拟内存管理机制,实现了KV缓存的动态分页管理。这意味着,当模型处理大量数据时,不再需要一次性占用连续的显存空间,而是像拼积木一样,动态分配所需的显存块。在实际应用中,相较于传统方案,vLLM的内存利用率提升高达24倍,这使得在有限的显存条件下,也能高效运行大模型,大大降低了硬件门槛。

2、吞吐量王者

vLLM在推理速度上堪称王者。它支持连续批处理(Continuous Batching)和异步推理,就像一位高效的流水线工人,在A100 GPU上实测,吞吐量可达HuggingFace Transformers的24倍。在处理长文本生成任务时,这种优势更为显著。连续批处理技术让vLLM无需等待前一批次推理完成,就能马不停蹄地接收新任务,充分榨干GPU的计算资源;异步推理则进一步提升了系统的并发处理能力,让多个推理任务并行执行,大大提高了整体处理效率。

3、无缝生态集成

生态兼容性是vLLM的又一亮点。它与HuggingFace模型库完美兼容,支持超过50种主流大模型,这使得开发者可以轻松将vLLM融入现有的基于HuggingFace的开发流程中。同时,vLLM通过OpenAI API兼容设计,为现有基于ChatGPT的应用提供了便捷的迁移路径。开发者无需大规模修改代码,就能将应用迁移到使用vLLM框架的DeepSeek-R1-Distill-Qwen大语言模型上,极大地降低了技术迁移成本。

4、分布式推理支持

对于大规模推理任务,vLLM采用张量并行(Tensor Parallelism)技术,支持多GPU分布式推理。在4*A100的环境下实测,推理速度提升3.8倍。这就好比将多个小引擎组合成一个超级引擎,充分利用多块GPU的计算能力,实现大规模模型的快速推理,满足企业级应用对高并发、低延迟的需求。无论是在线服务还是离线分析场景,分布式推理都能显著提升系统性能和响应速度。

5、开源社区驱动

vLLM拥有活跃的开源社区,在GitHub上星标数已突破3.9万,官方Discord社区日活开发者超过500人。社区成员们积极交流经验、分享代码、提出建议,共同推动vLLM的发展。同时,vLLM持续保持每周3 - 5次的版本迭代更新,不断优化性能、修复漏洞、增加新功能,让开发者能够始终使用到最前沿的技术。

二、环境配置指南

1、基础环境要求

为了高效部署 DeepSeek-R1-Distill-Qwen,推荐使用 Ubuntu 22.04 LTS 操作系统、Python 3.12 环境、CUDA 12.1 与 PyTorch 2.3.0,并配备至少 24GB 显存的 NVIDIA GPU,以确保模型推理的高性能和稳定性。

2、安装相关依赖

# 配置清华镜像源加速下载
python -m pip install --upgrade pip
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

# 安装核心依赖包
pip install modelscope==1.22.3
pip install openai==1.61.0
pip install vllm==0.7.1

首先,将pip升级到最新版本,确保能使用最新的功能和特性。然后,将pip源配置为清华大学的镜像源,这样在下载依赖包时能显著提高下载速度,减少等待时间。接下来,依次安装核心依赖库。modelscope库提供灵活的模型下载和管理功能,方便获取DeepSeek-R1-Distill-Qwen模型;openai库用于与vLLM的OpenAI API兼容接口进行交互;vllm库则是本次部署的核心框架,实现高效的模型推理。

3、模型文件下载

from modelscope import snapshot_download
# 下载预训练模型并指定缓存路径
model_dir = snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-7B', cache_dir='/root/autodl-tmp', revision='master')

这段代码用modelscope库的snapshot_download函数下载模型。deepseek-ai/DeepSeek-R1-Distill-Qwen-7B是模型在平台上的名字,cache_dir是你要把模型存到哪里,你可以自己改,revision='master’表示下最新版本。

三、模型推理实践

1、导入相关依赖包

from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
import os
import json

# 自动下载模型时,指定使用modelscope; 否则,会从HuggingFace下载
os.environ['VLLM_USE_MODELSCOPE']='True'

2、定义LLM处理函数

def get_completion(prompts, model, tokenizer=None, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048):
    stop_token_ids = [151329, 151336, 151338]
    # 创建采样参数。temperature 控制生成文本的多样性,top_p 控制核心采样的概率
    sampling_params = SamplingParams(temperature=temperature, top_p=top_p, max_tokens=max_tokens, stop_token_ids=stop_token_ids)
    # 初始化 vLLM 推理引擎
    llm = LLM(model=model, tokenizer=tokenizer, max_model_len=max_model_len,trust_remote_code=True)
    outputs = llm.generate(prompts, sampling_params)
return outputs

3、指定模型地址&定义消息

# 初始化 vLLM 推理引擎
model='/root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B' # 指定模型路径
# model="deepseek-ai/DeepSeek-R1-Distill-Qwen-7B" # 指定模型名称,自动下载模型
tokenizer = None
# 加载分词器后传入vLLM 模型,但不是必要的。
# tokenizer = AutoTokenizer.from_pretrained(model, use_fast=False) 

text = ["请帮我推荐一种深圳到北京的出行方式
", ] 
# 可用 List 同时传入多个 prompt,根据 DeepSeek 官方的建议,每个 prompt 都需要以 
 结尾,
#如果是数学推理内容,建议包含(中英文皆可):Please reason step by step, and put your final answer within oxed{}.

# messages = [
#     {"role": "user", "content": prompt+"
"}
# ]
# 作为聊天模板的消息,不是必要的。
# text = tokenizer.apply_chat_template(
#     messages,
#     tokenize=False,
#     add_generation_prompt=True
# )

4、获取输出结果

# 思考需要输出更多的 Token 数,max_tokens 设为 8K,根据 DeepSeek 官方的建议,temperature应在 0.5-0.7,推荐 0.6
outputs = get_completion(text, model, tokenizer=tokenizer, max_tokens=8192, temperature=0.6, top_p=0.95, max_model_len=2048) 

# 输出是一个包含 prompt、生成文本和其他信息的 RequestOutput 对象列表。
# 打印输出。
for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    if r"" in generated_text:
        think_content, answer_content = generated_text.split(r"")
    else:
        think_content = ""
        answer_content = generated_text
print(f"Prompt: {prompt!r}, Think: {think_content!r}, Answer: {answer_content!r}")

执行如下:

打印结果如下:

Prompt: '请帮我推荐一种深圳到北京的出行方式
', Think: '好的,我现在要帮用户推荐从深圳到北京的出行方式。用户之前已经问过这个问题,现在可能需要进一步的信息或不同的选项。首先,我得考虑用户的需求可能是什么。他们可能时间紧迫,或者喜欢不同的旅行风格。

深圳到北京的路线有很多,比如高铁、飞机、大巴,还有可能的自驾或者中转其他城市。我应该先列出几种主要的交通方式,然后详细说明每种方式的优缺点,这样用户可以根据自己的情况选择。

首先,高铁是最快的方式,时间大概4-5小时,而且舒适,还有直达的班次。但高铁需要提前预订,特别是节假日,可能要提前一到两周。高铁适合大多数用户,尤其是那些时间紧张或喜欢高铁舒适环境的人。

然后是飞机,深圳有机场,北京有首都机场和大兴机场。飞机时间大约2-3小时,但价格比较高,而且航班可能比较紧张,尤其是热门季节。如果用户喜欢 direct flight,或者时间不够,飞机是个不错的选择。

接下来是大巴,虽然时间较长,但价格便宜,而且在车上可以睡觉,体验更像旅行。但大巴的班次可能不如高铁频繁,而且在大站之间可能比较慢,适合预算有限的用户。

另外,用户可能还考虑是否需要中转。比如从深圳飞到上海,再转到北京,或者深圳到天津再到北京。这样的路线可能在价格上更有优势,但时间会更长,可能不太适合时间紧张的用户。

如果用户喜欢自驾,可以考虑从深圳到北京自驾,但需要考虑时间、路线、油费等因素,而且北京的限行政策可能需要提前了解。

还有,是否有直达的高铁?比如深圳北站到北京西站的G字头列车,这可能是一个快速的选择。如果用户对高铁比较熟悉,这样的选择会很方便。

我还需要提醒用户注意一些细节,比如高铁需要提前订票,尤其是节假日,可能会有 seat changes 的限制。飞机方面,提前预订机票,选择合适的航班,避免延误。

另外,北京的天气可能在冬季较冷,用户可能需要带保暖衣物,或者考虑是否需要提前预订住宿。

综合考虑,我应该推荐高铁作为首选,因为时间快、舒适,然后飞机作为替代,接着是大巴,最后是中转或自驾。这样用户可以根据自己的情况和预算做出选择。
', Answer: '

深圳到北京的出行方式多样,您可以根据自己的时间和预算选择最适合的方式。以下是几种主要的出行方式推荐:

### 1. **高铁**
   - **优点**:时间最短,约4-5小时,舒适,直达。
   - **缺点**:需要提前预订,节假日可能需要提前一到两周。
   - **推荐理由**:如果时间紧张且喜欢高铁的舒适性,高铁是最佳选择。

### 2. **飞机**
   - **优点**:时间较短,约2-3小时,直达。
   - **缺点**:价格较高,航班可能紧张,尤其是节假日。
   - **推荐理由**:如果您喜欢 direct flight,或者时间不够,飞机是一个不错的选择。

### 3. **大巴**
   - **优点**:价格便宜,时间较长(约8-12小时),适合预算有限的用户。
   - **缺点**:班次可能不如高铁频繁,体验可能更像旅行。
   - **推荐理由**:如果预算有限且时间允许,大巴是一个经济的选择。

### 4. **中转**
   - 深圳到北京的高铁和飞机主要班次都从北京西站或首都机场出发,您也可以选择中转,例如:
     - 深圳飞上海或天津,再转乘高铁或飞机到北京。
     - 深圳飞天津或上海,再转乘高铁到北京。
   - **优点**:价格可能更优惠,适合预算有限的用户。
   - **缺点**:时间会更长,建议提前规划。

### 5. **自驾**
   - **优点**:时间灵活,可以体验沿途风光。
   - **缺点**:需要考虑时间和路线,油费等额外费用。
   - **推荐理由**:如果喜欢自驾,可以选择从深圳出发,沿京昆高速、京沪高速等行驶到北京。

### 6. **其他方式**
   - **公共交通**:深圳有地铁、公交等,但直接到北京可能不太方便。
   - **共享出行**:如网约车服务(如滴滴出行、出租车等),方便灵活。

### 建议:
- **时间紧迫且喜欢高铁**:高铁是最佳选择。
- **喜欢 direct flight**:飞机是不错的选择。
- **预算有限**:大巴或中转是更好的选择。

希望这些信息能帮助您选择合适的出行方式!如果需要更详细的行程规划或预订建议,可以告诉我您的偏好,我会尽力帮助您。'

四、OpenAI API服务部署测试

DeepSeek-R1-Distill-Qwen 是一款高性能的蒸馏语言模型,它兼容 OpenAI API 协议,能够通过 vLLM 框架快速创建一个本地的 OpenAI API 服务器。vLLM 是一个开源的高效推理框架,专为大语言模型设计,支持多种优化技术,如 PagedAttention 算法,能够显著提升推理效率。启动的服务器默认监听 http://localhost:8000,支持以下功能:

  • Completions API:用于基本的文本生成任务,如生成文章、故事或邮件。
  • Chat Completions API:用于对话任务,如构建聊天机器人。

1、发布OpenAI API服务

部署服务器时,可以指定以下参数:
–host 和 --port:指定服务器地址和端口。
–model:指定模型路径。
–chat-template:指定聊天模板。
–served-model-name:指定服务模型的名称。
–max-model-len:指定模型的最大上下文长度。
以下是启动命令:

python -m vllm.entrypoints.openai.api_server 
  --model /root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 
  --served-model-name DeepSeek-R1-Distill-Qwen-7B 
  --max-model-len=2048

服务启动如下:

此命令将启动一个本地服务器,监听 http://localhost:8000。

2、Completions API调用

from openai import OpenAI

client = OpenAI(base_url="http://localhost:8000/v1", api_key="sk-xxx")
response = client.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    prompt="简单介绍一下deepseek?
",
    max_tokens=1024
)
print(response.choices[0].text)

在这段代码中,使用openai库创建OpenAI客户端对象,指定base_url为本地启动的vLLM服务地址http://localhost:8000/v1api_key为任意值(因为在本地测试,这里主要用于满足接口格式要求)。然后,调用client.completions.create方法,传入模型名称、提示词和最大生成token数,获取模型的推理结果,并打印生成的文本。如果在调用过程中出现错误,可能是因为服务未启动、参数设置错误等原因,需要仔细排查。

模型响应输出如下

好的,我现在要介绍一下DeepSeek。首先,我得快速浏览一下用户提供的内容,了解DeepSeek的基本信息。DeepSeek是一家专注实现AGI的中国的人工智能公司,由深度求索人工智能研究院成立,致力于AGI研究和落地。

我知道AGI指的是通用人工智能,即在智力上超越人类的人工智能系统,具有自主学习、推理、解决问题等能力。所以DeepSeek的项目目标就是实现这一点。接下来,他们的研究领域包括认知科学、计算机科学、量子计算、脑机接口和元学习,这些都是AGI研究的重要方向。

然后看了一下他们的方向,包括认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升、元学习与自适应学习。这些听起来比较广泛,涵盖了多个技术领域。技术能力方面提到了自然语言处理、计算机视觉、数值计算等,这些都是机器学习中的核心领域,特别是深度学习在这些方面的应用。

医疗、教育、 withdrawal这些应用领域,尤其是医疗和教育,都是AI应用的重要方向。医疗AI可以帮助诊断疾病,提高治疗效果;教育AI可以提供个性化学习体验,提高教育效率。

最后,他们的愿景是让用户与AI成为完美的协作伙伴,这可能意味着DeepSeek希望通过其技术帮助用户更高效地解决各种问题,提升生活质量和工作效率。

整体来看,DeepSeek是一家致力于实现AGI的公司,涉及多个技术领域,并且有明确的应用目标,这使得他们的 work likely 在AI领域有不错的影响力。如果有时间,我想深入了解它们的研究方法、取得的成果以及面临的挑战。

现在,我要检查一下是否理解正确,以及信息是否有遗漏。比如,DeepSeek的成立背景是什么?我需要确保“深度求索人工智能研究院”是其成立的背景,而非其他。此外,AGI的定义是否正确,是否有其他公司也在 chasing AGI?

另外,DeepSeek的具体技术手段是什么?是基于特定模型或算法的创新?提到的自然语言处理、计算机视觉等,这些具体如何实现AGI的目标?

在应用方面, withdraw的应用可能是指用户退出或其他功能,可能需要更正。此外,技术能力部分可能需要更详细地解释每个技术如何支持AGI。

总结来说,我需要确保在介绍中准确传达DeepSeek的核心目标、研究领域、技术能力以及应用,同时注意使用准确的专业术语,并保持逻辑清晰。
</think>

DeepSeek 是一家专注实现通用人工智能(AGI)的中国公司,由深度求索人工智能研究院成立于2023年。其目标是通过研究和实现AGI,推动人工智能技术的变革性发展。以下是DeepSeek的详细介绍:

1. **背景与目标**
   - **成立背景**:由深度求索人工智能研究院成立,致力于AGI研究和落地。
   - **核心目标**:实现AGI,即超越人类智力水平的人工智能系统,具备自主学习、推理和解决问题的能力。

2. **研究领域**
   - 涵盖认知科学、计算机科学、量子计算、脑机接口和元学习,涵盖多个关键领域,包括但不仅限于认知建模与理解、自由意志与决策、量子计算与算力提升、脑机交互与意识提升以及元学习与自适应学习。

3. **技术能力**
   - 应用于自然语言处理、计算机视觉、数值计算、元学习和强化学习等技术领域,推动新兴技术的发展,特别是深度学习在各领域的创新应用。

4. **应用领域**
   - **医疗**:通过AI提高诊断准确性和治疗效果,优化资源配置,提升医疗服务。
   - **教育**:提供个性化学习方案,提升学习体验和教育效率。
   - **其他**:DeepSeek 还探索在 withdrawals 行业的应用,如安全监控和应急响应等领域。

5. **愿景**
   - 让用户与AI成为完美的协作伙伴,提升生活质量和工作效率,实现人机完美的协作。

**补充说明**- **成立背景**:作为一家新兴的高科技公司,DeepSeek可能尚未获得广泛的关注,但其专注于AGI的研究,可能在量子计算、脑机接口等领域具备先发优势。
- **AGI挑战**:AGI的实现仍面临巨大挑战,包括技术突破、伦理问题和应用安全等,DeepSeek的进展值得持续关注。
- **技术手段**:具体的创新可能包括新型算法、硬件加速技术或跨学科的国际合作,以突破现有技术限制。

DeepSeek的成立标志着中国AI生态中的又一重要参与者,其目标不仅是技术突破,更是推动社会的整体发展。

3、Chat Completions API调用

chat_response = client.chat.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    messages=[{"role": "user", "content": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?"}]
)
print(chat_response.choices[0].message.content)

此代码用于调用Chat Completions API,通过client.chat.completions.create方法,传入模型名称和包含用户消息的列表,获取聊天模式下的推理结果,并打印模型生成的回答内容。在实际应用中,可以根据用户需求,优化提示词和消息列表,以获得更准确、更有用的回答。

模型响应输出如下

你买了总共10个苹果。

给了对方3个, yourself剩下10减去3等于7个苹果。

接着,自己又吃了1个苹果,剩下7减去1等于6个苹果。

所以,最终剩下6个苹果。
</think>

**解答:**

1. **总苹果数**:你最初有10个苹果。

2. **给对方3**( 10 - 3 = 7 )  
   你剩下7个苹果。

3. **自己吃了1**( 7 - 1 = 6 )  
   最终剩下6个苹果。

**答案:oxed{6}**

4、命令行调用OpenAI API接口

命令行调用示例如下:

curl http://localhost:8000/v1/completions 
    -H "Content-Type: application/json" 
    -d '{
        "model": "DeepSeek-R1-Distill-Qwen-7B",
        "prompt": "我买了10个苹果,给了你3个,自己吃了1个,还剩几个?
",
        "max_tokens": 1024,
        "temperature": 0
}'

执行结果如下:

五、最佳实践建议

1. 显存优化

对于配备24G显存的3090显卡,建议设置max_model_len=2048。因为模型长度与显存占用密切相关,合理设置max_model_len,可以避免因模型长度过大导致显存不足的问题,确保模型能够稳定运行。如果需要处理更长的文本,可以考虑增加显存或者优化模型结构。

2. 温度参数

在不同的任务场景下,合理调整温度参数(temperature)至关重要。对于创造性任务,如文本创作、故事生成等,建议将temperature设置为0.7 - 0.9,这样可以使生成的文本更加多样化和富有创意;对于逻辑推理任务,如数学计算、知识问答等,建议将temperature设置为0.3 - 0.5,以确保生成的文本更加准确和逻辑严谨。

总结

通过本文的详细介绍,你已经掌握了使用vLLM框架部署DeepSeek-R1-Distill-Qwen大语言模型的全流程。从vLLM框架的特性解析,到环境配置、模型部署、API接口测试,再到最佳实践建议,每一步都为你在大语言模型部署的道路上提供了坚实的指引。希望你在实际应用中,能够灵活运用这些知识,充分发挥vLLM和DeepSeek-R1-Distill-Qwen模型的优势,实现更多创新的应用。

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:我是寻道AI小兵,资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索。
📖 技术交流:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,加入技术交流群,开启编程探索之旅。
💘精心准备📚500本编程经典书籍、💎AI专业教程,以及高效AI工具。等你加入,与我们一同成长,共铸辉煌未来。
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我,让我们携手同行AI的探索之旅,一起开启智能时代的大门!

本文地址:https://www.vps345.com/977.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 deepseek Ollama 模型联网 API CherryStudio ssh 数据库 centos oracle 关系型 安全 分布式 javascript 前端 chrome edge 进程 操作系统 进程控制 Ubuntu python MCP llama 算法 opencv 自然语言处理 神经网络 语言模型 ubuntu harmonyos 华为 开发语言 typescript 计算机网络 阿里云 网络 网络安全 网络协议 android c++ c语言 笔记 C 环境变量 进程地址空间 经验分享 react.js 前端面试题 node.js 持续部署 自动化 蓝耘科技 元生代平台工作流 ComfyUI 人工智能 科技 ai java 个人开发 zotero WebDAV 同步失败 代理模式 spring php ollama llm nuxt3 vue3 银河麒麟 kylin v10 麒麟 v10 docker 实时音视频 adb nginx 监控 自动化运维 json html5 firefox gitlab numpy golang 编辑器 websocket redis live555 rtsp rtp visualstudio windows kylin 银河麒麟操作系统 国产化 容器 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 爬虫 后端 Hyper-V WinRM TrustedHosts tcp/ip flask YOLO 网络结构图 apache pytorch 深度学习 机器学习 搜索引擎 mongodb HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x DeepSeek 小程序 svn 架构 开发环境 SSL证书 c# macos Cursor vim Flask FastAPI Waitress Gunicorn uWSGI Uvicorn prometheus 直播推流 佛山戴尔服务器维修 佛山三水服务器维修 重启 排查 系统重启 日志 原因 ffmpeg 音视频 RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 YOLOv8 NPU Atlas800 A300I pro asi_bench http 联想开天P90Z装win10 matlab vscode ide github mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 ecm bpm MCP server agent C/S LLM rust AIGC AI编程 远程登录 telnet agi 计算机视觉 ansible playbook flash-attention 报错 gpu算力 华为云 物联网 IIS .net core Hosting Bundle .NET Framework vs2022 FunASR ASR web安全 pycharm 集成学习 集成测试 Reactor 设计模式 性能优化 C++ ssl mysql AI 数据集 权限 电脑 媒体 深度优先 图论 并集查找 换根法 树上倍增 向日葵 Dell R750XS ESP32 java-ee udp IIS服务器 IIS性能 日志监控 react next.js 部署 部署next.js 智能路由器 AI agent 面试 jdk intellij-idea qt 多线程服务器 TCP服务器 qt项目 qt项目实战 qt教程 bash 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP sql KingBase Docker Hub docker pull 镜像源 daemon.json Linux 宝塔面板 同步 备份 建站 安全威胁分析 uni-app 目标检测 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp sse 豆瓣 追剧助手 迅雷 nas 微信 spring boot postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 Dify LDAP tomcat maven intellij idea fpga开发 外网访问 内网穿透 端口映射 kubernetes jenkins 云原生 ci/cd conda pillow spring cloud kafka hibernate shell 游戏程序 统信 国产操作系统 虚拟机安装 android studio ftp git 学习方法 程序人生 串口服务器 孤岛惊魂4 JAVA Java MQTT 消息队列 pdf Linux网络编程 IDEA DeepSeek-R1 API接口 Headless Linux https SSL 域名 rsyslog web rabbitmq ruby 负载均衡 数据结构 学习 CUDA PyTorch GCC aarch64 编译安装 HPC idm nfs 开源 实时互动 tcpdump 嵌入式硬件 硬件工程 单片机 WSL win11 无法解析服务器的名称或地址 交叉编译 嵌入式 树莓派 VNC 远程工作 中间件 可信计算技术 安全架构 网络攻击模型 显卡驱动 eureka Trae IDE AI 原生集成开发环境 Trae AI 测试工具 1024程序员节 HarmonyOS Next 驱动开发 嵌入式实习 ecmascript nextjs reactjs 网络工程师 华为认证 Linux环境 系统安全 黑客技术 本地部署 api 服务器繁忙 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 机器人 webrtc stm32 EasyConnect yum Cline k8s open Euler dde deepin 统信UOS virtualenv arm debian LLM Web APP Streamlit 远程 命令 执行 sshpass 操作 hadoop ddos iperf3 带宽测试 网工 运维开发 虚幻 游戏引擎 ssrf 失效的访问控制 IMX317 MIPI H265 VCU 自动驾驶 openwrt ShenTong Deepseek grafana ux 多线程 数学建模 adobe elk 交互 缓存 bug springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 tcp sysctl.conf vm.nr_hugepages 群晖 文件分享 软件工程 Agent odoo 服务器动作 Server action 远程桌面 unix 能力提升 面试宝典 技术 IT信息化 环境迁移 创意 社区 eclipse 鸿蒙 鸿蒙系统 其他 Ubuntu 24.04.1 轻量级服务器 python3.11 pygame AI-native Docker Desktop 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 DevEco Studio HarmonyOS OpenHarmony 真机调试 wps 安卓 netty 策略模式 单例模式 rpc 远程过程调用 Windows环境 sentinel CPU ipython 小游戏 五子棋 flutter linux安装配置 gitee sdkman ollama下载加速 大模型 vsftpd gitea 微信公众平台 aws C语言 Socket 温湿度数据上传到服务器 Arduino HTTP microsoft 软考 黑客 计算机 jupyter wireshark linux驱动开发 arm开发 相机 Windows seatunnel DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 加解密 Yakit yaklang 多个客户端访问 IO多路复用 回显服务器 TCP相关API bootstrap html mysql离线安装 ubuntu22.04 mysql8.0 麒麟 bonding 链路聚合 压力测试 开机自启动 rag ragflow ragflow 源码启动 tailscale derp derper 中转 僵尸进程 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 智能手机 大数据 矩阵 hive Hive环境搭建 hive3环境 Hive远程模式 博客 cursor 信息与通信 windows日志 unity 数据挖掘 express Minecraft 工业4.0 防火墙 NAT转发 NAT Server stm32项目 ip wsl chrome 浏览器下载 chrome 下载安装 mac 谷歌浏览器下载 iDRAC R720xd 微服务 freebsd glibc npm 小智AI服务端 xiaozhi TTS thingsboard postgresql HiCar CarLife+ CarPlay QT RK3588 apt 国内源 iot dify springsecurity6 oauth2 授权服务器 前后端分离 tensorflow dell服务器 go css3 vue.js 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 XFS xfs文件系统损坏 I_O error es jvm file server http server web server 魔百盒刷机 移动魔百盒 机顶盒ROM 数据分析 个人博客 X11 Xming 内存 主板 电源 网卡 openEuler 毕昇JDK selenium 企业微信 Linux24.04 chatgpt 微信小程序 django Spring Security devops springboot 我的世界 我的世界联机 数码 elasticsearch rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK ruoyi 前端框架 远程连接 rdp 实验 我的世界服务器搭建 腾讯云 王者荣耀 Wi-Fi 虚拟机 职场和发展 Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 UOS 统信操作系统 .netcore oceanbase rc.local 开机自启 systemd ISO镜像作为本地源 实习 云电竞 云电脑 todesk deepseek r1 MNN Qwen 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 llama3 Chatglm 开源大模型 rclone AList webdav fnOS NAS Termux Samba 系统架构 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 pip pppoe radius 金仓数据库 2025 征文 数据库平替用金仓 hugo W5500 OLED u8g2 镜像 gaussdb 银河麒麟桌面操作系统 Kylin OS xss kind AI写作 AI作画 历史版本 下载 安装 navicat 5G 3GPP 卫星通信 思科模拟器 思科 Cisco audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 无人机 ROS Radius googlecloud ios muduo less 低代码 信号处理 银河麒麟服务器操作系统 系统激活 MacOS录屏软件 华为od OD机试真题 华为OD机试真题 服务器能耗统计 visual studio code EMQX 通信协议 程序 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 根服务器 智能音箱 智能家居 jmeter 软件测试 显示管理器 lightdm gdm fd 文件描述符 vscode 1.86 医疗APP开发 app开发 laravel vue css Kali junit XCC Lenovo 模拟器 教程 SEO 繁忙 解决办法 替代网站 汇总推荐 AI推理 漏洞 CDN SenseVoice unity3d log4j embedding sqlserver 网络穿透 云服务器 SSH Xterminal k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm IM即时通讯 QQ 剪切板对通 HTML FORMAT 反向代理 致远OA OA服务器 服务器磁盘扩容 LORA 大语言模型 NLP r语言 Docker Compose docker compose docker-compose Netty 即时通信 NIO HTTP 服务器控制 ESP32 DeepSeek can 线程池 备选 网站 调用 示例 vasp安装 查询数据库服务IP地址 SQL Server WSL2 语音识别 TRAE AutoDL 中兴光猫 换光猫 网络桥接 自己换光猫 minio HCIE 数通 VMware安装Ubuntu Ubuntu安装k8s ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS linux上传下载 健康医疗 互联网医院 filezilla 无法连接服务器 连接被服务器拒绝 331/530 单元测试 功能测试 sqlite 服务器主板 AI芯片 交换机 dubbo openssl 密码学 业界资讯 客户端 mosquitto SVN Server tortoise svn 课程设计 程序员 etl 硬件架构 kamailio sip VoIP 大数据平台 代码调试 ipdb ui 烟花代码 烟花 元旦 asm .net jar UDP的API使用 vSphere vCenter db n8n dity make Java Applet URL操作 服务器建立 Socket编程 网络文件读取 armbian u-boot webstorm ukui 麒麟kylinos openeuler rust腐蚀 wsl2 frp web3.py selete 高级IO 升级 CVE-2024-7347 需求分析 规格说明书 zabbix 安装教程 GPU环境配置 Ubuntu22 Anaconda安装 图像处理 3d Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 big data Linux的基础指令 opensearch helm 飞书 redhat web3 恒源云 抗锯齿 autodl 传统数据库升级 银行 LLMs 单一职责原则 Python 网络编程 聊天服务器 套接字 TCP 监控k8s集群 集群内prometheus IPMITOOL BMC 硬件管理 oneapi open webui IMM 鲲鹏 昇腾 npu echarts asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 iis 小艺 Pura X 移动云 云服务 excel KylinV10 麒麟操作系统 Vmware 计算机外设 iBMC UltraISO mamba Anolis nginx安装 环境安装 linux插件下载 lua 虚拟局域网 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 AI大模型 ubuntu24.04.1 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS 具身智能 强化学习 dock 加速 prompt 僵尸世界大战 游戏服务器搭建 政务 分布式系统 监控运维 Prometheus Grafana 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 IO模型 epoll EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 proxy模式 充电桩 欧标 OCPP zookeeper 服务器部署ai模型 程序员创富 音乐库 飞牛 实用教程 gpt-3 文心一言 大大通 第三代半导体 碳化硅 mcu VR手套 数据手套 动捕手套 动捕数据手套 ai工具 java-rocketmq v10 软件 ldap cuda cudnn anaconda fast 大模型应用 域名服务 DHCP 符号链接 配置 工作流 workflow GIS 遥感 WebGIS OpenSSH av1 电视盒子 h.264 实战案例 序列化反序列化 IPv4 子网掩码 公网IP 私有IP SSH 密钥生成 SSH 公钥 私钥 生成 etcd 数据安全 RBAC 流式接口 URL 人工智能生成内容 项目部署到linux服务器 项目部署过程 热榜 金融 pyqt 命名管道 客户端与服务端通信 边缘计算 网络用户购物行为分析可视化平台 大数据毕业设计 Kylin-Server 服务器安装 7z 输入法 内网环境 Kali Linux 渗透测试 信息收集 keepalived 状态管理的 UDP 服务器 Arduino RTOS 网卡的名称修改 eth0 ens33 sonoma 自动更新 xshell termius iterm2 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors cpp-httplib 压测 ECS neo4j 数据仓库 数据库开发 database 线程 拓扑图 SSE Deepseek-R1 私有化部署 推理模型 xcode QT 5.12.12 QT开发环境 Ubuntu18.04 ArcTS 登录 ArcUI GridItem arkUI 双系统 GRUB引导 Linux技巧 服务网格 istio docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos js mariadb xrdp SRS 流媒体 直播 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 chrome devtools chromedriver 毕设 技术共享 P2P HDLC 智能硬件 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 GPU uv SysBench 基准测试 项目部署 自动化测试 性能测试 合成模型 扩散模型 图像生成 NPS 雨云服务器 雨云 mybatis Ark-TS语言 崖山数据库 YashanDB hosts 视频编解码 源码剖析 rtsp实现步骤 流媒体开发 语法 NFS RAID RAID技术 磁盘 存储 dash 正则表达式 软负载 多进程 cpu 实时 使用 yolov8 midjourney 相差8小时 UTC 时间 鸿蒙开发 移动开发 远程控制 远程看看 远程协助 知识图谱 大模型教程 cmos 硬件 跨域 ros 系统 黑苹果 VMware 迁移指南 swoole 三级等保 服务器审计日志备份 FTP服务器 sequoiaDB AI Agent 字节智能运维 办公自动化 自动化生成 pdf教程 llama.cpp CentOS rnn VMware安装mocOS macOS系统安装 捆绑 链接 谷歌浏览器 youtube google gmail risc-v ESXi Dell HPE 联想 浪潮 win服务器架设 windows server 图形渲染 MDK 嵌入式开发工具 论文笔记 sublime text arcgis gcc nvidia Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 离线部署dify prometheus数据采集 prometheus数据模型 prometheus特点 Ubuntu共享文件夹 共享目录 Linux共享文件夹 Invalid Host allowedHosts g++ g++13 Cookie .net mvc断点续传 visual studio 产品经理 RAGFlow alias unalias 别名 干货分享 黑客工具 密码爆破 源码 毕业设计 c 执法记录仪 智能安全帽 smarteye 混合开发 JDK triton 模型分析 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 regedit 开机启动 线性代数 电商平台 运维监控 服务器时间 流量运营 状态模式 SSH 服务 SSH Server OpenSSH Server 服务器管理 配置教程 网站管理 ue4 着色器 ue5 seleium eNSP 企业网络规划 华为eNSP 网络规划 宕机切换 服务器宕机 剧本 pyautogui LInux webgl Vmamba 本地化部署 bot Docker springcloud transformer centos-root /dev/mapper yum clean all df -h / du -sh VS Code leetcode 推荐算法 考研 Linux find grep onlyoffice 在线office 京东云 DOIT 四博智联 代理 Linux PID Unity Dedicated Server Host Client 无头主机 基础入门 编程 lio-sam SLAM 网站搭建 serv00 端口测试 H3C cd 目录切换 私有化 微信开放平台 微信公众号配置 okhttp PVE hexo 系统开发 binder 车载系统 framework 源码环境 玩机技巧 软件分享 软件图标 常用命令 文本命令 目录命令 AD 域管理 MySql 磁盘监控 服务器配置 Node-Red 编程工具 流编程 CentOS Stream Unity插件 iventoy VmWare OpenEuler YOLOv12 x64 SIGSEGV xmm0 minecraft TrueLicense USB转串口 CH340 firewalld 飞牛NAS 飞牛OS MacBook Pro harmonyOS面试题 Open WebUI cnn 生物信息学 邮件APP 免费软件 软件需求 Ubuntu Server Ubuntu 22.04.5 xpath定位元素 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 蓝桥杯 bat 端口 查看 ss 超融合 DNS crosstool-ng micropython esp32 mqtt UDP langchain deep learning docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 影刀 #影刀RPA# linux 命令 sed 命令 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 半虚拟化 硬件虚拟化 Hypervisor IPMI 带外管理 设备 PCI-Express Redis Desktop 田俊楠 自动化任务管理 jetty undertow easyui grub 版本升级 扩容 rpa 链表 游戏开发 pgpool Erlang OTP gen_server 热代码交换 事务语义 figma iftop 网络流量监控 大模型推理 大模型学习 ABAP yum源切换 更换国内yum源 make命令 makefile文件 粘包问题 音乐服务器 Navidrome 音流 ping++ outlook minicom 串口调试工具 iphone 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 存储维护 NetApp存储 EMC存储 matplotlib rustdesk chfs ubuntu 16.04 SWAT 配置文件 服务管理 网络共享 GoogLeNet dns是什么 如何设置电脑dns dns应该如何设置 vr DeepSeek行业应用 Heroku 网站部署 测试用例 数据可视化 分布式训练 聊天室 safari Mac ocr docker命令大全 文件系统 路径解析 docker run 数据卷挂载 交互模式 李心怡 Attention Linux的权限 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 算力 技能大赛 docker部署Python RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 Python基础 Python教程 Python技巧 西门子PLC 通讯 HAProxy 串口驱动 CH341 uart 485 edge浏览器 知识库 本地知识库部署 DeepSeek R1 模型 物联网开发 ip命令 新增网卡 新增IP 启动网卡 clickhouse 北亚数据恢复 oracle数据恢复 Claude dba VLAN 企业网络 大模型面经 阻塞队列 生产者消费者模型 服务器崩坏原因 AnythingLLM AnythingLLM安装 linux环境变量 软链接 硬链接 list 模拟实现 直流充电桩 WebUI DeepSeek V3 bcompare Beyond Compare PX4 环境配置 p2p CrewAI wsgiref Web 服务器网关接口 Qwen2.5-coder 离线部署 Nuxt.js 基础环境 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 skynet cocoapods ubuntu20.04 开机黑屏 threejs 3D 裸金属服务器 弹性裸金属服务器 DenseNet EMUI 回退 降级 AD域 gnu 阿里云ECS ardunio BLE CORS 游戏机 kali 共享文件夹 沙盒 dns word 嵌入式Linux IPC 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 多路转接 Xinference ubuntu24 vivado24 USB网络共享 Playwright 大模型微调 ssh远程登录 虚幻引擎 nac 802.1 portal DocFlow 图形化界面 gpt ssh漏洞 ssh9.9p2 CVE-2025-23419 wpf Google pay Apple pay k8s集群资源管理 云原生开发 MS Materials trea idea gateway Clion Nova ResharperC++引擎 Centos7 远程开发 灵办AI 模拟退火算法 vmware 卡死 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 自动化编程 code-server word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 浏览器开发 AI浏览器 华为机试 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 数据库系统 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 AISphereButler yaml Ultralytics 可视化 元服务 应用上架 ros2 moveit 机器人运动 ceph 银河麒麟高级服务器 外接硬盘 Kylin Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 换源 Debian flink AI代码编辑器 信息可视化 网页设计 框架搭建 trae 视觉检测 rocketmq VMware创建虚拟机 做raid 装系统 大模型入门 remote-ssh tidb GLIBC 深度求索 私域 嵌入式系统开发 searxng 网络药理学 生信 PPI String Cytoscape CytoHubba RustDesk自建服务器 rustdesk服务器 docker rustdesk Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 perf 代理服务器 信创 信创终端 中科方德 rime 腾讯云大模型知识引擎 多层架构 解耦 火绒安全 VPS DBeaver kerberos 搭建个人相关服务器 内网服务器 内网代理 内网通信 sqlite3 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 Windsurf deekseek jina 匿名管道 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 产测工具框架 IMX6ULL 管理框架 软件定义数据中心 sddc RTMP 应用层 分析解读 firewall openstack Xen 微信分享 Image wxopensdk WebRTC uniapp TCP协议 camera Arduino 电子信息 composer vscode1.86 1.86版本 ssh远程连接 gradle milvus 远程服务 架构与原理 conda配置 conda镜像源 C# MQTTS 双向认证 emqx opcua opcda KEPServer安装 风扇控制软件 Logstash 日志采集 信号 nlp 开发 大模型部署 宠物 免费学习 宠物领养 宠物平台 VSCode token sas FTP 服务器 性能分析 spark HistoryServer Spark YARN jobhistory Typore MacMini 迷你主机 mini Apple