最新资讯

  • 手把手教你在Windows+docker本地部署DeepSeek-R1

手把手教你在Windows+docker本地部署DeepSeek-R1

2025-04-29 17:37:22 0 阅读

摘要:本文详细介绍了在 Windows 系统上通过 Docker 部署 DeepSeek-R1 模型的完整过程。DeepSeek-R1 是一款由 DeepSeek 公司于 2025 年 1 月 20 日发布的开源推理大模型,具有出色的性能和广泛的应用场景。文章从部署前的准备工作开始,包括硬件和软件要求,详细阐述了 Docker 环境的搭建、基于 Ollama 和 Docker 的部署方式,以及部署后的测试与验证。此外,文章还提供了常见问题的解决方法和相关代码示例,帮助读者更好地理解和应用 DeepSeek-R1 模型。

一、DeepSeek-R1 简介

DeepSeek-R1 是一款由量化巨头幻方量化旗下大模型公司 DeepSeek 在 2025 年 1 月 20 日发布的推理大模型,它凭借着独特的技术和出色的性能,在人工智能领域中脱颖而出。该模型采用 MIT 许可协议,意味着它完全开源,支持免费商用、任意修改和衍生开发,这极大地降低了开发者的使用门槛,促进了 AI 技术的共享与创新,也让更多人能够基于它进行个性化的开发和应用。

在技术创新上,DeepSeek-R1 的最大亮点在于其训练方法。DeepSeek-R1-Zero 是首个完全通过强化学习(RL)训练的大型语言模型,无需依赖监督微调(SFT)或人工标注数据 。这一突破验证了仅通过奖励信号,模型也能发展出强大的推理能力。在 AIME 2024 数学测试中,其准确率从 15.6% 提升至 71.0%,使用多数投票机制后达到了 86.7%,接近 OpenAI o1-0912 的水平。为了进一步提升模型性能,DeepSeek-R1 引入了冷启动数据,结合强化学习进行训练,解决了 R1-Zero 在可读性和语言混合方面的局限性,显著提升了模型的推理能力。

在性能表现上,DeepSeek-R1 在多个基准测试中展现出了卓越的实力。在 AIME 2024 测试中,DeepSeek-R1 取得了 79.8% 的成绩,略高于 OpenAI o1 的 79.2%;在 MATH-500 测试中,DeepSeek-R1 的成绩为 97.3%,OpenAI o1 为 96.4%;在 Codeforces 评分中,DeepSeek-R1 达到 2029 分,OpenAI o1 为 2061 分;在 MMLU 测试中,DeepSeek-R1 获得了 90.8% 的成绩,OpenAI o1 则是 91.8% 。这些数据表明,DeepSeek-R1 在数学、编程和推理等多个任务上达到了与 OpenAI o1 相当的表现水平。

DeepSeek-R1 的应用场景也十分广泛,在数学与逻辑推理领域,它能够高效解决复杂数学问题,可应用于教育、科研等场景,帮助学生更好地理解数学知识,辅助科研人员进行复杂的计算和推理;在代码生成与优化方面,它表现出色,能够生成高质量代码,优化现有代码库,提高软件开发的效率和质量,为程序员提供强大的编程辅助工具;在科学研究与问答场景中,模型在科学问题解答和假设生成方面展现了强大的能力,为研究人员提供了有力支持,加速科研进展。

而将 DeepSeek-R1 进行本地部署具有重要意义。本地部署可以带来更低的延迟,当我们在使用模型进行交互时,能够更快地得到响应,无需等待网络传输和云端处理的时间,大大提高了使用效率;同时,本地部署能提供更高的隐私性,对于一些涉及敏感信息的应用场景,数据无需上传到云端,避免了数据泄露的风险;此外,本地部署还能让我们对 AI 应用拥有更大的控制权,可以根据自身需求对模型进行定制化配置和优化,满足不同的业务需求 。

二、部署前的准备工作

2.1 硬件要求

在硬件方面,运行 DeepSeek-R1 对设备有一定要求。不同版本的模型对硬件的需求有所差异,以常见的 7B 版本为例,推荐使用至少 8 核心的 CPU,如 Intel Core i7 或 AMD Ryzen 7 系列处理器,主频越高越好,这样在处理复杂任务时能更加高效。内存方面,建议配备 16GB 及以上的内存,以确保模型在运行过程中能够流畅地加载和处理数据。如果同时运行多个任务或者处理大规模数据,更大的内存会显著提升运行效率 。

以下是DeepSeek-R1不同模型版本的电脑配置要求整理成的表格:

模型版本参数量CPU内存硬盘显卡适用场景
DeepSeek-R1-1.5B1.5B4核及以上8GB+3GB+非必需(若有4GB+显存更佳)轻量级任务,如短文本生成、基础问答等
DeepSeek-R1-7B7B8核及以上16GB+8GB+推荐8GB+显存(如RTX 3070/4060)中等复杂度任务,如文案撰写、表格处理等
DeepSeek-R1-8B8B8核及以上16GB+8GB+推荐8GB+显存(如RTX 3070/4060)需更高精度的轻量级任务,如代码生成等
DeepSeek-R1-14B14B12核及以上32GB+15GB+16GB+显存(如RTX 4090或A5000)企业级复杂任务,如合同分析、报告生成等
DeepSeek-R1-32B32B16核及以上64GB+30GB+24GB+显存(如A100 40GB或双卡RTX 3090)高精度专业领域任务,如医疗/法律咨询等
DeepSeek-R1-70B70B16核及以上64GB+60GB+48GB+显存(如A100 80GB*4)顶级规模模型,适用于前沿研究和超高性能需求

请注意,以上配置是根据模型的参数量和一般硬件需求推测的,实际部署时可能需要根据具体情况进行调整。

对于显卡,若想利用 GPU 加速提升模型的运行速度,推荐使用 NVIDIA 的 RTX 系列显卡,显存不低于 8GB,例如 RTX 3060 及以上型号。NVIDIA 显卡在深度学习任务中表现出色,能够大幅缩短模型的推理时间,提供更流畅的使用体验。而对于硬盘,至少需要预留 50GB 的可用空间,用于存储模型文件、数据以及相关的依赖库。随着数据量的增加和模型的更新,建议预留更大的硬盘空间,以便未来扩展使用 。

如果是更高参数规模的模型,如 14B、32B 版本,对硬件的要求会相应提高。14B 版本模型可能需要 12 核心以上的 CPU、32GB 及以上的内存和 16GB 显存的显卡;32B 版本模型则可能需要 16 核心以上的 CPU、64GB 及以上的内存以及 24GB 显存的高端显卡 。因此,在选择部署的模型版本时,需要根据自身硬件配置进行合理评估,以确保模型能够在设备上稳定运行。

2.2 软件要求

软件方面,首先需要安装 Windows 系统,建议使用 Windows 10 及以上版本,以确保系统的兼容性和稳定性。Windows 系统作为广泛使用的操作系统,拥有丰富的软件资源和良好的用户界面,为 DeepSeek-R1 的部署和使用提供了便利的环境 。其次,Docker 是必不可少的软件。Docker 是一个开源的应用容器引擎,它可以将应用程序及其依赖项打包成一个可移植的容器,使得应用在不同的环境中能够稳定运行。在 Windows 上安装 Docker,可以通过官方网站(https://docs.docker.com/desktop/windows/install/)下载 Docker Desktop 安装包。下载完成后,双击安装包,按照安装向导的提示进行安装。在安装过程中,可能需要启用 Hyper-V 功能,对于 Windows 10 专业版,可以通过 “控制面板 - 程序和功能 - 启用或关闭 Windows 功能”,勾选 Hyper-V 来启用;对于 Windows 10 家庭版,需要通过特殊操作来添加,可在 cmd 命令行中输入 “systeminfo” 查看系统是否支持 Hyper-V 功能,若支持,可通过新建文本文档,复制相关代码并将后缀改为.cmd,以管理员身份运行该文件,重启后即可启用 Hyper-V。安装完成后,启动 Docker,在 cmd 命令行中输入 “docker version”,若能显示出版本信息,则说明安装成功 。另外,Ollama 也是部署 DeepSeek-R1 的重要工具。Ollama 是一个运行大模型的工具,类似于 Docker,它可以方便地下载和运行大模型。可以在 Ollama 官网(Ollama)下载适合 Windows 系统的安装包。下载完成后,正常安装即可。安装完成后,可以在命令行中输入 “ollama -v” 验证是否安装成功。为了方便管理模型文件,还可以配置环境变量,打开 windows 设置,依次点击 “系统 - 系统信息 - 高级系统设置 - 环境变量”,在系统变量中新建一个名为 “OLLAMA_MODELS” 的变量,变量值设置为希望存储模型文件的目录 。

三、Docker 环境搭建

3.1 安装 Docker Desktop

 推荐查看我之前写的Windows10安装Docker Desktop精选文章,里面安装写得很详细,如下:Windows10安装Docker Desktop(大妈看了都会)https://xiaoxiang113.blog.csdn.net/article/details/137970794https://xiaoxiang113.blog.csdn.net/article/details/137970794

在 Windows 系统上安装 Docker Desktop,首先需要访问 Docker 官方网站(https://www.docker.com/products/docker-desktop),在页面中找到适合 Windows 系统的下载链接,点击下载 Docker Desktop 安装程序。下载完成后,双击运行安装程序,安装向导会引导你完成后续安装步骤。

在安装过程中,会出现欢迎界面,点击 “OK” 继续。接着,需要接受许可协议,然后点击 “Install” 开始安装。安装过程可能需要一些时间,请耐心等待。安装完成后,系统会提示重新启动计算机,点击 “Close and restart” 完成重启。这一步非常重要,重启计算机可以启用必要的功能,确保 Docker Desktop 能够正常运行 。

重启计算机后,Docker Desktop 应该会自动启动。如果没有自动启动,可以在 “开始” 菜单中找到 Docker Desktop 并手动启动它。启动后,会看到 Docker 的欢迎界面,此时 Docker Desktop 正在自动配置环境,完成后会在系统托盘中显示 Docker 图标 。

3.2 配置 Docker

安装完成 Docker Desktop 后,为了加快镜像的下载速度,我们需要配置镜像源。国内有许多优质的镜像源可供选择,如阿里云、腾讯云等。以阿里云为例,首先使用淘宝或支付宝账号登录阿里云官网,在控制台中找到 “容器镜像服务”,点击进入后找到 “镜像加速器” 选项,即可获取专属的镜像加速器地址 。

接下来,打开 Docker Desktop 的设置。在系统右下角的托盘图标中,右键单击 Docker 图标,选择 “Settings”。在弹出的设置窗口中,左侧导航栏选择 “Docker Engine”,在右侧的编辑窗口中,找到 “registry-mirrors” 字段,将获取到的阿里云镜像加速器地址添加进去,例如:

{

"registry-mirrors": ["https://xxxx.mirror.aliyuncs.com"]

}

修改完成后,点击 “Apply & Restart” 按钮,Docker 会自动重启并应用新的配置。这样,在后续拉取镜像时,就会从配置的镜像源下载,大大提高下载速度 。

配置完成后,可以通过命令行来验证镜像源是否配置成功。打开命令提示符或 PowerShell,输入 “docker info” 命令,在输出信息中查找 “Registry Mirrors” 字段,如果显示的是刚刚配置的镜像源地址,就说明配置成功了 。

四、方式1-基于 Ollama 部署

4.1 下载与安装 Ollama

在部署 DeepSeek-R1 模型时,Ollama 是一个非常实用的工具,它可以帮助我们轻松地在本地运行和管理大语言模型。首先,我们需要在 Windows 系统上下载和安装 Ollama。

访问 Ollama 官方下载网站(https://ollama.com/download),在网站上找到适用于 Windows 系统的下载链接,点击下载安装包。下载完成后,找到下载的安装包文件,通常是一个.exe 后缀的文件,双击运行安装程序。

在安装向导中,按照提示逐步进行操作。一般会出现欢迎界面,点击 “Next” 继续;然后阅读许可协议,勾选 “I accept the agreement” 接受协议,再点击 “Next”;接着选择安装路径,默认情况下会安装到系统盘(通常是 C 盘),如果想要更改安装路径,可以点击 “Browse” 选择其他磁盘和目录,设置好路径后点击 “Install” 开始安装。安装过程可能需要一些时间,请耐心等待,安装完成后点击 “Finish” 完成安装 。

安装完成后,需要验证 Ollama 是否安装成功。打开命令提示符(CMD)或 PowerShell,在命令行中输入 “ollama -v”,如果安装成功,会显示 Ollama 的版本信息,例如 “ollama version 0.5.7” 。这表明 Ollama 已经成功安装在你的系统中,可以开始使用它来下载和管理大模型了。

4.2 使用 Ollama 下载 DeepSeek-R1 模型

安装好 Ollama 后,就可以使用它来下载 DeepSeek-R1 模型了。Ollama 提供了简洁的命令行接口,让模型下载变得非常方便。

DeepSeek-R1 模型有多个版本可供选择,不同版本的模型参数规模和性能有所差异,你可以根据自己的硬件配置来选择合适的版本。例如,如果你使用的是配置较低的设备,如只有普通 CPU 且内存较小,可以选择下载参数规模较小的版本,像 1.5B 版本,它对硬件要求较低,在 CPU 上也能相对流畅地运行;如果你拥有高性能的 GPU 和较大的内存,那么可以选择下载参数规模更大的版本,如 7B、14B、32B 甚至 70B 版本,以获得更好的模型性能 。

在命令行中,使用以下命令来下载 DeepSeek-R1 模型:

# 下载1.5B版本

ollama run deepseek-r1:1.5b

# 下载7B版本(默认指令,若不指定版本,会下载此版本)

ollama run deepseek-r1

# 下载8B版本

ollama run deepseek-r1:8b

# 下载14B版本

ollama run deepseek-r1:14b

# 下载32B版本

ollama run deepseek-r1:32b

# 下载70B版本

ollama run deepseek-r1:70b

当你执行上述命令时,Ollama 会首先检查本地是否已经存在该版本的模型,如果不存在,它会自动从远程仓库下载模型文件。模型的下载速度取决于你的网络状况,可能需要几分钟到几十分钟不等,请耐心等待下载完成 。

模型下载完成后,默认会存储在 Ollama 的模型存储目录中。如果你在安装 Ollama 后配置了环境变量 “OLLAMA_MODELS”,那么模型会存储在你指定的目录中;如果没有配置环境变量,模型会存储在默认的安装目录下,例如 “C:Users 你的用户名.ollamamodels” 。你可以通过 “ollama list” 命令来查看本地已经下载的模型列表,包括模型名称、ID、大小和修改时间等信息,确认 DeepSeek-R1 模型是否已经成功下载到本地 。本人电脑路径,仅供参考:C:UsersAdministrator.ollamamodels

4.3 与DeepSeek-R1对话

第一次对话可能有缓存,关掉对话框,重新打开PowerShell对话就正常了,如下所示:

对话测试1:

我失业了,没有存款,有老人要赡养和孩子养育,每月有5000的房贷和3000的房租,还有日常花销,我该怎么力?

 对话测试2:

介绍一下广州

五、方式2-基于 Docker 的部署

5.1 拉取相关镜像(可选)

在基于 Docker 部署 DeepSeek-R1 时,若有官方或其他可靠来源提供的 Docker 镜像【目前作者试了还docker官方还没有,预计一段时间后会上映,docker pull deepseek-r1:latest】,拉取镜像这一步就十分关键。拉取镜像能快速获取预配置好的运行环境,大大简化部署流程。

打开命令提示符或 PowerShell,输入以下命令拉取 DeepSeek-R1 的 Docker 镜像。假设镜像名称为deepseek-r1:latest,其中latest表示最新版本标签,也可指定具体版本号,如deepseek-r1:v1.0:

docker pull deepseek-r1:latest

执行该命令后,Docker 会从镜像仓库中查找并下载指定的 DeepSeek-R1 镜像。下载过程中,能看到下载进度条,显示已下载的镜像层和剩余下载量。下载速度取决于网络状况,若网络稳定且带宽充足,下载会较快完成;若网络不稳定,可能需要耐心等待。

拉取镜像前,可先使用docker images命令查看本地已有的镜像列表,确认是否已存在 DeepSeek-R1 镜像,避免重复下载 。

 

5.2 创建并运行容器

拉取镜像后,需创建并运行 Docker 容器,让 DeepSeek-R1 模型在容器中运行。创建容器时,要设置多个重要参数,以确保模型正常运行且便于与外部交互。

使用以下命令创建并运行 DeepSeek-R1 容器:

docker run -d -p 8080:8080 -v /path/to/local/data:/app/data --name deepseek-r1-container deepseek-r1:latest
  • -d:表示以后台模式运行容器,即容器在后台运行,不会占用当前命令行终端,可继续执行其他命令 。
  • -p 8080:8080:将容器内的 8080 端口映射到宿主机的 8080 端口。这样,通过访问宿主机的 8080 端口,就能访问容器内运行的 DeepSeek-R1 服务。若宿主机 8080 端口已被占用,可修改为其他未被占用的端口,如-p 8081:8080,将容器内 8080 端口映射到宿主机 8081 端口 。
  • -v /path/to/local/data:/app/data:将宿主机的/path/to/local/data目录挂载到容器内的/app/data目录。这允许容器访问宿主机上的指定目录,方便数据共享和持久化存储。例如,若要将本地的模型文件存储在/home/user/deepseek-r1-data目录,可设置为-v /home/user/deepseek-r1-data:/app/data。确保宿主机上的/path/to/local/data目录存在且有正确的读写权限,否则容器可能无法正常访问 。
  • --name deepseek-r1-container:为容器指定名称deepseek-r1-container,方便后续管理和操作容器,如使用docker stop deepseek-r1-container停止容器,docker start deepseek-r1-container启动容器 。
  • deepseek-r1:latest:指定要运行的 Docker 镜像,这里使用拉取的deepseek-r1:latest镜像 。

容器创建并运行后,可通过docker ps命令查看正在运行的容器列表,确认 DeepSeek-R1 容器是否成功启动。若容器启动失败,可使用docker logs deepseek-r1-container命令查看容器日志,了解错误原因并进行排查 。

5.3 官方推荐Sglang部署

因为上面官方Docker里面还没有镜像,本人推荐使用DeepSeek官方推荐的sglang部署,有5种方式,下面我我使用docker compose方式:

Install SGLang — SGLang

services:
  sglang:
    image: lmsysorg/sglang:latest
    container_name: sglang
    volumes:
      - ${HOME}/.cache/huggingface:/root/.cache/huggingface
      # If you use modelscope, you need mount this directory
      # - ${HOME}/.cache/modelscope:/root/.cache/modelscope
    restart: always
    network_mode: host # required by RDMA
    privileged: true # required by RDMA
    # Or you can only publish port 30000
    # ports:
    #   - 30000:30000
    environment:
      HF_TOKEN: 
      # if you use modelscope to download model, you need set this environment
      # - SGLANG_USE_MODELSCOPE: true
    entrypoint: python3 -m sglang.launch_server
    command: --model-path meta-llama/Llama-3.1-8B-Instruct
      --host 0.0.0.0
      --port 30000
    ulimits:
      memlock: -1
      stack: 67108864
    ipc: host
    healthcheck:
      test: ["CMD-SHELL", "curl -f http://localhost:30000/health || exit 1"]
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              device_ids: ["0"]
              capabilities: [gpu]

将 compose.yml 复制到本地计算机
在终端中执行命令。docker compose up -d

六、部署后的测试与验证

6.1 启动服务

完成上述部署步骤后,即可启动 DeepSeek-R1 服务。若通过 Docker 部署,且容器已成功创建并运行,可通过以下命令确保容器正在运行:

docker ps

在输出结果中,应能看到名为deepseek-r1-container(若在创建容器时指定了该名称)的容器,其状态为 “Up”,表明容器正在运行,DeepSeek-R1 服务也在正常运行中 。

若使用 Ollama 部署,可在命令行中输入以下命令启动 Ollama 服务(若服务未自动启动):

ollama serve

该命令会启动 Ollama 服务,使其监听默认端口(通常为 11434),以便与 DeepSeek-R1 模型进行交互 。

6.2 测试模型

测试 DeepSeek-R1 模型的方法有多种,这里介绍通过命令行和 Web 界面两种方式进行测试。

命令行测试

若使用 Ollama 部署,可在命令行中直接与模型进行交互。在命令行中输入以下命令,即可进入与 DeepSeek-R1 模型的交互界面:

ollama run deepseek-r1

若下载的是特定版本的模型,如deepseek-r1:7b,则使用对应的命令:

ollama run deepseek-r1:7b

进入交互界面后,会看到命令行提示符发生变化,此时可输入问题或任务让模型处理。例如,输入 “请介绍一下 Python 语言的特点”,模型会进行分析和处理,并返回相应的回答 。模型处理过程中,可能会显示一些中间信息,如思考过程等,最终会输出完整的回答内容。回答完成后,可继续输入新的问题,持续与模型进行交互 。

Web 界面测试

为了通过 Web 界面与 DeepSeek-R1 模型进行交互,可使用一些支持 Ollama 模型的 WebUI 工具,如 Open WebUI。首先,需要按照相应的部署指南部署 Open WebUI。以 Docker 部署为例,使用以下命令启动 Open WebUI 容器:

docker run -d -p 3006:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

上述命令中,-p 3006:8080将容器内的 8080 端口映射到宿主机的 3006 端口,通过浏览器访问http://localhost:3006即可打开 Open WebUI 界面 。首次访问时,可能需要创建管理员账号,按照提示完成注册。

登录 Open WebUI 后,在界面中找到模型配置相关的选项,选择 “Ollama 兼容” 模型类型,并配置模型名称为deepseek-r1(若为特定版本,如deepseek-r1:7b,则填写对应的名称),API 地址为http://host.docker.internal:11434(若 Ollama 与 Open WebUI 在同一宿主机上部署) 。配置完成后,点击 “验证连接”,确保模型连接正常。

 

连接成功后,即可在 Web 界面的输入框中输入问题或任务,如 “介绍一下广州塔”,点击发送按钮,模型会在后台处理请求,并在界面中返回回答结果 。Web 界面通常还提供了更多的交互功能,如查看历史对话记录、调整模型参数(如温度、最大生成长度等),方便用户更好地使用模型 。

七、常见问题及解决方法

在部署 DeepSeek-R1 的过程中,可能会遇到各种问题,以下是一些常见问题及解决方法。

7.1 网络问题

  • 问题描述:在使用 Ollama 下载模型或通过 Docker 拉取镜像时,可能会因为网络不稳定或速度过慢导致下载失败,出现超时错误或下载中断的情况 。
  • 解决方法:检查网络连接是否正常,可以尝试访问其他网站或下载其他文件来确认。如果网络连接正常,但下载速度较慢,可以更换网络环境,如从移动网络切换到 Wi-Fi 网络;或者使用代理服务器,在命令行中设置代理环境变量,例如在 Windows 系统的命令提示符中,使用命令set HTTP_PROXY=http://your_proxy:port和set HTTPS_PROXY=https://your_proxy:port(将your_proxy:port替换为实际的代理地址和端口) 。此外,还可以在 Docker 的配置中添加代理设置,在 Docker Desktop 的设置中,找到 “Proxies” 选项,填写代理服务器信息,然后重启 Docker 使设置生效 。

7.2 依赖冲突

  • 问题描述:如果系统中已经安装了与 DeepSeek-R1 部署相关的依赖库,且版本不兼容,可能会导致部署失败。例如,已经安装的 Python 库版本与 Ollama 或 Docker 依赖的库版本冲突,可能会出现模块导入错误或运行时错误 。
  • 解决方法:使用虚拟环境来隔离不同项目的依赖。对于 Python 项目,可以使用venv或conda创建虚拟环境。以venv为例,在命令行中输入python -m venv deepseek-env创建名为deepseek-env的虚拟环境,然后使用deepseek-envScriptsctivate(Windows 系统)或source deepseek-env/bin/activate(Linux 和 macOS 系统)激活虚拟环境,在虚拟环境中安装所需的依赖,这样可以避免与系统全局环境中的依赖冲突 。如果已经出现依赖冲突问题,可以通过pip list命令查看已安装的库及其版本,使用pip uninstall卸载冲突的库,然后重新安装指定版本的库,或者参考项目的官方文档,查看推荐的依赖版本并进行相应调整 。

7.3 硬件资源不足

  • 问题描述:运行 DeepSeek-R1 模型对硬件资源有一定要求,如果硬件配置较低,可能会出现运行缓慢、内存不足甚至无法启动的问题。例如,在使用较低配置的 CPU 和内存时,模型推理速度会明显变慢;当模型所需的显存超过显卡的实际显存时,会出现显存不足的错误 。
  • 解决方法:对于内存不足的问题,可以关闭其他不必要的程序,释放系统内存。如果是运行较大参数规模的模型,如 32B、70B 版本,而硬件配置无法满足要求,可以考虑更换更高配置的硬件,如增加内存容量、升级显卡等 。另外,也可以选择下载和运行参数规模较小的模型版本,如 1.5B、7B 版本,这些版本对硬件要求相对较低,在配置较低的设备上也能较好地运行 。在运行模型时,可以使用系统监控工具,如 Windows 系统的任务管理器或 Linux 系统的top命令,实时监控硬件资源的使用情况,以便及时发现和解决资源不足的问题 。

7.4 Docker 容器启动失败

  • 问题描述:在创建和运行 Docker 容器时,可能会因为各种原因导致容器启动失败,如端口冲突、挂载目录错误等。例如,指定的端口已经被其他程序占用,会导致端口映射失败,容器无法正常启动;挂载目录不存在或权限不足,会导致容器内无法访问宿主机的指定目录 。
  • 解决方法:如果是端口冲突问题,可以使用netstat -ano命令(Windows 系统)或lsof -i :端口号命令(Linux 和 macOS 系统)查看指定端口的占用情况,找到占用端口的程序并关闭它,或者修改 Docker 容器的端口映射,将容器内的端口映射到其他未被占用的端口 。对于挂载目录错误,首先确保宿主机上的挂载目录存在,可以使用mkdir命令创建目录;然后检查目录的权限,确保运行 Docker 的用户对该目录有读写权限,必要时可以使用chmod命令修改目录权限 。此外,还可以通过docker logs 容器名称命令查看容器的日志,获取详细的错误信息,以便更准确地定位和解决问题 。

 八、DeepSeek相关的代码示例

8.1Python SDK调用示例

配置API,进行基础对话和推理模型示例调用。

import openai

# 配置API
openai.api_key = "YOUR_API_KEY"
openai.api_base = "https://api.deepseek.com/v1"

# 基础对话示例
def basic_chat():
    try:
        response = openai.ChatCompletion.create(
            model="deepseek-chat",
            messages=[
                {"role": "user", "content": "你好,请介绍一下你自己"}
            ]
        )
        print(response.choices[0].message.content)
    except Exception as e:
        print(f"Error: {e}")

# 推理模型示例
def reasoning_chat():
    try:
        response = openai.ChatCompletion.create(
            model="deepseek-reasoner",
            messages=[
                {"role": "user", "content": "请解决这个问题:一个小球从10米高度自由落下,每次弹起高度为原高度的一半,问第三次落地时共经过多少米?"}
            ]
        )
        print(response.choices[0].message.content)
    except Exception as e:
        print(f"Error: {e}")

if __name__ == "__main__":
    basic_chat()
    reasoning_chat()

8.2使用DeepSeek R1和Ollama开发RAG系统

利用PDFPlumberLoader提取PDF文本,SemanticChunker进行文档语义分块,HuggingFaceEmbeddings生成文本嵌入,FAISS构建向量数据库,Ollama配置DeepSeek R1模型,以及PromptTemplate定义提示模板,组装RAG处理链。

import streamlit as st
from langchain_community.document_loaders import PDFPlumberLoader
from langchain_experimental.text_splitter import SemanticChunker
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.vectorstores import FAISS
from langchain_community.llms import Ollama

# 创建Streamlit文件上传组件
uploaded_file = st.file_uploader("上传PDF文件", type="pdf")
if uploaded_file:
    # 临时存储PDF文件
    with open("temp.pdf", "wb") as f:
        f.write(uploaded_file.getvalue())
    # 加载PDF内容
    loader = PDFPlumberLoader("temp.pdf")
    docs = loader.load()

# 初始化语义分块器
text_splitter = SemanticChunker(
    HuggingFaceEmbeddings(model_name="all-MiniLM-L6-v2")
)
# 执行分块操作
documents = text_splitter.split_documents(docs)

# 生成文本嵌入
embeddings = HuggingFaceEmbeddings()
vector_store = FAISS.from_documents(documents, embeddings)
# 配置检索器
retriever = vector_store.as_retriever(search_kwargs={"k": 3})

# 初始化本地模型
llm = Ollama(model="deepseek-r1:1.5b")
# 定义提示模板
prompt_template = """
根据以下上下文:
{context}
问题:{question}
回答要求:
1. 仅使用给定上下文
2. 不确定时回答"暂不了解"
3. 答案控制在四句话内
最终答案:
"""
QA_PROMPT = PromptTemplate.from_template(prompt_template)

# 创建LLM处理链
llm_chain = LLMChain(llm=llm, prompt=QA_PROMPT)
# 配置文档组合模板
document_prompt = PromptTemplate(
    template="上下文内容:
{page_content}
来源:{source}",
    input_variables=["page_content", "source"]
)
# 构建完整RAG管道
qa = RetrievalQA(
    combine_documents_chain=StuffDocumentsChain(
        llm_chain=llm_chain,
        document_prompt=document_prompt
    ),
    retriever=retriever
)

# 创建问题输入框
user_question = st.text_input("输入您的问题:")
if user_question:
    with st.spinner("正在生成答案..."):
        # 执行查询并显示结果
        response = qa(user_question)["result"]
        st.success(response)

这些代码示例可以帮助您更好地理解和使用DeepSeek,实现各种应用场景。

8.3 DeepSeek-R1 API来生成文章的大纲

如果您需要使用DeepSeek-R1来撰写文章,可以参考以下代码示例,它展示了如何调用DeepSeek-R1 API来生成文章的大纲,包括引言、主体部分和结论。您可以根据这个大纲来撰写文章的结尾部分,确保它与文章的主要内容和观点相呼应。

import requests

# 填写你的 API Key
API_KEY = "sk-你的密钥"
url = "https://api.deepseek.com/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
data = {
    "model": "deepseek-reasoner",  # 指定使用 R1 模型(deepseek-reasoner)
    "messages": [
        {"role": "system", "content": "你是一个专业的助手"},
        {"role": "user", "content": "请帮我生成“中国农业情况”这篇文章的大纲"}
    ],
    "stream": False  # 关闭流式传输
}
response = requests.post(url, headers=headers, json=data)
if response.status_code == 200:
    result = response.json()
    print(result['choices'][0]['message']['content'])  # 输出大纲内容
else:
    print("请求失败,错误码:", response.status_code)

请注意,上述代码需要您替换API_KEY为您自己的DeepSeek API密钥。此外,您可能需要根据实际需求调整API的URL、请求头和数据内容。

九、总结与展望

在本次部署指南中,我们全面且深入地探讨了在 Windows 系统上借助 Docker 进行 DeepSeek-R1 本地部署的详细过程。从前期的准备工作,包括对硬件和软件的严格要求,到 Docker 环境的精心搭建、Ollama 的巧妙运用,再到基于 Docker 的具体部署步骤以及最后的测试与验证,每一个环节都至关重要,共同构成了成功部署 DeepSeek-R1 的关键路径。

DeepSeek-R1 的本地部署具有不可忽视的价值。它为我们带来了低延迟的交互体验,让我们在与模型对话时能够迅速得到回应,极大地提高了工作效率;同时,高度的隐私性确保了敏感数据的安全,无需担忧数据在云端传输和存储过程中的泄露风险;强大的控制权则允许我们根据自身的特定需求,对模型进行灵活的定制化配置和优化,使其更好地服务于各种业务场景 。

展望未来,随着技术的不断进步,DeepSeek-R1 有望在更多领域得到广泛应用。在教育领域,它可以作为智能辅导工具,为学生提供个性化的学习指导,帮助学生更好地理解和掌握知识;在医疗领域,能够辅助医生进行疾病诊断和药物研发,为医疗决策提供有力支持;在工业制造领域,可用于生产流程的优化和故障预测,提高生产效率和产品质量 。

在优化方向上,模型的性能提升将是持续的追求目标。研发团队可以进一步优化算法,提高模型的推理速度和准确性,使其能够处理更复杂的任务;在资源利用方面,通过技术创新,实现对硬件资源的更高效利用,降低部署成本,让更多用户能够轻松使用 DeepSeek-R1;而在功能拓展上,增加对多模态数据的支持,如语音、图像等,将极大地丰富模型的应用场景,为用户带来更加多样化的服务 。相信在未来,DeepSeek-R1 将在人工智能领域发挥更大的作用,为我们的生活和工作带来更多的便利和创新。

感谢您耐心阅读本文。希望本文能为您提供有价值的见解和启发。如果您对[Windows+docker本地部署DeepSeek-R1]有更深入的兴趣或疑问,欢迎继续关注相关领域的最新动态,或与我们进一步交流和讨论。让我们共同期待[Windows+docker本地部署DeepSeek-R1]在未来的发展历程中,能够带来更多的惊喜和突破。

再次感谢,祝您拥有美好的一天!

博主还写了本文相关文章,欢迎大家批评指正: 

1、DeepSeek:打工人的高效工作神器

2、DeepSeek开启程序员副业增收新通道,财富密码大公开!

3、手把手教你在Windows+docker本地部署DeepSeek-R1

本文地址:https://www.vps345.com/5692.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge deepseek Ollama 模型联网 API CherryStudio python MCP 进程 操作系统 进程控制 Ubuntu llama 算法 opencv 自然语言处理 神经网络 语言模型 阿里云 网络 网络安全 网络协议 ssh ubuntu 数据库 centos oracle 关系型 安全 分布式 harmonyos 华为 开发语言 typescript 计算机网络 RTSP xop RTP RTSPServer 推流 视频 flutter Hyper-V WinRM TrustedHosts tcp/ip react.js 前端面试题 node.js 持续部署 ssl java 笔记 C 环境变量 进程地址空间 ollama ai 人工智能 llm php android Dell R750XS 科技 个人开发 udp unity rust http fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 深度学习 YOLO 目标检测 计算机视觉 pycharm ide pytorch numpy 智能路由器 外网访问 内网穿透 端口映射 adb nginx 监控 自动化运维 django flask web3.py github 创意 社区 macos Flask FastAPI Waitress Gunicorn uWSGI Uvicorn prometheus c++ 后端 vim kvm 无桌面 命令行 串口服务器 经验分享 媒体 微信公众平台 3d 微信 微信分享 鸿蒙 Image wxopensdk docker 容器 系统开发 binder 车载系统 framework 源码环境 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache c语言 matlab mysql 自动化 YOLOv8 NPU Atlas800 A300I pro asi_bench mongodb windows Deepseek vscode mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 嵌入式 linux驱动开发 arm开发 嵌入式硬件 运维开发 云原生 qt stm32项目 单片机 stm32 c# ansible playbook HarmonyOS Next dell服务器 go 代理模式 av1 电视盒子 机顶盒ROM 魔百盒刷机 golang IIS .net core Hosting Bundle .NET Framework vs2022 conda 数学建模 rabbitmq es jvm AI编程 ollama下载加速 大模型 websocket html 集成学习 集成测试 机器学习 向日葵 oceanbase rc.local 开机自启 systemd 麒麟 蓝耘科技 元生代平台工作流 ComfyUI ecm bpm kylin 深度优先 图论 并集查找 换根法 树上倍增 ddos chatgpt llama3 Chatglm 开源大模型 zotero WebDAV 同步失败 ffmpeg 音视频 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 java-ee 软件工程 温湿度数据上传到服务器 Arduino HTTP mysql离线安装 ubuntu22.04 mysql8.0 银河麒麟服务器操作系统 系统激活 elasticsearch jenkins bash kubernetes VMware安装Ubuntu Ubuntu安装k8s k8s 博客 AI 爬虫 数据集 Qwen2.5-coder 离线部署 学习 sql KingBase uni-app intellij-idea 物联网 ESP32 spring 银河麒麟 kylin v10 麒麟 v10 spring boot tomcat postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 LDAP 腾讯云 nuxt3 vue3 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 maven intellij idea .netcore dubbo kamailio sip VoIP 统信 国产操作系统 虚拟机安装 .net 前端框架 openEuler unity3d Docker Compose docker compose docker-compose 低代码 面试 性能优化 jdk 架构 gitlab jmeter 软件测试 gitee HCIE 数通 大模型微调 多线程服务器 Linux网络编程 android studio gateway Clion Nova ResharperC++引擎 Centos7 远程开发 sqlserver visualstudio pillow live555 rtsp rtp json html5 firefox WSL win11 无法解析服务器的名称或地址 开源 Cline web安全 Kali Linux 黑客 渗透测试 信息收集 搜索引擎 交互 学习方法 程序人生 代码调试 ipdb YOLOv12 asm DeepSeek-R1 API接口 springsecurity6 oauth2 授权服务器 token sas eureka shell devops AIGC 僵尸世界大战 游戏服务器搭建 远程控制 远程看看 远程协助 银河麒麟操作系统 国产化 rpc 远程过程调用 Windows环境 saltstack redis selete 高级IO 直播推流 服务器部署ai模型 firewalld minio rsyslog Anolis nginx安装 环境安装 linux插件下载 微服务 cpu 内存 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 NFS 毕设 jar 电脑 list 数据结构 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 产品经理 agi microsoft risc-v aws 中间件 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 mcu C语言 ipython 硬件工程 svn 三级等保 服务器审计日志备份 Cookie FTP服务器 大数据 v10 镜像源 软件 DeepSeek 服务器繁忙 联想开天P90Z装win10 测试工具 多个客户端访问 IO多路复用 回显服务器 TCP相关API 编辑器 bootstrap 华为云 zabbix 系统架构 Linux prompt easyui AI大模型 langchain ci/cd ecmascript nextjs react reactjs 软考 jupyter Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer virtualenv Linux PID ue4 着色器 ue5 虚幻 gpu算力 css 架构与原理 MacMini Mac 迷你主机 mini Apple 宠物 毕业设计 免费学习 宠物领养 宠物平台 camera Arduino 电子信息 宕机切换 服务器宕机 excel yum源切换 更换国内yum源 JAVA IDEA Java 统信UOS bonding 链路聚合 springcloud 压力测试 机器人 tailscale derp derper 中转 网工 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 压测 ECS 数据挖掘 命令 unix DOIT 四博智联 1024程序员节 Unity Dedicated Server Host Client 无头主机 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 webrtc idm 远程工作 课程设计 debian cursor MCP server C/S LLM windows日志 DNS vue vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 能力提升 面试宝典 技术 IT信息化 进程信号 thingsboard postgresql VR手套 数据手套 动捕手套 动捕数据手套 负载均衡 iDRAC R720xd 命名管道 客户端与服务端通信 职场和发展 自动化测试 性能测试 功能测试 信息与通信 PVE 策略模式 单例模式 Windsurf 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 XFS xfs文件系统损坏 I_O error 网络结构图 磁盘监控 iot midjourney AI写作 express 7z 前后端分离 相差8小时 UTC 时间 输入法 netty 华为认证 网络工程师 服务器配置 生物信息学 驱动开发 git gitea 远程 执行 sshpass 操作 arm FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 file server http server web server https 状态管理的 UDP 服务器 Arduino RTOS yum 权限 Invalid Host allowedHosts 远程连接 rdp 实验 npm fpga开发 gradle 王者荣耀 Wi-Fi 计算机 干货分享 黑客工具 密码爆破 web Socket 华为od Spring Security 技术共享 WebUI DeepSeek V3 chrome devtools selenium chromedriver mac Cursor ISO镜像作为本地源 mybatis 云电竞 云电脑 todesk 交换机 硬件 设备 GPU PCI-Express 执法记录仪 智能安全帽 smarteye 其他 矩阵 线性代数 电商平台 UOS 统信操作系统 SysBench 基准测试 minicom 串口调试工具 ping++ 游戏服务器 Minecraft Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen ip ui 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 语法 音乐服务器 Navidrome 音流 transformer 系统安全 部署 远程桌面 r语言 数据可视化 ip命令 新增网卡 新增IP 启动网卡 gaussdb 系统 黑苹果 虚拟机 VMware pygame 小游戏 五子棋 DeepSeek行业应用 Heroku 网站部署 xss 宝塔面板 pip H3C ESXi Dell HPE 联想 浪潮 freebsd pppoe radius kafka AI agent 硬件架构 思科模拟器 思科 Cisco 云服务 测试用例 ruoyi asp.net大文件上传 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 .net mvc断点续传 kind AI作画 next.js 部署next.js QQ 聊天室 spring cloud Open WebUI alias unalias 别名 ocr 智能手机 僵尸进程 googlecloud 剧本 支付 微信支付 开放平台 muduo X11 Xming Docker Hub docker pull daemon.json 小程序 hive Hive环境搭建 hive3环境 Hive远程模式 游戏程序 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 c centos-root /dev/mapper yum clean all df -h / du -sh 社交电子 工业4.0 京东云 EMQX MQTT 通信协议 mariadb threejs 3D 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 直流充电桩 充电桩 微信开放平台 微信公众号配置 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 IPMI 远程登录 telnet junit 缓存 Dify 漏洞 Agent 安全威胁分析 阻塞队列 生产者消费者模型 服务器崩坏原因 vscode 1.86 网站搭建 serv00 jetty undertow Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 flash-attention 报错 grafana SSH Xterminal cnn GoogLeNet NAS Termux Samba 云服务器 裸金属服务器 弹性裸金属服务器 p2p Netty 即时通信 NIO 5G 3GPP 卫星通信 SWAT 配置文件 服务管理 网络共享 HTTP 服务器控制 ESP32 DeepSeek WSL2 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS 飞牛NAS 飞牛OS MacBook Pro 监控k8s集群 集群内prometheus 软件需求 游戏机 Ubuntu Server Ubuntu 22.04.5 hugo micropython esp32 mqtt Reactor 设计模式 C++ vasp安装 边缘计算 智能硬件 vmware 卡死 AutoDL IIS服务器 IIS性能 日志监控 半虚拟化 硬件虚拟化 Hypervisor openwrt 服务器管理 配置教程 服务器安装 网站管理 田俊楠 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP code-server mosquitto 消息队列 数据分析 技能大赛 算力 程序员 sqlite TCP服务器 qt项目 qt项目实战 qt教程 openssl 密码学 业界资讯 模拟退火算法 大数据平台 银河麒麟高级服务器 外接硬盘 Kylin gpt-3 文心一言 根服务器 clickhouse 客户端 outlook eNSP 网络规划 VLAN 企业网络 数据库系统 wireshark 显示过滤器 安装 ICMP Wireshark安装 hibernate linux环境变量 remote-ssh 小智AI服务端 xiaozhi TTS k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm ukui 麒麟kylinos openeuler rust腐蚀 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 W5500 OLED u8g2 chfs ubuntu 16.04 框架搭建 同步 备份 建站 dify ios laravel 大模型入门 大模型教程 需求分析 规格说明书 bug 豆瓣 追剧助手 迅雷 nas 微信小程序 openstack Xen 文件系统 路径解析 网络穿透 springboot 火绒安全 VPS Nuxt.js 飞书 nac 802.1 portal dns 孤岛惊魂4 uniapp 恒源云 tcp AD域 vSphere vCenter 软件定义数据中心 sddc RTMP 应用层 TRAE 反向代理 致远OA OA服务器 服务器磁盘扩容 CPU 主板 电源 网卡 okhttp CORS 跨域 MacOS录屏软件 雨云 NPS RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 echarts 传统数据库升级 银行 大语言模型 LLMs 单一职责原则 北亚数据恢复 oracle数据恢复 IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 oneapi open webui GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 ceph 交叉编译 Headless Linux 计算机外设 医疗APP开发 app开发 XCC Lenovo asp.net大文件上传下载 移动云 MS Materials 可信计算技术 鲲鹏 FTP 服务器 深度求索 私域 知识库 tcpdump GCC Linux环境 zookeeper flink SSL 域名 华为机试 Python skynet 安全架构 AISphereButler 自定义客户端 SAS embedding Trae IDE AI 原生集成开发环境 Trae AI 嵌入式实习 企业微信 Linux24.04 deepin frp UDP的API使用 protobuf 序列化和反序列化 armbian u-boot LORA NLP pyqt 目标跟踪 OpenVINO 推理应用 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 Kylin-Server 强制清理 强制删除 mac废纸篓 EasyConnect RustDesk自建服务器 rustdesk服务器 docker rustdesk 黑客技术 流式接口 URL 本地部署 ftp ssrf 失效的访问控制 xml HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x WebRTC gpt ux 多线程 vscode1.86 1.86版本 ssh远程连接 SSE open Euler dde LLM Web APP Streamlit springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 hadoop big data Google pay Apple pay opensearch helm 服务器主板 AI芯片 xrdp string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap TrinityCore 魔兽世界 开发环境 SSL证书 sysctl.conf vm.nr_hugepages adobe elk 网络编程 聊天服务器 套接字 TCP 图形化界面 环境迁移 崖山数据库 YashanDB 多进程 VMware创建虚拟机 视频编解码 源码剖析 rtsp实现步骤 流媒体开发 Ubuntu 24.04.1 轻量级服务器 redhat 重启 排查 系统重启 日志 原因 tidb GLIBC pdf 群晖 文件分享 iis VMware安装mocOS macOS系统安装 VSCode odoo 服务器动作 Server action 雨云服务器 wsl2 wsl 视觉检测 curl wget 端口 查看 ss IM即时通讯 剪切板对通 HTML FORMAT gcc n8n 工作流 workflow deployment daemonset statefulset cronjob visual studio code 知识图谱 Ubuntu共享文件夹 共享目录 Linux共享文件夹 linux安装配置 多层架构 解耦 sqlite3 rnn ruby deekseek ragflow 网络攻击模型 RAGFlow fast 图像处理 分析解读 arcgis 阿里云ECS fstab swoole IMX317 MIPI H265 VCU pyautogui 本地部署AI大模型 LInux ShenTong 开机自启动 rag ragflow 源码启动 内网环境 运维监控 信号 飞牛nas fnos react native 小艺 Pura X 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? cd 目录切换 cuda cudnn anaconda bot Docker 双系统 线程 Linux find grep 钉钉 triton 模型分析 less 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 代理 防火墙 NAT转发 NAT Server aarch64 编译安装 HPC Deepseek-R1 私有化部署 推理模型 OpenManus lua 程序员创富 常用命令 文本命令 目录命令 python3.11 树莓派 VNC miniapp 真机调试 调试 debug 断点 网络API请求调试方法 AI-native Docker Desktop 域名服务 DHCP 符号链接 配置 游戏引擎 蓝桥杯 mq rocketmq bat iventoy VmWare OpenEuler css3 sentinel 李心怡 HarmonyOS 办公自动化 自动化生成 pdf教程 Unity插件 xpath定位元素 g++ g++13 keepalived sonoma 自动更新 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 设置代理 实用教程 DevEco Studio Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 强化学习 自动驾驶 linux 命令 sed 命令 Windows xcode 相机 我的世界服务器搭建 企业网络规划 华为eNSP ArcTS 登录 ArcUI GridItem 加解密 Yakit yaklang 鸿蒙系统 arkUI 服务网格 istio rclone AList webdav fnOS 自动化任务管理 C# MQTTS 双向认证 emqx 软链接 硬链接 我的世界 我的世界联机 数码 UDP SSH 服务 SSH Server OpenSSH Server idea DenseNet KylinV10 麒麟操作系统 Vmware log4j onlyoffice matplotlib Linux的基础指令 合成模型 扩散模型 图像生成 eclipse qemu libvirt 带外管理 序列化反序列化 fd 文件描述符 服务器时间 流量运营 Xinference vr EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 OpenHarmony safari iBMC UltraISO 历史版本 下载 图形渲染 信号处理 ubuntu24 vivado24 llama.cpp dns是什么 如何设置电脑dns dns应该如何设置 音乐库 飞牛 sdkman 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 免费域名 域名解析 sequoiaDB apt 国内源 nvidia docker命令大全 捆绑 链接 谷歌浏览器 youtube google gmail tensorflow glibc rustdesk perl c/c++ 串口 k8s集群资源管理 云原生开发 prometheus数据采集 prometheus数据模型 prometheus特点 Linux的权限 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 源码 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 状态模式 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 混合开发 JDK regedit 开机启动 用户缓冲区 模拟实现 个人博客 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 影刀 #影刀RPA# SenseVoice 实习 edge浏览器 webgl AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 VS Code 大模型面经 大模型学习 AnythingLLM AnythingLLM安装 考研 在线office 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 RAID RAID技术 磁盘 存储 cocoapods rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 基础入门 编程 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 游戏开发 版本 私有化 CrewAI SEO hexo 单元测试 figma rime 显示管理器 lightdm gdm yolov8 基础环境 流水线 脚本式流水线 AD 域管理 efficientVIT YOLOv8替换主干网络 TOLOv8 grub 版本升级 扩容 MySql 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 firewall epoll 并查集 leetcode 金仓数据库 2025 征文 数据库平替用金仓 问题解决 Ubuntu22.04 开发人员主页 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 移动魔百盒 trea win服务器架设 windows server USB转串口 CH340 USB网络共享 harmonyOS面试题 迁移指南 毕昇JDK 邮件APP 免费软件 ssh远程登录 无人机 minecraft 浏览器开发 AI浏览器 ssh漏洞 ssh9.9p2 CVE-2025-23419 查询数据库服务IP地址 SQL Server docker run 数据卷挂载 交互模式 分布式训练 语音识别 自动化编程 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 本地知识库部署 DeepSeek R1 模型 etl SVN Server tortoise svn Kali Radius 链表 键盘 Python基础 Python教程 Python技巧 ros2 moveit 机器人运动 pgpool 程序 deepseek r1 proxy模式 烟花代码 烟花 元旦 ABAP iftop 网络流量监控 代理服务器 物联网开发 环境配置 信息可视化 网页设计 make命令 makefile文件 粘包问题 Claude dity make UOS1070e iphone HAProxy uv 实战案例 安卓 主从复制 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 perf 镜像 网络用户购物行为分析可视化平台 大数据毕业设计 做raid 装系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 内网服务器 内网代理 内网通信 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 can 线程池 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 navicat TCP协议 ROS 升级 CVE-2024-7347 抗锯齿 P2P HDLC mamba Vmamba web3 linux上传下载 QT 5.12.12 QT开发环境 Ubuntu18.04 健康医疗 互联网医院 GRUB引导 Linux技巧 autodl Logstash 日志采集 Typore OD机试真题 华为OD机试真题 服务器能耗统计 Playwright IMM MVS 海康威视相机 串口驱动 CH341 uart 485 智能音箱 智能家居 性能分析 实时互动 spark HistoryServer Spark YARN jobhistory 虚拟局域网 AI代码编辑器 安防软件 端口测试 wps wpf 繁忙 解决办法 替代网站 汇总推荐 AI推理 政务 分布式系统 监控运维 Prometheus Grafana CDN yaml Ultralytics 可视化 bcompare Beyond Compare 模拟器 教程 OpenSSH wsgiref Web 服务器网关接口 nfs 显卡驱动 大模型应用 EMUI 回退 降级 ardunio BLE 容器技术 webstorm jina IPv4 子网掩码 公网IP 私有IP GIS 遥感 WebGIS 匿名管道 SSH 密钥生成 SSH 公钥 私钥 生成 etcd 数据安全 RBAC Jellyfin kali 共享文件夹 大大通 第三代半导体 碳化硅 金融 TrueLicense seatunnel 腾讯云大模型知识引擎 ai工具 java-rocketmq ldap composer 中兴光猫 换光猫 网络桥接 自己换光猫 超融合 产测工具框架 IMX6ULL 管理框架 h.264 iperf3 带宽测试 ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS 项目部署到linux服务器 项目部署过程 代码 对比 工具 meld DiffMerge 昇腾 npu 开发 milvus Ark-TS语言 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 灵办AI 网卡的名称修改 eth0 ens33 cpp-httplib lio-sam SLAM SRS 流媒体 直播 元服务 应用上架 换源 Debian 虚拟显示器 cmos IO模型 trae db ros HiCar CarLife+ CarPlay QT RK3588 CLion crosstool-ng Node-Red 编程工具 流编程 dash 正则表达式 dba ubuntu24.04.1 搭建个人相关服务器 读写锁 HarmonyOS NEXT 原生鸿蒙 AI Agent 字节智能运维 neo4j 风扇控制软件 rpa DeepSeek r1 CentOS Stream CentOS 欧标 OCPP 抓包工具 宝塔 top Linux top top命令详解 top命令重点 top常用参数 x64 SIGSEGV xmm0 热榜 网络建设与运维 信创 信创终端 中科方德 docker部署Python Redis Desktop MDK 嵌入式开发工具 论文笔记 sublime text xshell termius iterm2 数据仓库 数据库开发 database docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 离线部署dify 智能电视 js nlp 网络爬虫 软件卸载 系统清理 推荐算法 鸿蒙开发 移动开发 服务器正确解析请求体 DocFlow IO 论文阅读 监控k8s 监控kubernetes WLAN PX4 deep learning 本地化部署 yum换源 vpn Qwen2.5-VL vllm MacOS WebVM 玩机技巧 软件分享 软件图标 渗透 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR kernel Mac内存不够用怎么办 大模型推理 虚幻引擎 聚类 性能调优 安全代理 嵌入式系统开发 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 su sudo powerpoint 网络搭建 神州数码 神州数码云平台 云平台 ubuntu20.04 开机黑屏 searxng PPI String Cytoscape CytoHubba 人工智能生成内容 DBeaver kerberos 存储维护 NetApp存储 EMC存储 word 远程服务 拓扑图 visual studio conda配置 conda镜像源 多路转接 cfssl 沙盒 ranger MySQL8.0 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 Attention 稳定性 看门狗 大模型部署 查看显卡进程 fuser 项目部署 ArtTS dock 加速 gnu 云桌面 微软 AD域控 证书服务器 嵌入式Linux IPC mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 seleium hosts 西门子PLC 通讯 软负载 MQTT协议 消息服务器