• 【开源大模型部署】如何在服务器上部署开源大模型 GLM-4-9B-Chat 并应用到RAG应用?

【开源大模型部署】如何在服务器上部署开源大模型 GLM-4-9B-Chat 并应用到RAG应用?

2025-04-26 09:34:43 2 阅读

本地服务器部署开源大模型有一个前提,就是得有 GPU 显卡资源,在我下面的例子中我租用了 autodl 中的算力资源,具体是租用了一张消费级别的 RTX 3090 显卡。

环境配置

  • 操作系统及版本:ubuntu 22.04
  • CUDA 版本: 12.1
  • pytorch 版本:2.3.0+cu121

pip 换源和安装依赖包。

# 升级pip
python -m pip install --upgrade pip
# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

pip install fastapi==0.104.1
pip install uvicorn==0.24.0.post1
pip install requests==2.25.1
pip install modelscope==1.9.5
pip install transformers==4.42.4
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1
pip install tiktoken==0.7.0

这里要注意 transformers 的版本是 4.42.4

模型下载

GLM-4-9B-Chat 模型大小为 18 GB,下载模型大概需要 10~20 分钟。

由于后面我们要使用一个开源的 embedding 模型 BAAI/bge-base-zh-v1.5

所以使用以下代码下载 2 个模型文件到本地文件系统:

运行 python download.py

import torch
from modelscope import snapshot_download, AutoModel, AutoTokenizer
import os
model_dir = snapshot_download('ZhipuAI/glm-4-9b-chat', cache_dir='/root/autodl-tmp', revision='master')
embedding_model_dir = snapshot_download('BAAI/bge-base-zh-v1.5', cache_dir='/root/autodl-tmp', revision='master')


模型测试

GLM 开源模型官方给了一个 Demo 方便我们做测试,以下是代码:

运行 python trans_cli_demo.py

"""
This script creates a CLI demo with transformers backend for the glm-4-9b model,
allowing users to interact with the model through a command-line interface.

Usage:
- Run the script to start the CLI demo.
- Interact with the model by typing questions and receiving responses.

Note: The script includes a modification to handle markdown to plain text conversion,
ensuring that the CLI interface displays formatted text correctly.

If you use flash attention, you should install the flash-attn and  add attn_implementation="flash_attention_2" in model loading.
"""

import os
import torch
from threading import Thread
from transformers import AutoTokenizer, StoppingCriteria, StoppingCriteriaList, TextIteratorStreamer, AutoModelForCausalLM

MODEL_PATH = os.environ.get('MODEL_PATH', '/root/autodl-tmp/ZhipuAI/glm-4-9b-chat')


tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(
    MODEL_PATH,
    trust_remote_code=True,
    device_map="auto"
).eval()

class StopOnTokens(StoppingCriteria):
    def __call__(self, input_ids: torch.LongTensor, scores: torch.FloatTensor, **kwargs) -> bool:
        stop_ids = model.config.eos_token_id
        for stop_id in stop_ids:
            if input_ids[0][-1] == stop_id:
                return True
        return False

if __name__ == "__main__":
    history = []
    max_length = 8192
    top_p = 0.8
    temperature = 0.6
    stop = StopOnTokens()

    print("Welcome to the GLM-4-9B CLI chat. Type your messages below.")
    while True:
        user_input = input("
You: ")
        if user_input.lower() in ["exit", "quit"]:
            break
        history.append([user_input, ""])

        messages = []
        for idx, (user_msg, model_msg) in enumerate(history):
            if idx == len(history) - 1 and not model_msg:
                messages.append({"role": "user", "content": user_msg})
                break
            if user_msg:
                messages.append({"role": "user", "content": user_msg})
            if model_msg:
                messages.append({"role": "assistant", "content": model_msg})
        model_inputs = tokenizer.apply_chat_template(
            messages,
            add_generation_prompt=True,
            tokenize=True,
            return_tensors="pt"
        ).to(model.device)
        streamer = TextIteratorStreamer(
            tokenizer=tokenizer,
            timeout=60,
            skip_prompt=True,
            skip_special_tokens=True
        )
        generate_kwargs = {
            "input_ids": model_inputs,
            "streamer": streamer,
            "max_new_tokens": max_length,
            "do_sample": False,  # 改为 False
            "top_p": top_p,
            "temperature": temperature,
            "stopping_criteria": StoppingCriteriaList([stop]),
            "repetition_penalty": 1.2,
            "eos_token_id": model.config.eos_token_id,
        }
        try:
            t = Thread(target=model.generate, kwargs=generate_kwargs)
            t.start()
            print("GLM-4:", end="", flush=True)
            for new_token in streamer:
                if new_token:
                    print(new_token, end="", flush=True)
                    history[-1][1] += new_token
        except Exception as e:
            print(f"An error occurred: {e}")
            print(f"Error type: {type(e)}")
            import traceback
            traceback.print_exc()

        history[-1][1] = history[-1][1].strip()


注意以上代码和 GLM 官方提供的可能不太一样,因为官方的有的报错,所以我略为修改了一下。

直接运行 trans_cli_demo.py 就可以和模型交互了

利用 FastApi 调用模型

运行以下代码创建并启动 Api 服务:

运行 python api.py

from fastapi import FastAPI, Request
from transformers import AutoTokenizer, AutoModelForCausalLM
import uvicorn
import json
import datetime
import torch

# 设置设备参数
DEVICE = "cuda"  # 使用CUDA
DEVICE_ID = "0"  # CUDA设备ID,如果未设置则为空
CUDA_DEVICE = f"{DEVICE}:{DEVICE_ID}" if DEVICE_ID else DEVICE  # 组合CUDA设备信息

# 清理GPU内存函数
def torch_gc():
    if torch.cuda.is_available():  # 检查是否可用CUDA
        with torch.cuda.device(CUDA_DEVICE):  # 指定CUDA设备
            torch.cuda.empty_cache()  # 清空CUDA缓存
            torch.cuda.ipc_collect()  # 收集CUDA内存碎片

# 创建FastAPI应用
app = FastAPI()

# 处理POST请求的端点
@app.post("/")
async def create_item(request: Request):
    global model, tokenizer  # 声明全局变量以便在函数内部使用模型和分词器
    json_post_raw = await request.json()  # 获取POST请求的JSON数据
    json_post = json.dumps(json_post_raw)  # 将JSON数据转换为字符串
    json_post_list = json.loads(json_post)  # 将字符串转换为Python对象
    prompt = json_post_list.get('prompt')  # 获取请求中的提示
    history = json_post_list.get('history')  # 获取请求中的历史记录
    max_length = json_post_list.get('max_length', 2048)  # 获取请求中的最大长度
    top_p = json_post_list.get('top_p', 0.7)  # 获取请求中的top_p参数
    temperature = json_post_list.get('temperature', 0.95)  # 获取请求中的温度参数

    # 准备输入
    messages = []
    if history:
        for h in history:
            messages.append({"role": "user", "content": h[0]})
            messages.append({"role": "assistant", "content": h[1]})
    messages.append({"role": "user", "content": prompt})

    input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device)

    # 生成回复
    with torch.no_grad():
        outputs = model.generate(
            input_ids,
            max_new_tokens=max_length,
            do_sample=True,
            top_p=top_p,
            temperature=temperature,
        )

    response = tokenizer.decode(outputs[0][input_ids.shape[1]:], skip_special_tokens=True)

    now = datetime.datetime.now()  # 获取当前时间
    time = now.strftime("%Y-%m-%d %H:%M:%S")  # 格式化时间为字符串
    # 构建响应JSON
    answer = {
        "response": response,
        "history": history + [[prompt, response]],
        "status": 200,
        "time": time
    }
    # 构建日志信息
    log = "[" + time + "] " + '", prompt:"' + prompt + '", response:"' + repr(response) + '"'
    print(log)  # 打印日志
    torch_gc()  # 执行GPU内存清理
    return answer  # 返回响应

# 主函数入口
if __name__ == '__main__':
    # 加载预训练的分词器和模型
    tokenizer = AutoTokenizer.from_pretrained("/root/autodl-tmp/ZhipuAI/glm-4-9b-chat", trust_remote_code=True)
    model = AutoModelForCausalLM.from_pretrained(
        "/root/autodl-tmp/ZhipuAI/glm-4-9b-chat",
        torch_dtype=torch.bfloat16,
        trust_remote_code=True,
        device_map="auto",
    )
    model.eval()  # 设置模型为评估模式
    # 启动FastAPI应用
    # 用6006端口可以将autodl的端口映射到本地,从而在本地使用api
    uvicorn.run(app, host='0.0.0.0', port=6006, workers=1)  # 在指定端口和主机上启动应用


测试服务

curl -X POST "http://127.0.0.1:6006" 
     -H 'Content-Type: application/json' 
     -d '{"prompt": "你好", "history": []}'
     

利用 FastApi 同样可以测试模型的调用和交互。

注意,以上代码你可能会在网络上找到类似的,我在最开始使用那些代码的时候报各种错,原因大概包括模型和代码版本不兼容,组件库版本问题等。所以以上代码是经过我的修改之后可运行的代码

RAG

在之前的文章中我们通过 Ollama 在笔记本电脑上部署过大模型,通过大模型产品的 API 调用过大模型 ,唯独没有在服务器上私有化部署一个大模型。

前文我们已经在服务器上部署好了大模型 glm-4-9b-chat 这是一个拥有 90 亿参数的模型。下面我们介绍如何在 llamaindex 中调用它。

很简单,首先我们还是先自定义一个LLM ,参考以下代码:

import logging
from typing import Any, List, Optional
from llama_index.core.llms import (
    CustomLLM,
    CompletionResponse,
    CompletionResponseGen,
    LLMMetadata,
)
from llama_index.core.llms.callbacks import llm_completion_callback
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# 设置日志
logging.basicConfig(level=logging.DEBUG)
logger = logging.getLogger(__name__)

class LocalGLM4(CustomLLM):

    context_window: int = 8192  # 默认上下文窗口大小
    num_output: int = 2048  # 默认输出的token数量
    model_name: str = "glm-4-9b-chat"  # 模型名称
    tokenizer: object = None  # 分词器
    model: object = None  # 模型

    def __init__(self, pretrained_model_name_or_path: str):
        super().__init__()

        # GPU方式加载模型
        self.tokenizer = AutoTokenizer.from_pretrained(
            pretrained_model_name_or_path, trust_remote_code=True
        )
        self.model = AutoModelForCausalLM.from_pretrained(
            pretrained_model_name_or_path,
            torch_dtype=torch.float16,  # 或者使用 torch.bfloat16
            low_cpu_mem_usage=True,
            trust_remote_code=True,
            device_map="auto",
        )

        # CPU方式加载模型
        # self.tokenizer = AutoTokenizer.from_pretrained(pretrained_model_name_or_path, device_map="cpu", trust_remote_code=True)
        # self.model = AutoModelForCausalLM.from_pretrained(pretrained_model_name_or_path, device_map="cpu", trust_remote_code=True)
        # self.model = self.model.float()

        # 尝试获取模型的实际上下文窗口大小
        if hasattr(self.model.config, 'seq_length'):
            self.context_window = self.model.config.seq_length
        elif hasattr(self.model.config, 'max_position_embeddings'):
            self.context_window = self.model.config.max_position_embeddings
        logger.info(f"Using context window size: {self.context_window}")

    @property
    def metadata(self) -> LLMMetadata:
        """Get LLM metadata."""
        # 得到LLM的元数据
        return LLMMetadata(
            context_window=self.context_window,
            num_output=self.num_output,
            model_name=self.model_name,
        )

    @llm_completion_callback()
    def complete(self, prompt: str, **kwargs: Any) -> CompletionResponse:
        # 完成函数
        print("完成函数")

        inputs = self.tokenizer.encode(prompt, return_tensors="pt").cuda()  # GPU方式
        # inputs = self.tokenizer.encode(prompt, return_tensors='pt')  # CPU方式
        outputs = self.model.generate(inputs, max_length=self.num_output)
        response = self.tokenizer.decode(outputs[0])
        return CompletionResponse(text=response)

    @llm_completion_callback()
    def stream_complete(self, prompt: str, **kwargs: Any) -> CompletionResponseGen:
        # 流式完成函数
        print("流式完成函数")

        inputs = self.tokenizer.encode(prompt, return_tensors="pt").cuda()  # GPU方式
        # inputs = self.tokenizer.encode(prompt, return_tensors='pt')  # CPU方式
        outputs = self.model.generate(inputs, max_length=self.num_output)
        response = self.tokenizer.decode(outputs[0])
        for token in response:
            yield CompletionResponse(text=token, delta=token)


剩下的步骤跟之前的调用方式、代码编程模型几乎没有任何区别:

    embed_model_path = "/root/autodl-tmp/BAAI/bge-base-zh-v1.5"
    pretrained_model_name_or_path = r"/root/autodl-tmp/ZhipuAI/glm-4-9b-chat"

    # 设置LLM和嵌入模型
    logger.info("Setting up LLM and embedding model")
    Settings.llm = LocalGLM4(pretrained_model_name_or_path)
    Settings.embed_model = HuggingFaceEmbedding(
        model_name=f"{embed_model_path}", device="cuda"
    )

    # 从指定目录加载文档数据
    logger.info("Loading documents")
    documents = SimpleDirectoryReader(input_files=["./data/sample.txt"]).load_data()

    # 创建索引和查询引擎
    logger.info("Creating index and query engine")
    index = VectorStoreIndex.from_documents(documents)
    query_engine = index.as_query_engine(streaming=False)

    # 执行查询
    logger.info("Executing query")
    response = query_engine.query(query)

    # 处理并输出响应
    if hasattr(response, "response_gen"):
        # 流式输出
        for text in response.response_gen:
            print(text, end="", flush=True)
            sys.stdout.flush()  # 确保立即输出
    else:
        # 非流式输出
        print(response.response, end="", flush=True)

相关代码可以在这里查看:github.com/xiaobox/lla…

总结

利用租用的 GPU 资源部署了开源大模型 glm-4-9b-chat ,通过熟悉部署方式和流程,你可以照猫画虎部署其他开源模型。接着我们将之前 RAG 项目中对LLM的调用改为服务器部署的本地开源模型,实现了模型和调用的私有化。希望这篇文章能够帮助到有类似需求的朋友。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

三、LLM大模型系列视频教程

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

本文地址:https://www.vps345.com/1714.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 进程 操作系统 进程控制 Ubuntu ssh deepseek Ollama 模型联网 API CherryStudio javascript 前端 chrome edge python MCP 数据库 centos oracle 关系型 安全 分布式 llama 算法 opencv 自然语言处理 神经网络 语言模型 react.js 前端面试题 node.js 持续部署 macos adb Dell R750XS 科技 ai java 人工智能 个人开发 rust http 网络 开发语言 harmonyos 华为 typescript 计算机网络 ubuntu numpy nginx 监控 自动化运维 阿里云 网络安全 网络协议 django fastapi flask web3.py 笔记 C 环境变量 进程地址空间 flutter udp unity golang 后端 IIS .net core Hosting Bundle .NET Framework vs2022 经验分享 面试 性能优化 jdk intellij-idea 架构 chatgpt 大模型 llama3 Chatglm 开源大模型 php android ollama llm 深度学习 机器学习 zotero WebDAV 同步失败 代理模式 pycharm YOLO pytorch vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 spring sql KingBase mcp mcp-proxy mcp-inspector fastapi-mcp agent sse 银河麒麟 kylin v10 麒麟 v10 ESP32 LDAP spring boot websocket tomcat ide nuxt3 vue3 docker 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 c++ c语言 tcp/ip 统信 国产操作系统 虚拟机安装 .net gitlab 多线程服务器 Linux网络编程 自动化 蓝耘科技 元生代平台工作流 ComfyUI json html5 firefox conda pillow windows 搜索引擎 kubernetes 容器 学习方法 程序人生 github 创意 社区 DeepSeek-R1 API接口 串口服务器 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 Hyper-V WinRM TrustedHosts matlab YOLOv8 NPU Atlas800 A300I pro asi_bench ecm bpm Deepseek springsecurity6 oauth2 授权服务器 前后端分离 电脑 硬件架构 系统架构 redis 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 es jvm 目标检测 计算机视觉 华为云 物联网 集成学习 集成测试 openEuler vscode AI编程 jar arm html FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 go file server http server web server ssl https Docker Compose docker compose docker-compose 远程连接 rdp 实验 远程工作 负载均衡 TRAE vim 重启 排查 系统重启 日志 原因 UOS 统信操作系统 yum oceanbase rc.local 开机自启 systemd 麒麟 bash ffmpeg 音视频 web安全 大数据 媒体 kylin 深度优先 图论 并集查找 换根法 树上倍增 嵌入式硬件 单片机 温湿度数据上传到服务器 Arduino HTTP ddos jenkins 云原生 ci/cd AI MNN DeepSeek Qwen 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 pppoe radius hugo microsoft arm开发 远程桌面 gaussdb ruoyi DeepSeek行业应用 Heroku 网站部署 xss 医疗APP开发 app开发 uni-app AIGC 学习 AI agent 思科模拟器 思科 Cisco Linux PID mysql 博客 java-ee kind react next.js 部署 部署next.js X11 Xming 小程序 报错 远程登录 telnet 机器人 googlecloud EMQX MQTT 通信协议 运维开发 JAVA Java spring cloud 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 Agent k8s stm32 qt 企业微信 Linux24.04 deepin vscode 1.86 fpga开发 漏洞 Samba SWAT 配置文件 服务管理 网络共享 宝塔面板 同步 备份 建站 安全威胁分析 SSH 豆瓣 追剧助手 迅雷 nas 微信 内存 unity3d eureka aws 服务器繁忙 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS 国产化 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 maven intellij idea 腾讯云 向日葵 prometheus 监控k8s集群 集群内prometheus git elasticsearch IIS服务器 IIS性能 日志监控 openssl 密码学 mongodb 模拟退火算法 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP mosquitto 消息队列 智能路由器 外网访问 内网穿透 端口映射 r语言 数据挖掘 数据可视化 数据分析 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 华为od sqlite dubbo TCP服务器 qt项目 qt项目实战 qt教程 kafka hibernate 编辑器 根服务器 AI大模型 大模型入门 大模型教程 webrtc sqlserver 权限 Linux ukui 麒麟kylinos openeuler 微服务 excel 游戏程序 springboot Nuxt.js jmeter 软件测试 android studio big data ollama下载加速 express okhttp CORS 跨域 雨云 NPS apache 孤岛惊魂4 恒源云 tcp gitee oneapi open webui av1 电视盒子 机顶盒ROM 魔百盒刷机 安全架构 3d 数学建模 网络结构图 爬虫 Headless Linux pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 华为认证 网络工程师 交换机 开源 Dify live555 rtsp rtp Docker Hub docker pull 镜像源 daemon.json shell visualstudio c# zookeeper debian 其他 v10 软件 armbian u-boot Cursor 驱动开发 硬件工程 嵌入式实习 交互 WSL win11 无法解析服务器的名称或地址 URL 代码调试 ipdb ftp minio Cline ecmascript nextjs reactjs opensearch helm ssrf 失效的访问控制 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x openwrt pygame 小游戏 五子棋 ux 多线程 LLM Web APP Streamlit hadoop svn xrdp string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 开发环境 SSL证书 Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket odoo 服务器动作 Server action 能力提升 面试宝典 技术 IT信息化 数据集 ios 源码剖析 rtsp实现步骤 流媒体开发 僵尸进程 银河麒麟操作系统 rpc 远程过程调用 Windows环境 直播推流 rsyslog IDEA FTP服务器 flash-attention 微信公众平台 缓存 C语言 ipython idm 联想开天P90Z装win10 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 统信UOS bonding 链路聚合 压力测试 课程设计 cursor MCP server C/S LLM windows日志 游戏服务器 Minecraft Reactor 设计模式 C++ agi ansible playbook gpu算力 virtualenv H3C 命名管道 客户端与服务端通信 jupyter iphone 技术共享 dell服务器 iventoy VmWare OpenEuler css3 黑客 计算机 虚拟局域网 XFS xfs文件系统损坏 I_O error 自动驾驶 make命令 makefile文件 磁盘监控 加解密 Yakit yaklang iot 显卡驱动 eclipse 命令 unix 系统安全 服务器配置 生物信息学 鸿蒙系统 uv gitea tcpdump GPU SysBench 基准测试 流量运营 安卓 HarmonyOS Next Jellyfin wireshark 镜像 金仓数据库 2025 征文 数据库平替用金仓 elk 5G 3GPP 卫星通信 前端框架 nac 802.1 portal 无人机 ROS 我的世界服务器搭建 devops 序列化反序列化 中间件 王者荣耀 transformer Wi-Fi 超融合 信息与通信 Spring Security 我的世界 我的世界联机 数码 navicat 文件系统 路径解析 虚幻 游戏引擎 jetty undertow 线程 MacOS录屏软件 ESXi Dell HPE 联想 浪潮 1024程序员节 mamba Vmamba ISO镜像作为本地源 VMware安装mocOS VMware macOS系统安装 云电竞 云电脑 todesk less BMC IPMI 带外管理 职场和发展 硬件 设备 PCI-Express 测试工具 ros 计算机外设 WebUI DeepSeek V3 微信小程序 llama.cpp 信号处理 .net mvc断点续传 ceph P2P HDLC log4j QT 5.12.12 QT开发环境 Ubuntu18.04 Erlang OTP gen_server 热代码交换 事务语义 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos gcc Python基础 Python教程 Python技巧 ip ui CH340 串口驱动 CH341 uart 485 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 freebsd mac bcompare Beyond Compare 模拟器 教程 dify 深度求索 私域 知识库 Xinference RAGFlow glibc 远程控制 rustdesk 环境配置 c dns是什么 如何设置电脑dns dns应该如何设置 Claude 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 AnythingLLM AnythingLLM安装 pip 状态模式 智能手机 矩阵 工业4.0 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm ocr IM即时通讯 QQ 剪切板对通 HTML FORMAT 多进程 远程 执行 sshpass 操作 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 云服务 frp 测试用例 功能测试 wps 腾讯云大模型知识引擎 AI写作 AI作画 聊天室 rnn 个人博客 小智AI服务端 xiaozhi TTS wsl EMUI 回退 降级 升级 银河麒麟服务器操作系统 系统激活 can 线程池 算力 visual studio code 微信开放平台 微信公众号配置 Radius linux安装配置 游戏开发 hexo muduo ssh远程登录 seatunnel zabbix 鲲鹏 昇腾 npu linux上传下载 健康医疗 互联网医院 apt 图形化界面 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 中兴光猫 换光猫 网络桥接 自己换光猫 嵌入式 linux驱动开发 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS vmware 卡死 laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 vue css 毕昇JDK ue4 着色器 ue5 grafana 直流充电桩 充电桩 junit 单元测试 selenium 浏览器开发 AI浏览器 SEO 鸿蒙 开机自启动 显示管理器 lightdm gdm rag ragflow ragflow 源码启动 rabbitmq 阻塞队列 生产者消费者模型 服务器崩坏原因 换源 国内源 Debian HarmonyOS Xterminal NAS Termux 半虚拟化 硬件虚拟化 Hypervisor etl p2p cuda cudnn anaconda micropython esp32 mqtt yaml Ultralytics 可视化 游戏机 wsl2 Netty 即时通信 NIO npm tensorflow postgresql pgpool HTTP 服务器控制 ESP32 DeepSeek GCC crosstool-ng 田俊楠 rocketmq AD域 致远OA OA服务器 服务器磁盘扩容 .netcore clickhouse HCIE 数通 outlook deekseek jina HiCar CarLife+ CarPlay QT RK3588 yolov8 视觉检测 selete 高级IO vasp安装 Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 多层架构 解耦 边缘计算 智能硬件 查询数据库服务IP地址 SQL Server 语音识别 AutoDL rclone AList webdav fnOS 业界资讯 IMX317 MIPI H265 VCU code-server composer 图像处理 bat SVN Server tortoise svn 产测工具框架 IMX6ULL 管理框架 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 程序员 微信分享 Image wxopensdk Linux的基础指令 W5500 OLED u8g2 MS Materials chfs ubuntu 16.04 matplotlib proxy模式 AISphereButler 信号 HAProxy linux 命令 sed 命令 历史版本 下载 安装 kamailio sip VoIP 大数据平台 银河麒麟高级服务器 外接硬盘 Kylin 网络穿透 云服务器 echarts 信息可视化 网页设计 gradle safari Mac 系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 程序 编程 性能分析 remote-ssh nvidia OD机试真题 华为OD机试真题 服务器能耗统计 宠物 毕业设计 免费学习 宠物领养 宠物平台 rust腐蚀 小艺 Pura X 框架搭建 dns 双系统 低代码 回显服务器 UDP的API使用 vSphere vCenter 策略模式 单例模式 CVE-2024-7347 VPS gateway 智能音箱 智能家居 实战案例 实时互动 数据结构 需求分析 规格说明书 iBMC UltraISO web 可信计算技术 网络攻击模型 XCC Lenovo list 模拟实现 飞书 繁忙 解决办法 替代网站 汇总推荐 AI推理 n8n 工作流 workflow CDN web3 Clion Nova ResharperC++引擎 Centos7 远程开发 dba VR手套 数据手套 动捕手套 动捕数据手套 autodl fd 文件描述符 软件定义数据中心 sddc RTMP 应用层 反向代理 IPMITOOL 硬件管理 opcua opcda KEPServer安装 Windows 7z skynet Qwen2.5-coder 离线部署 大模型微调 输入法 IMM cocoapods xcode threejs 3D GRUB引导 Linux技巧 embedding IPv4 子网掩码 公网IP 私有IP SenseVoice SSH 密钥生成 SSH 公钥 私钥 生成 传统数据库升级 银行 大语言模型 LLMs 单一职责原则 wsgiref Web 服务器网关接口 SSH 服务 SSH Server OpenSSH Server FTP 服务器 ShenTong uniapp 技能大赛 LORA NLP ardunio BLE iperf3 带宽测试 移动云 mariadb 僵尸世界大战 游戏服务器搭建 nfs SSL 域名 Anolis nginx安装 环境安装 linux插件下载 webstorm Trae IDE AI 原生集成开发环境 Trae AI 虚拟机 mcu 服务器主板 AI芯片 合成模型 扩散模型 图像生成 软链接 硬链接 流式接口 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 项目部署到linux服务器 项目部署过程 本地部署 pyqt asm 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 cnn DenseNet DevEco Studio OpenHarmony 真机调试 AI-native Docker Desktop etcd 数据安全 RBAC CrewAI EasyConnect Kali Linux 渗透测试 信息收集 h.264 RustDesk自建服务器 rustdesk服务器 docker rustdesk 黑客技术 tidb GLIBC 网工 vscode1.86 1.86版本 ssh远程连接 SSE sdkman open Euler dde db 迁移指南 网卡的名称修改 eth0 ens33 软件工程 bug sqlite3 g++ g++13 ruby TrinityCore 魔兽世界 WSL2 sysctl.conf vm.nr_hugepages prometheus数据采集 prometheus数据模型 prometheus特点 adobe Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 相机 VMware安装Ubuntu Ubuntu安装k8s token sas 环境迁移 lio-sam SLAM 服务器管理 配置教程 服务器安装 网站管理 崖山数据库 YashanDB mysql离线安装 ubuntu22.04 mysql8.0 redhat 源码 视频编解码 Ubuntu 24.04.1 轻量级服务器 python3.11 dash 正则表达式 k8s集群资源管理 云原生开发 RAGFLOW 群晖 文件分享 iis Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 相差8小时 UTC 时间 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 基础入门 烟花代码 烟花 元旦 远程看看 远程协助 hive Hive环境搭建 hive3环境 Hive远程模式 onlyoffice Node-Red 编程工具 流编程 知识图谱 webgl CPU prompt cpu 实时 使用 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 centos-root /dev/mapper yum clean all df -h / du -sh NFS 考研 毕设 在线office 三级等保 服务器审计日志备份 KylinV10 麒麟操作系统 Vmware GoogLeNet Typore chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 cd 目录切换 dity make camera Arduino 电子信息 aarch64 编译安装 HPC 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 MySql 多个客户端访问 IO多路复用 TCP相关API bootstrap epoll 软考 主板 电源 网卡 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors Ubuntu Server Ubuntu 22.04.5 压测 ECS 抗锯齿 xpath定位元素 自动化测试 性能测试 移动魔百盒 USB转串口 easyui langchain 飞牛NAS 飞牛OS MacBook Pro harmonyOS面试题 树莓派 VNC firewall 交叉编译 邮件APP 免费软件 Open WebUI tailscale derp derper 中转 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 DOIT 四博智联 防火墙 NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 stm32项目 netty sentinel Linux环境 deepseek r1 实习 常用命令 文本命令 目录命令 thingsboard 端口测试 iDRAC R720xd Kali 政务 分布式系统 监控运维 Prometheus Grafana 干货分享 黑客工具 密码爆破 mq Unity插件 x64 SIGSEGV xmm0 iftop 网络流量监控 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 车载系统 粘包问题 dock 加速 Ark-TS语言 执法记录仪 智能安全帽 smarteye hosts gpt-3 文心一言 xml mybatis TrueLicense UDP docker命令大全 网络用户购物行为分析可视化平台 大数据毕业设计 Invalid Host allowedHosts cmos DNS 人工智能生成内容 金融 idea 服务器时间 拓扑图 Attention 音乐服务器 Navidrome 音流 ping++ 开发 RAG 检索增强生成 文档解析 大模型垂直应用 网络爬虫 大模型推理 大模型学习 Ubuntu共享文件夹 共享目录 Linux共享文件夹 剧本 neo4j RAID RAID技术 磁盘 存储 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 eNSP 网络规划 VLAN 企业网络 大模型面经 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 基础环境 ubuntu20.04 开机黑屏 匿名管道 LInux VS Code 嵌入式Linux IPC 沙盒 word OpenSSH gnu AD 域管理 多路转接 网站搭建 serv00 grub 版本升级 扩容 阿里云ECS 论文阅读 kali 共享文件夹 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 CentOS Stream CentOS Cookie edge浏览器 物联网开发 社交电子 USB网络共享 Playwright minecraft ssh漏洞 ssh9.9p2 CVE-2025-23419 蓝桥杯 springcloud YOLOv12 灵办AI 链表 IO模型 分布式训练 软件需求 AI代码编辑器 rime 裸金属服务器 弹性裸金属服务器 元服务 应用上架 trae Redis Desktop 系统开发 binder framework 源码环境 DBeaver 数据仓库 kerberos 程序员创富 nlp gpt Windsurf ABAP perf 信创 信创终端 中科方德 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 TCP协议 分析解读 存储维护 NetApp存储 EMC存储 聚类 firewalld openstack Xen Logstash 日志采集 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 milvus 华为机试 风扇控制软件 强化学习 数据库系统 C# MQTTS 双向认证 emqx docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 rpa 做raid 装系统 MacMini 迷你主机 mini Apple 自动化任务管理 Linux find grep 火绒安全 代理 内网服务器 内网代理 内网通信 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 ip命令 新增网卡 新增IP 启动网卡 yum源切换 更换国内yum源 西门子PLC 通讯 ubuntu24.04.1 fast 大模型应用 vr PX4 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 IO 离线部署dify 热榜 flink Linux的权限 企业网络规划 华为eNSP spark HistoryServer Spark YARN jobhistory keepalived 项目部署 sonoma 自动更新 李心怡 xshell termius iterm2 wpf 数据库开发 database VSCode chrome devtools chromedriver raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS docker部署Python ArcTS 登录 ArcUI GridItem arkUI AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 服务网格 istio js ai工具 java-rocketmq ldap 语法 Google pay Apple pay GIS 遥感 WebGIS 大大通 第三代半导体 碳化硅 trea minicom 串口调试工具 Kylin-Server 内网环境 鸿蒙开发 移动开发 seleium 捆绑 链接 谷歌浏览器 youtube google gmail cpp-httplib 目标跟踪 OpenVINO 推理应用 图形渲染 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 键盘 WebRTC 黑苹果 win服务器架设 windows server sequoiaDB VMware创建虚拟机 办公自动化 自动化生成 pdf教程 搭建个人相关服务器 影刀 #影刀RPA# 虚幻引擎 DocFlow alias unalias 别名 产品经理 SRS 流媒体 直播 ubuntu24 vivado24 MDK 嵌入式开发工具 论文笔记 sublime text arcgis 嵌入式系统开发 代理服务器 雨云服务器 自动化编程 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 pyautogui 混合开发 JDK regedit 开机启动 运维监控 leetcode 推荐算法 京东云 ros2 moveit 机器人运动 软负载 CLion figma lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 架构与原理 服务器部署ai模型 本地化部署 远程服务 bot Docker conda配置 conda镜像源 swoole curl wget 端口 查看 ss risc-v 私有化 大模型部署 AI Agent 字节智能运维 玩机技巧 软件分享 软件图标 Deepseek-R1 私有化部署 推理模型 欧标 OCPP visual studio lua searxng 网络药理学 生信 PPI String Cytoscape CytoHubba vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 triton 模型分析 域名服务 DHCP 符号链接 配置 音乐库 飞牛 实用教程 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 宕机切换 服务器宕机 docker run 数据卷挂载 交互模式 飞牛nas fnos 本地知识库部署 DeepSeek R1 模型 midjourney deep learning linux环境变量 PVE 状态管理的 UDP 服务器 Arduino RTOS