最新资讯

  • xinference docker 部署方式

xinference docker 部署方式

2025-04-29 01:37:28 0 阅读

文章目录

    • 简绍
    • docker 安装方式
    • 访问地址
    • 对应官网
    • 在 dify 中 添加 xinference 容器
    • 内置大语言模型
    • 嵌入模型
    • 图像模型
    • 音频模型
    • 重排序模型
    • 视频模型

简绍

Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。

docker 安装方式

docker 下载对应的 xinference

docker pull xprobe/xinference

docker 运行,注意 路径改成自己的,

docker run  -d  --name xinference --gpus all  -v E:/docker/xinference/models:/root/models  -v E:/docker/xinference/.xinference:/root/.xinference -v E:/docker/xinference/.cache/huggingface:/root/.cache/huggingface -e XINFERENCE_HOME=/root/models  -p 9997:9997 xprobe/xinference:latest xinference-local -H 0.0.0.0
  • -d: 让容器在后台运行。
  • --name xinference: 为容器指定一个名称,这里是xinference。
  • --gpus all: 允许容器访问主机上的所有GPU,这对于需要进行大量计算的任务(如机器学习模型的推理)非常有用。
  • -v E:/docker/xinference/models:/root/models, -v E:/docker/xinference/.xinference:/root/.xinference, -v E:/docker/xinference/.cache/huggingface:/root/.cache/huggingface: 这些参数用于将主机的目录挂载到容器内部的特定路径,以便于数据持久化和共享。例如,第一个挂载是将主机的E:/docker/xinference/models目录映射到容器内的/root/models目录。
  • -e XINFERENCE_HOME=/root/models: 设置环境变量XINFERENCE_HOME,其值为/root/models,这可能是在容器内配置某些应用行为的方式。
  • -p 9997:9997: 将主机的9997端口映射到容器的9997端口,允许外部通过主机的该端口访问容器的服务。
  • xprobe/xinference:latest: 指定要使用的镜像和标签,这里使用的是xprobe/xinference镜像的latest版本。
  • xinference-local -H 0.0.0.0: 在容器启动时执行的命令,看起来像是以本地模式运行某个服务,并监听所有网络接口。

访问地址

http://127.0.0.1:9997/

对应官网

https://inference.readthedocs.io/zh-cn/latest/index.html

在 dify 中 添加 xinference 容器

docker dify 添加 docker 容器内ip 配置

http://host.docker.internal:9997

内置大语言模型

MODEL NAME

ABILITIES

COTNEXT_LENGTH

DESCRIPTION

aquila2

generate

2048

Aquila2 series models are the base language models

aquila2-chat

chat

2048

Aquila2-chat series models are the chat models

aquila2-chat-16k

chat

16384

AquilaChat2-16k series models are the long-text chat models

baichuan-2

generate

4096

Baichuan2 is an open-source Transformer based LLM that is trained on both Chinese and English data.

baichuan-2-chat

chat

4096

Baichuan2-chat is a fine-tuned version of the Baichuan LLM, specializing in chatting.

c4ai-command-r-v01

chat

131072

C4AI Command-R(+) is a research release of a 35 and 104 billion parameter highly performant generative model.

code-llama

generate

100000

Code-Llama is an open-source LLM trained by fine-tuning LLaMA2 for generating and discussing code.

code-llama-instruct

chat

100000

Code-Llama-Instruct is an instruct-tuned version of the Code-Llama LLM.

code-llama-python

generate

100000

Code-Llama-Python is a fine-tuned version of the Code-Llama LLM, specializing in Python.

codegeex4

chat

131072

the open-source version of the latest CodeGeeX4 model series

codeqwen1.5

generate

65536

CodeQwen1.5 is the Code-Specific version of Qwen1.5. It is a transformer-based decoder-only language model pretrained on a large amount of data of codes.

codeqwen1.5-chat

chat

65536

CodeQwen1.5 is the Code-Specific version of Qwen1.5. It is a transformer-based decoder-only language model pretrained on a large amount of data of codes.

codeshell

generate

8194

CodeShell is a multi-language code LLM developed by the Knowledge Computing Lab of Peking University.

codeshell-chat

chat

8194

CodeShell is a multi-language code LLM developed by the Knowledge Computing Lab of Peking University.

codestral-v0.1

generate

32768

Codestrall-22B-v0.1 is trained on a diverse dataset of 80+ programming languages, including the most popular ones, such as Python, Java, C, C++, JavaScript, and Bash

cogagent

chat, vision

4096

The CogAgent-9B-20241220 model is based on GLM-4V-9B, a bilingual open-source VLM base model. Through data collection and optimization, multi-stage training, and strategy improvements, CogAgent-9B-20241220 achieves significant advancements in GUI perception, inference prediction accuracy, action space completeness, and task generalizability.

cogvlm2

chat, vision

8192

CogVLM2 have achieved good results in many lists compared to the previous generation of CogVLM open source models. Its excellent performance can compete with some non-open source models.

cogvlm2-video-llama3-chat

chat, vision

8192

CogVLM2-Video achieves state-of-the-art performance on multiple video question answering tasks.

csg-wukong-chat-v0.1

chat

32768

csg-wukong-1B is a 1 billion-parameter small language model(SLM) pretrained on 1T tokens.

deepseek

generate

4096

DeepSeek LLM, trained from scratch on a vast dataset of 2 trillion tokens in both English and Chinese.

deepseek-chat

chat

4096

DeepSeek LLM is an advanced language model comprising 67 billion parameters. It has been trained from scratch on a vast dataset of 2 trillion tokens in both English and Chinese.

deepseek-coder

generate

16384

Deepseek Coder is composed of a series of code language models, each trained from scratch on 2T tokens, with a composition of 87% code and 13% natural language in both English and Chinese.

deepseek-coder-instruct

chat

16384

deepseek-coder-instruct is a model initialized from deepseek-coder-base and fine-tuned on 2B tokens of instruction data.

deepseek-r1

chat

163840

DeepSeek-R1, which incorporates cold-start data before RL. DeepSeek-R1 achieves performance comparable to OpenAI-o1 across math, code, and reasoning tasks.

deepseek-r1-distill-llama

chat

131072

deepseek-r1-distill-llama is distilled from DeepSeek-R1 based on Llama

deepseek-r1-distill-qwen

chat

131072

deepseek-r1-distill-qwen is distilled from DeepSeek-R1 based on Qwen

deepseek-v2

generate

128000

DeepSeek-V2, a strong Mixture-of-Experts (MoE) language model characterized by economical training and efficient inference.

deepseek-v2-chat

chat

128000

DeepSeek-V2, a strong Mixture-of-Experts (MoE) language model characterized by economical training and efficient inference.

deepseek-v2-chat-0628

chat

128000

DeepSeek-V2-Chat-0628 is an improved version of DeepSeek-V2-Chat.

deepseek-v2.5

chat

128000

DeepSeek-V2.5 is an upgraded version that combines DeepSeek-V2-Chat and DeepSeek-Coder-V2-Instruct. The new model integrates the general and coding abilities of the two previous versions.

deepseek-v3

chat

163840

DeepSeek-V3, a strong Mixture-of-Experts (MoE) language model with 671B total parameters with 37B activated for each token.

deepseek-vl-chat

chat, vision

4096

DeepSeek-VL possesses general multimodal understanding capabilities, capable of processing logical diagrams, web pages, formula recognition, scientific literature, natural images, and embodied intelligence in complex scenarios.

gemma-2-it

chat

8192

Gemma is a family of lightweight, state-of-the-art open models from Google, built from the same research and technology used to create the Gemini models.

gemma-it

chat

8192

Gemma is a family of lightweight, state-of-the-art open models from Google, built from the same research and technology used to create the Gemini models.

glm-4v

chat, vision

8192

GLM4 is the open source version of the latest generation of pre-trained models in the GLM-4 series launched by Zhipu AI.

glm-edge-chat

chat

8192

The GLM-Edge series is our attempt to face the end-side real-life scenarios, which consists of two sizes of large-language dialogue models and multimodal comprehension models (GLM-Edge-1.5B-Chat, GLM-Edge-4B-Chat, GLM-Edge-V-2B, GLM-Edge-V-5B). Among them, the 1.5B / 2B model is mainly for platforms such as mobile phones and cars, and the 4B / 5B model is mainly for platforms such as PCs.

glm-edge-v

chat, vision

8192

The GLM-Edge series is our attempt to face the end-side real-life scenarios, which consists of two sizes of large-language dialogue models and multimodal comprehension models (GLM-Edge-1.5B-Chat, GLM-Edge-4B-Chat, GLM-Edge-V-2B, GLM-Edge-V-5B). Among them, the 1.5B / 2B model is mainly for platforms such as mobile phones and cars, and the 4B / 5B model is mainly for platforms such as PCs.

glm4-chat

chat, tools

131072

GLM4 is the open source version of the latest generation of pre-trained models in the GLM-4 series launched by Zhipu AI.

glm4-chat-1m

chat, tools

1048576

GLM4 is the open source version of the latest generation of pre-trained models in the GLM-4 series launched by Zhipu AI.

gorilla-openfunctions-v2

chat

4096

OpenFunctions is designed to extend Large Language Model (LLM) Chat Completion feature to formulate executable APIs call given natural language instructions and API context.

gpt-2

generate

1024

GPT-2 is a Transformer-based LLM that is trained on WebTest, a 40 GB dataset of Reddit posts with 3+ upvotes.

internlm2-chat

chat

32768

The second generation of the InternLM model, InternLM2.

internlm2.5-chat

chat

32768

InternLM2.5 series of the InternLM model.

internlm2.5-chat-1m

chat

262144

InternLM2.5 series of the InternLM model supports 1M long-context

internlm3-instruct

chat, tools

32768

InternLM3 has open-sourced an 8-billion parameter instruction model, InternLM3-8B-Instruct, designed for general-purpose usage and advanced reasoning.

internvl-chat

chat, vision

32768

InternVL 1.5 is an open-source multimodal large language model (MLLM) to bridge the capability gap between open-source and proprietary commercial models in multimodal understanding.

internvl2

chat, vision

32768

InternVL 2 is an open-source multimodal large language model (MLLM) to bridge the capability gap between open-source and proprietary commercial models in multimodal understanding.

llama-2

generate

4096

Llama-2 is the second generation of Llama, open-source and trained on a larger amount of data.

llama-2-chat

chat

4096

Llama-2-Chat is a fine-tuned version of the Llama-2 LLM, specializing in chatting.

llama-3

generate

8192

Llama 3 is an auto-regressive language model that uses an optimized transformer architecture

llama-3-instruct

chat

8192

The Llama 3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks..

llama-3.1

generate

131072

Llama 3.1 is an auto-regressive language model that uses an optimized transformer architecture

llama-3.1-instruct

chat, tools

131072

The Llama 3.1 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks..

llama-3.2-vision

generate, vision

131072

The Llama 3.2-Vision instruction-tuned models are optimized for visual recognition, image reasoning, captioning, and answering general questions about an image…

llama-3.2-vision-instruct

chat, vision

131072

Llama 3.2-Vision instruction-tuned models are optimized for visual recognition, image reasoning, captioning, and answering general questions about an image…

llama-3.3-instruct

chat, tools

131072

The Llama 3.3 instruction tuned models are optimized for dialogue use cases and outperform many of the available open source chat models on common industry benchmarks..

marco-o1

chat, tools

32768

Marco-o1: Towards Open Reasoning Models for Open-Ended Solutions

minicpm-2b-dpo-bf16

chat

4096

MiniCPM is an End-Size LLM developed by ModelBest Inc. and TsinghuaNLP, with only 2.4B parameters excluding embeddings.

minicpm-2b-dpo-fp16

chat

4096

MiniCPM is an End-Size LLM developed by ModelBest Inc. and TsinghuaNLP, with only 2.4B parameters excluding embeddings.

minicpm-2b-dpo-fp32

chat

4096

MiniCPM is an End-Size LLM developed by ModelBest Inc. and TsinghuaNLP, with only 2.4B parameters excluding embeddings.

minicpm-2b-sft-bf16

chat

4096

MiniCPM is an End-Size LLM developed by ModelBest Inc. and TsinghuaNLP, with only 2.4B parameters excluding embeddings.

minicpm-2b-sft-fp32

chat

4096

MiniCPM is an End-Size LLM developed by ModelBest Inc. and TsinghuaNLP, with only 2.4B parameters excluding embeddings.

minicpm-llama3-v-2_5

chat, vision

8192

MiniCPM-Llama3-V 2.5 is the latest model in the MiniCPM-V series. The model is built on SigLip-400M and Llama3-8B-Instruct with a total of 8B parameters.

minicpm-v-2.6

chat, vision

32768

MiniCPM-V 2.6 is the latest model in the MiniCPM-V series. The model is built on SigLip-400M and Qwen2-7B with a total of 8B parameters.

minicpm3-4b

chat

32768

MiniCPM3-4B is the 3rd generation of MiniCPM series. The overall performance of MiniCPM3-4B surpasses Phi-3.5-mini-Instruct and GPT-3.5-Turbo-0125, being comparable with many recent 7B~9B models.

mistral-instruct-v0.1

chat

8192

Mistral-7B-Instruct is a fine-tuned version of the Mistral-7B LLM on public datasets, specializing in chatting.

mistral-instruct-v0.2

chat

8192

The Mistral-7B-Instruct-v0.2 Large Language Model (LLM) is an improved instruct fine-tuned version of Mistral-7B-Instruct-v0.1.

mistral-instruct-v0.3

chat

32768

The Mistral-7B-Instruct-v0.2 Large Language Model (LLM) is an improved instruct fine-tuned version of Mistral-7B-Instruct-v0.1.

mistral-large-instruct

chat

131072

Mistral-Large-Instruct-2407 is an advanced dense Large Language Model (LLM) of 123B parameters with state-of-the-art reasoning, knowledge and coding capabilities.

mistral-nemo-instruct

chat

1024000

The Mistral-Nemo-Instruct-2407 Large Language Model (LLM) is an instruct fine-tuned version of the Mistral-Nemo-Base-2407

mistral-v0.1

generate

8192

Mistral-7B is a unmoderated Transformer based LLM claiming to outperform Llama2 on all benchmarks.

mixtral-8x22b-instruct-v0.1

chat

65536

The Mixtral-8x22B-Instruct-v0.1 Large Language Model (LLM) is an instruct fine-tuned version of the Mixtral-8x22B-v0.1, specializing in chatting.

mixtral-instruct-v0.1

chat

32768

Mistral-8x7B-Instruct is a fine-tuned version of the Mistral-8x7B LLM, specializing in chatting.

mixtral-v0.1

generate

32768

The Mixtral-8x7B Large Language Model (LLM) is a pretrained generative Sparse Mixture of Experts.

omnilmm

chat, vision

2048

OmniLMM is a family of open-source large multimodal models (LMMs) adept at vision & language modeling.

openhermes-2.5

chat

8192

Openhermes 2.5 is a fine-tuned version of Mistral-7B-v0.1 on primarily GPT-4 generated data.

opt

generate

2048

Opt is an open-source, decoder-only, Transformer based LLM that was designed to replicate GPT-3.

orion-chat

chat

4096

Orion-14B series models are open-source multilingual large language models trained from scratch by OrionStarAI.

orion-chat-rag

chat

4096

Orion-14B series models are open-source multilingual large language models trained from scratch by OrionStarAI.

phi-2

generate

2048

Phi-2 is a 2.7B Transformer based LLM used for research on model safety, trained with data similar to Phi-1.5 but augmented with synthetic texts and curated websites.

phi-3-mini-128k-instruct

chat

128000

The Phi-3-Mini-128K-Instruct is a 3.8 billion-parameter, lightweight, state-of-the-art open model trained using the Phi-3 datasets.

phi-3-mini-4k-instruct

chat

4096

The Phi-3-Mini-4k-Instruct is a 3.8 billion-parameter, lightweight, state-of-the-art open model trained using the Phi-3 datasets.

platypus2-70b-instruct

generate

4096

Platypus-70B-instruct is a merge of garage-bAInd/Platypus2-70B and upstage/Llama-2-70b-instruct-v2.

qvq-72b-preview

chat, vision

32768

QVQ-72B-Preview is an experimental research model developed by the Qwen team, focusing on enhancing visual reasoning capabilities.

qwen-chat

chat

32768

Qwen-chat is a fine-tuned version of the Qwen LLM trained with alignment techniques, specializing in chatting.

qwen-vl-chat

chat, vision

4096

Qwen-VL-Chat supports more flexible interaction, such as multiple image inputs, multi-round question answering, and creative capabilities.

qwen1.5-chat

chat, tools

32768

Qwen1.5 is the beta version of Qwen2, a transformer-based decoder-only language model pretrained on a large amount of data.

qwen1.5-moe-chat

chat, tools

32768

Qwen1.5-MoE is a transformer-based MoE decoder-only language model pretrained on a large amount of data.

qwen2-audio

generate, audio

32768

Qwen2-Audio: A large-scale audio-language model which is capable of accepting various audio signal inputs and performing audio analysis or direct textual responses with regard to speech instructions.

qwen2-audio-instruct

chat, audio

32768

Qwen2-Audio: A large-scale audio-language model which is capable of accepting various audio signal inputs and performing audio analysis or direct textual responses with regard to speech instructions.

qwen2-instruct

chat, tools

32768

Qwen2 is the new series of Qwen large language models

qwen2-moe-instruct

chat, tools

32768

Qwen2 is the new series of Qwen large language models.

qwen2-vl-instruct

chat, vision

32768

Qwen2-VL: To See the World More Clearly.Qwen2-VL is the latest version of the vision language models in the Qwen model familities.

qwen2.5

generate

32768

Qwen2.5 is the latest series of Qwen large language models. For Qwen2.5, we release a number of base language models and instruction-tuned language models ranging from 0.5 to 72 billion parameters.

qwen2.5-coder

generate

32768

Qwen2.5-Coder is the latest series of Code-Specific Qwen large language models (formerly known as CodeQwen).

qwen2.5-coder-instruct

chat, tools

32768

Qwen2.5-Coder is the latest series of Code-Specific Qwen large language models (formerly known as CodeQwen).

qwen2.5-instruct

chat, tools

32768

Qwen2.5 is the latest series of Qwen large language models. For Qwen2.5, we release a number of base language models and instruction-tuned language models ranging from 0.5 to 72 billion parameters.

qwen2.5-vl-instruct

chat, vision

128000

Qwen2.5-VL: Qwen2.5-VL is the latest version of the vision language models in the Qwen model familities.

qwq-32b-preview

chat

32768

QwQ-32B-Preview is an experimental research model developed by the Qwen Team, focused on advancing AI reasoning capabilities.

seallm_v2

generate

8192

We introduce SeaLLM-7B-v2, the state-of-the-art multilingual LLM for Southeast Asian (SEA) languages

seallm_v2.5

generate

8192

We introduce SeaLLM-7B-v2.5, the state-of-the-art multilingual LLM for Southeast Asian (SEA) languages

skywork

generate

4096

Skywork is a series of large models developed by the Kunlun Group · Skywork team.

skywork-math

generate

4096

Skywork is a series of large models developed by the Kunlun Group · Skywork team.

starling-lm

chat

4096

We introduce Starling-7B, an open large language model (LLM) trained by Reinforcement Learning from AI Feedback (RLAIF). The model harnesses the power of our new GPT-4 labeled ranking dataset

telechat

chat

8192

The TeleChat is a large language model developed and trained by China Telecom Artificial Intelligence Technology Co., LTD. The 7B model base is trained with 1.5 trillion Tokens and 3 trillion Tokens and Chinese high-quality corpus.

tiny-llama

generate

2048

The TinyLlama project aims to pretrain a 1.1B Llama model on 3 trillion tokens.

wizardcoder-python-v1.0

chat

100000

wizardmath-v1.0

chat

2048

WizardMath is an open-source LLM trained by fine-tuning Llama2 with Evol-Instruct, specializing in math.

xverse

generate

2048

XVERSE is a multilingual large language model, independently developed by Shenzhen Yuanxiang Technology.

xverse-chat

chat

2048

XVERSEB-Chat is the aligned version of model XVERSE.

yi

generate

4096

The Yi series models are large language models trained from scratch by developers at 01.AI.

yi-1.5

generate

4096

Yi-1.5 is an upgraded version of Yi. It is continuously pre-trained on Yi with a high-quality corpus of 500B tokens and fine-tuned on 3M diverse fine-tuning samples.

yi-1.5-chat

chat

4096

Yi-1.5 is an upgraded version of Yi. It is continuously pre-trained on Yi with a high-quality corpus of 500B tokens and fine-tuned on 3M diverse fine-tuning samples.

yi-1.5-chat-16k

chat

16384

Yi-1.5 is an upgraded version of Yi. It is continuously pre-trained on Yi with a high-quality corpus of 500B tokens and fine-tuned on 3M diverse fine-tuning samples.

yi-200k

generate

262144

The Yi series models are large language models trained from scratch by developers at 01.AI.

yi-chat

chat

4096

The Yi series models are large language models trained from scratch by developers at 01.AI.

yi-coder

generate

131072

Yi-Coder is a series of open-source code language models that delivers state-of-the-art coding performance with fewer than 10 billion parameters.Excelling in long-context understanding with a maximum context length of 128K tokens.Supporting 52 major programming languages, including popular ones such as Java, Python, JavaScript, and C++.

yi-coder-chat

chat

131072

Yi-Coder is a series of open-source code language models that delivers state-of-the-art coding performance with fewer than 10 billion parameters.Excelling in long-context understanding with a maximum context length of 128K tokens.Supporting 52 major programming languages, including popular ones such as Java, Python, JavaScript, and C++.

yi-vl-chat

chat, vision

4096

Yi Vision Language (Yi-VL) model is the open-source, multimodal version of the Yi Large Language Model (LLM) series, enabling content comprehension, recognition, and multi-round conversations about images.

嵌入模型

  • bce-embedding-base_v1
  • bge-base-en
  • bge-base-en-v1.5
  • bge-base-zh
  • bge-base-zh-v1.5
  • bge-large-en
  • bge-large-en-v1.5
  • bge-large-zh
  • bge-large-zh-noinstruct
  • bge-large-zh-v1.5
  • bge-m3
  • bge-small-en-v1.5
  • bge-small-zh
  • bge-small-zh-v1.5
  • e5-large-v2
  • gte-base
  • gte-large
  • gte-Qwen2
  • jina-clip-v2
  • jina-embeddings-v2-base-en
  • jina-embeddings-v2-base-zh
  • jina-embeddings-v2-small-en
  • jina-embeddings-v3
  • m3e-base
  • m3e-large
  • m3e-small
  • multilingual-e5-large
  • text2vec-base-chinese
  • text2vec-base-chinese-paraphrase
  • text2vec-base-chinese-sentence
  • text2vec-base-multilingual
  • text2vec-large-chinese
  • FLUX.1-dev
  • FLUX.1-schnell
  • GOT-OCR2_0
  • HunyuanDiT-v1.2
  • HunyuanDiT-v1.2-Distilled
  • kolors
  • sd-turbo
  • sd3-medium
  • sd3.5-large
  • sd3.5-large-turbo
  • sd3.5-medium
  • sdxl-turbo
  • stable-diffusion-2-inpainting
  • stable-diffusion-inpainting
  • stable-diffusion-v1.5
  • stable-diffusion-xl-base-1.0
  • stable-diffusion-xl-inpainting

图像模型

  • FLUX.1-dev
  • FLUX.1-schnell
  • GOT-OCR2_0
  • HunyuanDiT-v1.2
  • HunyuanDiT-v1.2-Distilled
  • kolors
  • sd-turbo
  • sd3-medium
  • sd3.5-large
  • sd3.5-large-turbo
  • sd3.5-medium
  • sdxl-turbo
  • stable-diffusion-2-inpainting
  • stable-diffusion-inpainting
  • stable-diffusion-v1.5
  • stable-diffusion-xl-base-1.0
  • stable-diffusion-xl-inpainting

音频模型

以下是 Xinference 中内置的音频模型列表:

  • Belle-distilwhisper-large-v2-zh
  • Belle-whisper-large-v2-zh
  • Belle-whisper-large-v3-zh
  • ChatTTS
  • CosyVoice-300M
  • CosyVoice-300M-Instruct
  • CosyVoice-300M-SFT
  • CosyVoice2-0.5B
  • F5-TTS
  • F5-TTS-MLX
  • FishSpeech-1.5
  • Kokoro-82M
  • MeloTTS-Chinese
  • MeloTTS-English
  • MeloTTS-English-v2
  • MeloTTS-English-v3
  • MeloTTS-French
  • MeloTTS-Japanese
  • MeloTTS-Korean
  • MeloTTS-Spanish
  • SenseVoiceSmall
  • whisper-base
  • whisper-base-mlx
  • whisper-base.en
  • whisper-base.en-mlx
  • whisper-large-v3
  • whisper-large-v3-mlx
  • whisper-large-v3-turbo
  • whisper-large-v3-turbo-mlx
  • whisper-medium
  • whisper-medium-mlx
  • whisper-medium.en
  • whisper-medium.en-mlx
  • whisper-small
  • whisper-small-mlx
  • whisper-small.en
  • whisper-small.en-mlx
  • whisper-tiny
  • whisper-tiny-mlx
  • whisper-tiny.en
  • whisper-tiny.en-mlx

重排序模型

以下是 Xinference 中内置的重排序模型列表:

  • bce-reranker-base_v1
  • bge-reranker-base
  • bge-reranker-large
  • bge-reranker-v2-gemma
  • bge-reranker-v2-m3
  • bge-reranker-v2-minicpm-layerwise
  • jina-reranker-v2
  • minicpm-reranker

视频模型

以下是 Xinference 中内置的视频模型列表:

  • CogVideoX-2b
  • CogVideoX-5b
  • HunyuanVideo

本文地址:https://www.vps345.com/5165.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge python MCP 阿里云 网络 网络安全 网络协议 ubuntu ssh 进程 操作系统 进程控制 Ubuntu deepseek Ollama 模型联网 API CherryStudio llama 算法 opencv 自然语言处理 神经网络 语言模型 harmonyos 华为 开发语言 typescript 计算机网络 数据库 centos oracle 关系型 安全 分布式 android 鸿蒙 flutter Hyper-V WinRM TrustedHosts web安全 Kali Linux 黑客 渗透测试 信息收集 tcp/ip github 创意 社区 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn java 面试 性能优化 jdk intellij-idea 架构 RTSP xop RTP RTSPServer 推流 视频 react.js 前端面试题 node.js 持续部署 ssl Dell R750XS 科技 ai 人工智能 个人开发 udp unity uni-app golang ollama llm php GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 fastapi mcp mcp-proxy mcp-inspector fastapi-mcp agent sse pycharm ide pytorch rust http 前端框架 深度学习 YOLO 目标检测 计算机视觉 macos adb nginx 监控 自动化运维 笔记 C 环境变量 进程地址空间 智能路由器 外网访问 内网穿透 端口映射 django flask web3.py numpy mongodb windows 机器学习 c++ 多线程服务器 Linux网络编程 c语言 向日葵 springsecurity6 oauth2 授权服务器 token sas docker 容器 DeepSeek-R1 API接口 vscode 开源 自动化 多进程 1024程序员节 list 数据结构 websocket visualstudio prometheus kvm 无桌面 命令行 串口服务器 3d 测试工具 Cline DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 apache matlab Deepseek ollama下载加速 大模型 android studio 交互 后端 mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 经验分享 学习方法 学习 搜索引擎 微服务 springcloud 运维开发 云原生 Qwen2.5-coder 离线部署 嵌入式 linux驱动开发 arm开发 嵌入式硬件 c# debian PVE vim rabbitmq es jvm 蓝耘科技 元生代平台工作流 ComfyUI 物联网 iot dell服务器 go 代理模式 Windsurf IIS .net core Hosting Bundle .NET Framework vs2022 媒体 微信公众平台 YOLOv8 NPU Atlas800 A300I pro asi_bench mysql ecm bpm redis mybatis qt stm32项目 单片机 stm32 minicom 串口调试工具 chatgpt llama3 Chatglm 开源大模型 ping++ 深度优先 图论 并集查找 换根法 树上倍增 elasticsearch jenkins ddos 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 AI 爬虫 数据集 zotero WebDAV 同步失败 ansible playbook java-ee AI编程 温湿度数据上传到服务器 Arduino HTTP vue.js fpga开发 html 集成学习 集成测试 银河麒麟服务器操作系统 系统激活 计算机外设 电脑 mac 软件需求 sql KingBase wsl2 wsl 博客 负载均衡 gitee spring boot oceanbase rc.local 开机自启 systemd 麒麟 微信 微信分享 Image wxopensdk 银河麒麟 kylin v10 麒麟 v10 conda kylin 智能手机 NAS Termux Samba Linux tomcat postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 ffmpeg 音视频 ESP32 LDAP maven intellij idea audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 nuxt3 vue3 实时音视频 dubbo bash Docker Compose docker compose docker-compose HarmonyOS Next 数学建模 .net express av1 电视盒子 机顶盒ROM 魔百盒刷机 openEuler unity3d spring gitlab 低代码 ArcTS 登录 ArcUI GridItem filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 jmeter 软件测试 系统开发 binder 车载系统 framework 源码环境 HCIE 数通 大模型微调 腾讯云 .netcore gateway Clion Nova ResharperC++引擎 Centos7 远程开发 pillow live555 rtsp rtp json html5 firefox sqlserver kamailio sip VoIP 大数据 大数据平台 统信 国产操作系统 虚拟机安装 WSL win11 无法解析服务器的名称或地址 软件工程 YOLOv12 僵尸进程 kubernetes VMware安装Ubuntu Ubuntu安装k8s k8s 企业微信 Linux24.04 deepin mysql离线安装 ubuntu22.04 mysql8.0 程序人生 代码调试 ipdb asm microsoft dba DeepSeek gpu算力 pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 群晖 文件分享 中间件 iis VSCode postgresql 移动云 云服务 NPS 雨云服务器 雨云 可信计算技术 密码学 FTP 服务器 游戏程序 XCC Lenovo 崖山数据库 YashanDB 视频编解码 pip 源码剖析 rtsp实现步骤 流媒体开发 繁忙 服务器繁忙 解决办法 替代网站 汇总推荐 AI推理 uniapp Ubuntu 24.04.1 轻量级服务器 NFS redhat 服务器部署ai模型 飞牛NAS 飞牛OS MacBook Pro embedding https 部署 SSL 域名 rsyslog Anolis nginx安装 环境安装 linux插件下载 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 cnn jar 远程 命令 执行 sshpass 操作 华为云 Ubuntu Server Ubuntu 22.04.5 服务器数据恢复 数据恢复 存储数据恢复 raid5数据恢复 磁盘阵列数据恢复 shell 僵尸世界大战 游戏服务器搭建 远程控制 远程看看 远程协助 银河麒麟操作系统 国产化 机器人 kafka zookeeper saltstack mcu 驱动开发 硬件工程 嵌入式实习 ecmascript KVM devops ipython unix 三级等保 服务器审计日志备份 v10 镜像源 软件 firewalld minio 系统架构 Trae IDE AI 原生集成开发环境 Trae AI Reactor 设计模式 C++ aws Cookie 策略模式 单例模式 bootstrap zabbix nextjs react reactjs nvidia 黑客技术 微信小程序 小程序 流式接口 css 本地部署 api wireshark 架构与原理 联想开天P90Z装win10 Kylin-Server 服务器安装 多个客户端访问 IO多路复用 回显服务器 TCP相关API gcc g++ g++13 ue4 着色器 ue5 虚幻 Google pay Apple pay JAVA IDEA Java SSE 目标跟踪 OpenVINO 推理应用 ESXi 系统安全 ip命令 新增网卡 新增IP 启动网卡 开机自启动 跨域 ios iphone 网工 压测 ECS prompt easyui AI大模型 langchain ssrf 失效的访问控制 iftop 网络流量监控 vue AIGC camera Arduino 电子信息 Portainer搭建 Portainer使用 Portainer使用详解 Portainer详解 Portainer portainer virtualenv 安卓 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 elk 支付 微信支付 开放平台 课程设计 DevEco Studio yum源切换 更换国内yum源 vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 QQ bot Docker xrdp 远程桌面 远程连接 Unity Dedicated Server Host Client 无头主机 开发环境 SSL证书 视觉检测 DNS VMware创建虚拟机 文件系统 路径解析 职场和发展 自动化测试 性能测试 功能测试 odoo 服务器动作 Server action threejs 3D tidb GLIBC 能力提升 面试宝典 技术 IT信息化 环境迁移 华为od thingsboard 缓存 Dify 直播推流 指令 远程工作 cpu 内存 实时 使用 毕设 midjourney AI写作 进程信号 CLion 相差8小时 UTC 时间 MacOS录屏软件 netty mamba Vmamba rpc 远程过程调用 Windows环境 cuda 版本 安装 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 大语言模型 C语言 佛山戴尔服务器维修 佛山三水服务器维修 svn FTP服务器 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 状态管理的 UDP 服务器 Arduino RTOS yum RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 git gitea risc-v arm linux 命令 sed 命令 Wi-Fi 医疗APP开发 app开发 计算机 干货分享 黑客工具 密码爆破 web Socket ci/cd C# MQTTS 双向认证 emqx 技术共享 软考 jupyter springboot 设置代理 实用教程 Invalid Host allowedHosts rdp 实验 gradle 统信UOS bonding 链路聚合 权限 数据挖掘 压力测试 执法记录仪 智能安全帽 smarteye tailscale derp derper 中转 npm 矩阵 线性代数 电商平台 UOS 统信操作系统 SysBench 基准测试 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 WebUI DeepSeek V3 云电竞 云电脑 todesk Open WebUI 宕机切换 服务器宕机 lua linux安装配置 webrtc kali 共享文件夹 虚拟机 cursor 音乐服务器 Navidrome 音流 MCP server C/S LLM windows日志 transformer idm 游戏服务器 Minecraft DOIT 四博智联 宝塔面板 信息与通信 H3C Dell HPE 联想 浪潮 iDRAC R720xd 命名管道 客户端与服务端通信 c freebsd agi 编辑器 鸿蒙系统 XFS xfs文件系统损坏 I_O error 测试用例 磁盘监控 kind r语言 数据可视化 next.js 部署next.js 聊天室 spring cloud 前后端分离 ocr 华为认证 网络工程师 硬件架构 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 bug 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 FunASR ASR GoogLeNet 剧本 file server http server web server muduo 图形化界面 X11 Xming 服务器配置 生物信息学 王者荣耀 GCC crosstool-ng Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 eureka 5G 3GPP 卫星通信 Spring Security mariadb 弹性计算 虚拟化 计算虚拟化 弹性裸金属 Docker Hub docker pull daemon.json selete 高级IO 多层架构 解耦 交换机 硬件 设备 GPU PCI-Express Agent 阻塞队列 生产者消费者模型 服务器崩坏原因 jetty undertow Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 grafana 远程登录 telnet ISO镜像作为本地源 p2p Erlang OTP gen_server 热代码交换 事务语义 MNN Qwen DenseNet ip ui 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 技能大赛 SSH 交叉编译 efficientVIT YOLOv8替换主干网络 TOLOv8 银河麒麟桌面操作系统 Kylin OS DeepSeek行业应用 Heroku 网站部署 xss 游戏机 pppoe radius hugo Netty 即时通信 NIO eNSP 网络规划 VLAN 企业网络 SWAT 配置文件 服务管理 网络共享 HTTP 服务器控制 ESP32 DeepSeek gaussdb Linux环境 ruoyi linux环境变量 excel vasp安装 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm AutoDL AI作画 IIS服务器 IIS性能 日志监控 WSL2 protobuf 序列化和反序列化 openwrt USB网络共享 监控k8s集群 集群内prometheus MacMini Mac 迷你主机 mini Apple .net mvc断点续传 micropython esp32 mqtt AI agent 宠物 毕业设计 免费学习 宠物领养 宠物平台 思科模拟器 思科 Cisco 小艺 Pura X 强制清理 强制删除 mac废纸篓 算力 程序员 googlecloud TCP服务器 qt项目 qt项目实战 qt教程 模拟退火算法 hadoop 服务器管理 配置教程 网站管理 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 自动驾驶 其他 vmware 卡死 数据分析 根服务器 VR手套 数据手套 动捕手套 动捕数据手套 clickhouse Ark-TS语言 客户端 nac 802.1 portal 社交电子 数据库系统 ai小智 语音助手 ai小智配网 ai小智教程 智能硬件 esp32语音助手 diy语音助手 EMQX MQTT 通信协议 hibernate TRAE 工业4.0 xml 银河麒麟高级服务器 外接硬盘 Kylin Playwright windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 漏洞 网络结构图 微信开放平台 微信公众号配置 同步 备份 建站 安全威胁分析 vscode 1.86 7z laravel 大模型入门 大模型教程 cmos 小智AI服务端 xiaozhi TTS 输入法 直流充电桩 充电桩 IPMI 显示过滤器 ICMP Wireshark安装 junit pygame AD 域管理 W5500 OLED u8g2 网站搭建 serv00 chfs ubuntu 16.04 豆瓣 追剧助手 迅雷 nas 重启 排查 系统重启 日志 原因 云服务器 裸金属服务器 弹性裸金属服务器 ceph 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 AI代码编辑器 VMware安装mocOS VMware macOS系统安装 网络穿透 perf 火绒安全 Nuxt.js Xterminal dify 网络用户购物行为分析可视化平台 大数据毕业设计 需求分析 规格说明书 备选 网站 调用 示例 AD域 深度求索 私域 知识库 vSphere vCenter 软件定义数据中心 sddc 反向代理 致远OA OA服务器 服务器磁盘扩容 CPU 主板 电源 网卡 chrome devtools selenium chromedriver okhttp CORS rocketmq 飞书 dns openstack Xen 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 恒源云 arkUI echarts LLMs 边缘计算 oneapi frp Cursor 产品经理 Logstash 日志采集 腾讯云大模型知识引擎 半虚拟化 硬件虚拟化 Hypervisor 报错 田俊楠 RAID RAID技术 磁盘 存储 sqlite MS Materials openssl 语法 Linux PID 业界资讯 鲲鹏 code-server mosquitto 消息队列 LInux Headless Linux pgpool 信息可视化 网页设计 华为机试 Python sdkman skynet 安全架构 AISphereButler 自定义客户端 SAS outlook 政务 分布式系统 监控运维 Prometheus Grafana 系统 黑苹果 小游戏 五子棋 flink 框架搭建 tcpdump UDP的API使用 gpt-3 文心一言 armbian u-boot LORA NLP remote-ssh alias unalias 别名 ukui 麒麟kylinos openeuler cudnn rust腐蚀 EasyConnect 混合开发 JDK regedit 开机启动 RustDesk自建服务器 rustdesk服务器 docker rustdesk URL etcd 数据安全 RBAC ftp VPS pyqt 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 源码 网络攻击模型 ux 多线程 vscode1.86 1.86版本 ssh远程连接 open Euler dde centos-root /dev/mapper yum clean all df -h / du -sh RTMP 应用层 LLM Web APP Streamlit n8n 工作流 workflow 京东云 big data 昇腾 npu opensearch helm 服务器主板 AI芯片 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x 孤岛惊魂4 hive Hive环境搭建 hive3环境 Hive远程模式 WebRTC gpt OD机试真题 华为OD机试真题 服务器能耗统计 tcp sysctl.conf vm.nr_hugepages adobe 传统数据库升级 银行 单一职责原则 网络编程 聊天服务器 套接字 TCP IPMITOOL BMC 硬件管理 opcua opcda KEPServer安装 flash-attention open webui springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap TrinityCore 魔兽世界 北亚数据恢复 oracle数据恢复 rclone AList webdav fnOS python3.11 IMX317 MIPI H265 VCU lio-sam SLAM ShenTong epoll uv glibc MySql spark HistoryServer Spark YARN jobhistory MQTT协议 消息服务器 代码 matplotlib nfs USB转串口 CH340 Linux的基础指令 sqlite3 自学笔记 小米 澎湃OS Android harmonyOS面试题 邮件APP 免费软件 HiCar CarLife+ CarPlay QT RK3588 软件卸载 系统清理 ruby yolov8 Node-Red 编程工具 流编程 wps 线程 IM即时通讯 剪切板对通 HTML FORMAT 移动魔百盒 safari 阿里云ECS 历史版本 下载 端口 查看 ss etl deployment daemonset statefulset cronjob Windows ai工具 ldap 读写锁 AI Agent 字节智能运维 rnn GIS 遥感 WebGIS 内网环境 链表 arcgis AI-native Docker Desktop deepseek r1 make命令 makefile文件 ragflow 粘包问题 pyautogui 网卡的名称修改 eth0 ens33 triton 模型分析 less 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors rag ragflow 源码启动 运维监控 c/c++ 串口 vpn 办公自动化 自动化生成 pdf教程 小番茄C盘清理 便捷易用C盘清理工具 小番茄C盘清理的优势尽显何处? 教你深度体验小番茄C盘清理 C盘变红?!不知所措? C盘瘦身后电脑会发生什么变化? Deepseek-R1 私有化部署 推理模型 代理 用户缓冲区 模拟实现 onlyoffice 镜像 无人机 PX4 ROS anaconda MacOS Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 fd 文件描述符 SRS 流媒体 直播 Linux find grep 钉钉 防火墙 NAT转发 NAT Server SSH 服务 SSH Server OpenSSH Server dash 正则表达式 企业网络规划 华为eNSP db navicat DeepSeek r1 cocoapods xcode cd 目录切换 OpenManus 常用命令 文本命令 目录命令 SenseVoice 抓包工具 宝塔 游戏引擎 蓝桥杯 Attention x64 SIGSEGV xmm0 信创 信创终端 中科方德 信号处理 miniapp 真机调试 调试 debug 断点 网络API请求调试方法 apt 国内源 tensorflow css3 eclipse sentinel 图像处理 visual studio code 知识图谱 xpath定位元素 curl wget bat 串口驱动 CH341 uart 485 swoole 李心怡 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 我的世界 我的世界联机 数码 su sudo UDP bcompare Beyond Compare 模拟器 教程 我的世界服务器搭建 Ubuntu22.04 开发人员主页 加解密 Yakit yaklang 强化学习 trea idea 带外管理 相机 自动化任务管理 服务器时间 流量运营 KylinV10 麒麟操作系统 Vmware 软链接 硬链接 影刀 #影刀RPA# Kali 飞牛nas fnos 键盘 log4j aarch64 编译安装 HPC EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 EMUI 回退 降级 升级 iBMC UltraISO Xinference RAGFlow 实习 vr 树莓派 VNC ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS rustdesk 域名服务 DHCP 符号链接 配置 代理服务器 音乐库 飞牛 中兴光猫 换光猫 网络桥接 自己换光猫 DocFlow mq 灵办AI ubuntu24 vivado24 figma Unity插件 免费域名 域名解析 iventoy VmWare OpenEuler 单元测试 docker命令大全 元服务 应用上架 perl 个人博客 换源 Debian k8s集群资源管理 云原生开发 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 金仓数据库 2025 征文 数据库平替用金仓 edge浏览器 Linux的权限 监控k8s 监控kubernetes Typore rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK Python基础 Python教程 Python技巧 trae AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 查看显卡进程 fuser 显示管理器 lightdm gdm Claude deekseek grub 版本升级 扩容 大模型面经 大模型学习 AnythingLLM AnythingLLM安装 docker run 数据卷挂载 交互模式 游戏开发 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 本地知识库部署 DeepSeek R1 模型 CrewAI rime qemu libvirt WebVM 基础环境 分析解读 流水线 脚本式流水线 程序 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 can 线程池 迁移指南 环境配置 llama.cpp minecraft 信号 并查集 leetcode win服务器架设 windows server dns是什么 如何设置电脑dns dns应该如何设置 查询数据库服务IP地址 SQL Server 双系统 分布式训练 问题解决 网络药理学 生信 gromacs 分子动力学模拟 MD 动力学模拟 webstorm ssh远程登录 Radius 浏览器开发 AI浏览器 ssh漏洞 ssh9.9p2 CVE-2025-23419 状态模式 SVN Server tortoise svn 自动化编程 proxy模式 烟花代码 烟花 元旦 性能调优 安全代理 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 linux上传下载 UOS1070e 健康医疗 互联网医院 VS Code lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 HAProxy 程序员创富 ros2 moveit 机器人运动 物联网开发 软件构建 hexo 虚拟显示器 dity make SEO xshell termius iterm2 实战案例 searxng Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 人工智能生成内容 内网服务器 内网代理 内网通信 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 DBeaver 数据仓库 kerberos keepalived ros yaml Ultralytics 可视化 sonoma 自动更新 Ubuntu共享文件夹 共享目录 Linux共享文件夹 TCP协议 autodl 抗锯齿 互信 毕昇JDK firewall cfssl 服务网格 istio 合成模型 扩散模型 图像生成 P2P HDLC fstab 序列化反序列化 编程 语音识别 milvus jina 匿名管道 QT 5.12.12 QT开发环境 Ubuntu18.04 GRUB引导 Linux技巧 安防软件 端口测试 wpf MVS 海康威视相机 composer CDN 产测工具框架 IMX6ULL 管理框架 EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 本地部署AI大模型 聚类 HarmonyOS OpenHarmony 性能分析 ABAP sequoiaDB 实时互动 开发 虚拟局域网 捆绑 链接 谷歌浏览器 youtube google gmail 图形渲染 wsgiref Web 服务器网关接口 react native Jellyfin prometheus数据采集 prometheus数据模型 prometheus特点 存储维护 NetApp存储 EMC存储 OpenSSH 云桌面 微软 AD域控 证书服务器 大大通 第三代半导体 碳化硅 TrueLicense java-rocketmq 做raid 装系统 Java Applet URL操作 服务器建立 Socket编程 网络文件读取 ardunio BLE 显卡驱动 大模型应用 超融合 h.264 IO模型 容器技术 IPv4 子网掩码 公网IP 私有IP SSH 密钥生成 SSH 公钥 私钥 生成 主从复制 项目部署到linux服务器 项目部署过程 CVE-2024-7347 金融 ubuntu24.04.1 seatunnel fast 考研 在线office cpp-httplib docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 基础入门 iperf3 带宽测试 web3 webgl 对比 工具 meld DiffMerge docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos IMM Redis Desktop 智能音箱 智能家居 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 私有化 软负载 docker desktop image word 热榜 CentOS rpa ArkTs MDK 嵌入式开发工具 论文笔记 sublime text 离线部署dify 解决方案 Mac内存不够用怎么办 数字证书 签署证书 渗透 搭建个人相关服务器 网络建设与运维 推荐算法 智能电视 kernel docker部署Python docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 nlp 嵌入式Linux IPC 欧标 OCPP gnu deep learning 嵌入式系统开发 服务器正确解析请求体 IO kotlin 远程服务 conda配置 conda镜像源 vllm 稳定性 看门狗 Qwen2.5-VL 大模型部署 WLAN ArtTS nosql yum换源 ubuntu20.04 开机黑屏 大模型推理 nvm whistle 网络爬虫 风扇控制软件 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 沙盒 虚幻引擎 macOS 多路转接 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 论文阅读 hosts 代码托管服务 磁盘清理 powerpoint 网络搭建 神州数码 神州数码云平台 云平台 neo4j 数据库开发 database PPI String Cytoscape CytoHubba visual studio js 拓扑图 HarmonyOS NEXT 原生鸿蒙 ranger MySQL8.0 鸿蒙开发 移动开发 top Linux top top命令详解 top命令重点 top常用参数 项目部署 ros1 Noetic 20.04 apt 安装 dock 加速 CentOS Stream seleium 本地化部署 西门子PLC 通讯 玩机技巧 软件分享 软件图标 端口聚合 windows11 达梦 DM8