最新资讯

  • 【保姆级教程】【YOLOv8替换主干网络】【1】使用efficientViT替换YOLOV8主干网络结构

【保姆级教程】【YOLOv8替换主干网络】【1】使用efficientViT替换YOLOV8主干网络结构

2025-04-28 07:37:29 0 阅读

《博主简介》

小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。
更多学习资源,可关注公-仲-hao:【阿旭算法与机器学习】,共同学习交流~
👍感谢小伙伴们点赞、关注!

《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称项目名称
1.【人脸识别与管理系统开发】2.【车牌识别与自动收费管理系统开发】
3.【手势识别系统开发】4.【人脸面部活体检测系统开发】
5.【图片风格快速迁移软件开发】6.【人脸表表情识别系统】
7.【YOLOv8多目标识别与自动标注软件开发】8.【基于YOLOv8深度学习的行人跌倒检测系统】
9.【基于YOLOv8深度学习的PCB板缺陷检测系统】10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统】
11.【基于YOLOv8深度学习的安全帽目标检测系统】12.【基于YOLOv8深度学习的120种犬类检测与识别系统】
13.【基于YOLOv8深度学习的路面坑洞检测系统】14.【基于YOLOv8深度学习的火焰烟雾检测系统】
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统】16.【基于YOLOv8深度学习的舰船目标分类检测系统】
17.【基于YOLOv8深度学习的西红柿成熟度检测系统】18.【基于YOLOv8深度学习的血细胞检测与计数系统】
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统】20.【基于YOLOv8深度学习的水稻害虫检测与识别系统】
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统】22.【基于YOLOv8深度学习的路面标志线检测与识别系统】
22.【基于YOLOv8深度学习的智能小麦害虫检测识别系统】23.【基于YOLOv8深度学习的智能玉米害虫检测识别系统】
24.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统】25.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统】
26.【基于YOLOv8深度学习的人脸面部表情识别系统】

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】

《------正文------》

前言

EfficientViT是一种新的高分辨率视觉模型家族,具有新颖的多尺度线性注意机制。本文详细介绍了如何使用efficientViT网络替换YOLOV8的主干网络结构,并且使用修改后的yolov8进行目标检测训练与推理。本文提供了所有源码免费供小伙伴们学习参考,需要的可以通过文末方式自行下载。

本文使用的ultralytics版本为:ultralytics == 8.0.227

目录

  • 前言
  • 1. efficientViT简介
    • 1.1 efficientViT网络结构
    • 1.2 性能对比
  • 2.使用efficientViT替换YOLOV8主干网络结构
    • 第1步--添加efficientVit.py文件,并导入
    • 第2步--修改tasks.py中的相关内容
      • parse_model函数修改
      • parse_model修改的详细内容对比
      • _predict_once函数修改
    • 第3步:创建配置文件--yolov8-efficientViT.yaml
      • `yolov8.yaml`与`yolov8-efficientViT.yaml`对比
    • 第4步:加载配置文件训练模型
    • 第5步:模型推理
  • 【源码获取】
  • 结束语

1. efficientViT简介

论文发表时间:2023.09.27

github地址:https://github.com/mit-han-lab/efficientvit
paper地址:https://arxiv.org/abs/2205.14756

摘要:高分辨率密集预测技术能够实现许多吸引人的实际应用,比如计算摄影、自动驾驶等。然而,巨大的计算成本使得在硬件设备上部署最先进的高分辨率密集预测模型变得困难。本研究提出了EfficientViT,一种新的高分辨率视觉模型家族,具有新颖的多尺度线性注意机制。与先前依赖于重型softmax注意力、硬件效率低下的大卷积核卷积或复杂的拓扑结构来获得良好性能的高分辨率密集预测模型不同,我们的多尺度线性注意力通过轻量级而且硬件高效的操作实现了全局感受野和多尺度学习(这对高分辨率密集预测是两个理想的特性)。因此,EfficientViT在各种硬件平台上实现了显著的性能提升,并且具有显著的加速能力,包括移动CPU、边缘GPU等

论文亮点如下:
• 我们引入了一种新的多尺度线性注意力模块,用于高效的高分辨率密集预测。它在保持硬件效率的同时实现了全局感知域和多尺度学习。据我们所知,我们的工作是首次展示线性注意力对于高分辨率密集预测的有效性。
• 我们基于提出的多尺度线性注意力模块设计了一种新型的高分辨率视觉模型——EfficientViT。
• 我们的模型在语义分割、超分辨率、任意分割和ImageNet分类等各种硬件平台(移动CPU、边缘GPU和云GPU)上相对于先前的SOTA模型展现出了显著的加速效果。

1.1 efficientViT网络结构


1.2 性能对比


2.使用efficientViT替换YOLOV8主干网络结构

首先,在yolov8官网下载代码并解压,地址如下:

https://github.com/ultralytics/ultralytics

解压后,如下图所示:

第1步–添加efficientVit.py文件,并导入

ultralytics/nn/backbone目录下,新建backbone网络文件efficientVit.py,内容如下:

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.utils.checkpoint as checkpoint
import itertools

from timm.models.layers import SqueezeExcite

import numpy as np
import itertools

__all__ = ['EfficientViT_M0', 'EfficientViT_M1', 'EfficientViT_M2', 'EfficientViT_M3', 'EfficientViT_M4', 'EfficientViT_M5']

class Conv2d_BN(torch.nn.Sequential):
    def __init__(self, a, b, ks=1, stride=1, pad=0, dilation=1,
                 groups=1, bn_weight_init=1, resolution=-10000):
        super().__init__()
        self.add_module('c', torch.nn.Conv2d(
            a, b, ks, stride, pad, dilation, groups, bias=False))
        self.add_module('bn', torch.nn.BatchNorm2d(b))
        torch.nn.init.constant_(self.bn.weight, bn_weight_init)
        torch.nn.init.constant_(self.bn.bias, 0)

    @torch.no_grad()
    def switch_to_deploy(self):
        c, bn = self._modules.values()
        w = bn.weight / (bn.running_var + bn.eps)**0.5
        w = c.weight * w[:, None, None, None]
        b = bn.bias - bn.running_mean * bn.weight / 
            (bn.running_var + bn.eps)**0.5
        m = torch.nn.Conv2d(w.size(1) * self.c.groups, w.size(
            0), w.shape[2:], stride=self.c.stride, padding=self.c.padding, dilation=self.c.dilation, groups=self.c.groups)
        m.weight.data.copy_(w)
        m.bias.data.copy_(b)
        return m

def replace_batchnorm(net):
    for child_name, child in net.named_children():
        if hasattr(child, 'fuse'):
            setattr(net, child_name, child.fuse())
        elif isinstance(child, torch.nn.BatchNorm2d):
            setattr(net, child_name, torch.nn.Identity())
        else:
            replace_batchnorm(child)
            

class PatchMerging(torch.nn.Module):
    def __init__(self, dim, out_dim, input_resolution):
        super().__init__()
        hid_dim = int(dim * 4)
        self.conv1 = Conv2d_BN(dim, hid_dim, 1, 1, 0, resolution=input_resolution)
        self.act = torch.nn.ReLU()
        self.conv2 = Conv2d_BN(hid_dim, hid_dim, 3, 2, 1, groups=hid_dim, resolution=input_resolution)
        self.se = SqueezeExcite(hid_dim, .25)
        self.conv3 = Conv2d_BN(hid_dim, out_dim, 1, 1, 0, resolution=input_resolution // 2)

    def forward(self, x):
        x = self.conv3(self.se(self.act(self.conv2(self.act(self.conv1(x))))))
        return x


class Residual(torch.nn.Module):
    def __init__(self, m, drop=0.):
        super().__init__()
        self.m = m
        self.drop = drop

    def forward(self, x):
        if self.training and self.drop > 0:
            return x + self.m(x) * torch.rand(x.size(0), 1, 1, 1,
                                              device=x.device).ge_(self.drop).div(1 - self.drop).detach()
        else:
            return x + self.m(x)


class FFN(torch.nn.Module):
    def __init__(self, ed, h, resolution):
        super().__init__()
        self.pw1 = Conv2d_BN(ed, h, resolution=resolution)
        self.act = torch.nn.ReLU()
        self.pw2 = Conv2d_BN(h, ed, bn_weight_init=0, resolution=resolution)

    def forward(self, x):
        x = self.pw2(self.act(self.pw1(x)))
        return x


class CascadedGroupAttention(torch.nn.Module):
    r""" Cascaded Group Attention.

    Args:
        dim (int): Number of input channels.
        key_dim (int): The dimension for query and key.
        num_heads (int): Number of attention heads.
        attn_ratio (int): Multiplier for the query dim for value dimension.
        resolution (int): Input resolution, correspond to the window size.
        kernels (List[int]): The kernel size of the dw conv on query.
    """
    def __init__(self, dim, key_dim, num_heads=8,
                 attn_ratio=4,
                 resolution=14,
                 kernels=[5, 5, 5, 5],):
        super().__init__()
        self.num_heads = num_heads
        self.scale = key_dim ** -0.5
        self.key_dim = key_dim
        self.d = int(attn_ratio * key_dim)
        self.attn_ratio = attn_ratio

        qkvs = []
        dws = []
        for i in range(num_heads):
            qkvs.append(Conv2d_BN(dim // (num_heads), self.key_dim * 2 + self.d, resolution=resolution))
            dws.append(Conv2d_BN(self.key_dim, self.key_dim, kernels[i], 1, kernels[i]//2, groups=self.key_dim, resolution=resolution))
        self.qkvs = torch.nn.ModuleList(qkvs)
        self.dws = torch.nn.ModuleList(dws)
        self.proj = torch.nn.Sequential(torch.nn.ReLU(), Conv2d_BN(
            self.d * num_heads, dim, bn_weight_init=0, resolution=resolution))

        points = list(itertools.product(range(resolution), range(resolution)))
        N = len(points)
        attention_offsets = {}
        idxs = []
        for p1 in points:
            for p2 in points:
                offset = (abs(p1[0] - p2[0]), abs(p1[1] - p2[1]))
                if offset not in attention_offsets:
                    attention_offsets[offset] = len(attention_offsets)
                idxs.append(attention_offsets[offset])
        self.attention_biases = torch.nn.Parameter(
            torch.zeros(num_heads, len(attention_offsets)))
        self.register_buffer('attention_bias_idxs',
                             torch.LongTensor(idxs).view(N, N))

    @torch.no_grad()
    def train(self, mode=True):
        super().train(mode)
        if mode and hasattr(self, 'ab'):
            del self.ab
        else:
            self.ab = self.attention_biases[:, self.attention_bias_idxs]

    def forward(self, x):  # x (B,C,H,W)
        B, C, H, W = x.shape
        trainingab = self.attention_biases[:, self.attention_bias_idxs]
        feats_in = x.chunk(len(self.qkvs), dim=1)
        feats_out = []
        feat = feats_in[0]
        for i, qkv in enumerate(self.qkvs):
            if i > 0: # add the previous output to the input
                feat = feat + feats_in[i]
            feat = qkv(feat)
            q, k, v = feat.view(B, -1, H, W).split([self.key_dim, self.key_dim, self.d], dim=1) # B, C/h, H, W
            q = self.dws[i](q)
            q, k, v = q.flatten(2), k.flatten(2), v.flatten(2) # B, C/h, N
            attn = (
                (q.transpose(-2, -1) @ k) * self.scale
                +
                (trainingab[i] if self.training else self.ab[i])
            )
            attn = attn.softmax(dim=-1) # BNN
            feat = (v @ attn.transpose(-2, -1)).view(B, self.d, H, W) # BCHW
            feats_out.append(feat)
        x = self.proj(torch.cat(feats_out, 1))
        return x


class LocalWindowAttention(torch.nn.Module):
    r""" Local Window Attention.

    Args:
        dim (int): Number of input channels.
        key_dim (int): The dimension for query and key.
        num_heads (int): Number of attention heads.
        attn_ratio (int): Multiplier for the query dim for value dimension.
        resolution (int): Input resolution.
        window_resolution (int): Local window resolution.
        kernels (List[int]): The kernel size of the dw conv on query.
    """
    def __init__(self, dim, key_dim, num_heads=8,
                 attn_ratio=4,
                 resolution=14,
                 window_resolution=7,
                 kernels=[5, 5, 5, 5],):
        super().__init__()
        self.dim = dim
        self.num_heads = num_heads
        self.resolution = resolution
        assert window_resolution > 0, 'window_size must be greater than 0'
        self.window_resolution = window_resolution
        
        self.attn = CascadedGroupAttention(dim, key_dim, num_heads,
                                attn_ratio=attn_ratio, 
                                resolution=window_resolution,
                                kernels=kernels,)

    def forward(self, x):
        B, C, H, W = x.shape
               
        if H <= self.window_resolution and W <= self.window_resolution:
            x = self.attn(x)
        else:
            x = x.permute(0, 2, 3, 1)
            pad_b = (self.window_resolution - H %
                     self.window_resolution) % self.window_resolution
            pad_r = (self.window_resolution - W %
                     self.window_resolution) % self.window_resolution
            padding = pad_b > 0 or pad_r > 0

            if padding:
                x = torch.nn.functional.pad(x, (0, 0, 0, pad_r, 0, pad_b))

            pH, pW = H + pad_b, W + pad_r
            nH = pH // self.window_resolution
            nW = pW // self.window_resolution
            # window partition, BHWC -> B(nHh)(nWw)C -> BnHnWhwC -> (BnHnW)hwC -> (BnHnW)Chw
            x = x.view(B, nH, self.window_resolution, nW, self.window_resolution, C).transpose(2, 3).reshape(
                B * nH * nW, self.window_resolution, self.window_resolution, C
            ).permute(0, 3, 1, 2)
            x = self.attn(x)
            # window reverse, (BnHnW)Chw -> (BnHnW)hwC -> BnHnWhwC -> B(nHh)(nWw)C -> BHWC
            x = x.permute(0, 2, 3, 1).view(B, nH, nW, self.window_resolution, self.window_resolution,
                       C).transpose(2, 3).reshape(B, pH, pW, C)

            if padding:
                x = x[:, :H, :W].contiguous()

            x = x.permute(0, 3, 1, 2)

        return x


class EfficientViTBlock(torch.nn.Module):
    """ A basic EfficientViT building block.

    Args:
        type (str): Type for token mixer. Default: 's' for self-attention.
        ed (int): Number of input channels.
        kd (int): Dimension for query and key in the token mixer.
        nh (int): Number of attention heads.
        ar (int): Multiplier for the query dim for value dimension.
        resolution (int): Input resolution.
        window_resolution (int): Local window resolution.
        kernels (List[int]): The kernel size of the dw conv on query.
    """
    def __init__(self, type,
                 ed, kd, nh=8,
                 ar=4,
                 resolution=14,
                 window_resolution=7,
                 kernels=[5, 5, 5, 5],):
        super().__init__()
            
        self.dw0 = Residual(Conv2d_BN(ed, ed, 3, 1, 1, groups=ed, bn_weight_init=0., resolution=resolution))
        self.ffn0 = Residual(FFN(ed, int(ed * 2), resolution))

        if type == 's':
            self.mixer = Residual(LocalWindowAttention(ed, kd, nh, attn_ratio=ar, 
                    resolution=resolution, window_resolution=window_resolution, kernels=kernels))
                
        self.dw1 = Residual(Conv2d_BN(ed, ed, 3, 1, 1, groups=ed, bn_weight_init=0., resolution=resolution))
        self.ffn1 = Residual(FFN(ed, int(ed * 2), resolution))

    def forward(self, x):
        return self.ffn1(self.dw1(self.mixer(self.ffn0(self.dw0(x)))))


class EfficientViT(torch.nn.Module):
    def __init__(self, img_size=400,
                 patch_size=16,
                 frozen_stages=0,
                 in_chans=3,
                 stages=['s', 's', 's'],
                 embed_dim=[64, 128, 192],
                 key_dim=[16, 16, 16],
                 depth=[1, 2, 3],
                 num_heads=[4, 4, 4],
                 window_size=[7, 7, 7],
                 kernels=[5, 5, 5, 5],
                 down_ops=[['subsample', 2], ['subsample', 2], ['']],
                 pretrained=None,
                 distillation=False,):
        super().__init__()

        resolution = img_size
        self.patch_embed = torch.nn.Sequential(Conv2d_BN(in_chans, embed_dim[0] // 8, 3, 2, 1, resolution=resolution), torch.nn.ReLU(),
                           Conv2d_BN(embed_dim[0] // 8, embed_dim[0] // 4, 3, 2, 1, resolution=resolution // 2), torch.nn.ReLU(),
                           Conv2d_BN(embed_dim[0] // 4, embed_dim[0] // 2, 3, 2, 1, resolution=resolution // 4), torch.nn.ReLU(),
                           Conv2d_BN(embed_dim[0] // 2, embed_dim[0], 3, 1, 1, resolution=resolution // 8))

        resolution = img_size // patch_size
        attn_ratio = [embed_dim[i] / (key_dim[i] * num_heads[i]) for i in range(len(embed_dim))]
        self.blocks1 = []
        self.blocks2 = []
        self.blocks3 = []
        for i, (stg, ed, kd, dpth, nh, ar, wd, do) in enumerate(
                zip(stages, embed_dim, key_dim, depth, num_heads, attn_ratio, window_size, down_ops)):
            for d in range(dpth):
                eval('self.blocks' + str(i+1)).append(EfficientViTBlock(stg, ed, kd, nh, ar, resolution, wd, kernels))
            if do[0] == 'subsample':
                #('Subsample' stride)
                blk = eval('self.blocks' + str(i+2))
                resolution_ = (resolution - 1) // do[1] + 1
                blk.append(torch.nn.Sequential(Residual(Conv2d_BN(embed_dim[i], embed_dim[i], 3, 1, 1, groups=embed_dim[i], resolution=resolution)),
                                    Residual(FFN(embed_dim[i], int(embed_dim[i] * 2), resolution)),))
                blk.append(PatchMerging(*embed_dim[i:i + 2], resolution))
                resolution = resolution_
                blk.append(torch.nn.Sequential(Residual(Conv2d_BN(embed_dim[i + 1], embed_dim[i + 1], 3, 1, 1, groups=embed_dim[i + 1], resolution=resolution)),
                                    Residual(FFN(embed_dim[i + 1], int(embed_dim[i + 1] * 2), resolution)),))
        self.blocks1 = torch.nn.Sequential(*self.blocks1)
        self.blocks2 = torch.nn.Sequential(*self.blocks2)
        self.blocks3 = torch.nn.Sequential(*self.blocks3)
        
        self.channel = [i.size(1) for i in self.forward(torch.randn(1, 3, 640, 640))]

    def forward(self, x):
        outs = []
        x = self.patch_embed(x)
        x = self.blocks1(x)
        outs.append(x)
        x = self.blocks2(x)
        outs.append(x)
        x = self.blocks3(x)
        outs.append(x)
        return outs

EfficientViT_m0 = {
        'img_size': 224,
        'patch_size': 16,
        'embed_dim': [64, 128, 192],
        'depth': [1, 2, 3],
        'num_heads': [4, 4, 4],
        'window_size': [7, 7, 7],
        'kernels': [7, 5, 3, 3],
    }

EfficientViT_m1 = {
        'img_size': 224,
        'patch_size': 16,
        'embed_dim': [128, 144, 192],
        'depth': [1, 2, 3],
        'num_heads': [2, 3, 3],
        'window_size': [7, 7, 7],
        'kernels': [7, 5, 3, 3],
    }

EfficientViT_m2 = {
        'img_size': 224,
        'patch_size': 16,
        'embed_dim': [128, 192, 224],
        'depth': [1, 2, 3],
        'num_heads': [4, 3, 2],
        'window_size': [7, 7, 7],
        'kernels': [7, 5, 3, 3],
    }

EfficientViT_m3 = {
        'img_size': 224,
        'patch_size': 16,
        'embed_dim': [128, 240, 320],
        'depth': [1, 2, 3],
        'num_heads': [4, 3, 4],
        'window_size': [7, 7, 7],
        'kernels': [5, 5, 5, 5],
    }

EfficientViT_m4 = {
        'img_size': 224,
        'patch_size': 16,
        'embed_dim': [128, 256, 384],
        'depth': [1, 2, 3],
        'num_heads': [4, 4, 4],
        'window_size': [7, 7, 7],
        'kernels': [7, 5, 3, 3],
    }

EfficientViT_m5 = {
        'img_size': 224,
        'patch_size': 16,
        'embed_dim': [192, 288, 384],
        'depth': [1, 3, 4],
        'num_heads': [3, 3, 4],
        'window_size': [7, 7, 7],
        'kernels': [7, 5, 3, 3],
    }

def EfficientViT_M0(pretrained='', frozen_stages=0, distillation=False, fuse=False, pretrained_cfg=None, model_cfg=EfficientViT_m0):
    model = EfficientViT(frozen_stages=frozen_stages, distillation=distillation, pretrained=pretrained, **model_cfg)
    if pretrained:
        model.load_state_dict(update_weight(model.state_dict(), torch.load(pretrained)['model']))
    if fuse:
        replace_batchnorm(model)
    return model

def EfficientViT_M1(pretrained='', frozen_stages=0, distillation=False, fuse=False, pretrained_cfg=None, model_cfg=EfficientViT_m1):
    model = EfficientViT(frozen_stages=frozen_stages, distillation=distillation, pretrained=pretrained, **model_cfg)
    if pretrained:
        model.load_state_dict(update_weight(model.state_dict(), torch.load(pretrained)['model']))
    if fuse:
        replace_batchnorm(model)
    return model

def EfficientViT_M2(pretrained='', frozen_stages=0, distillation=False, fuse=False, pretrained_cfg=None, model_cfg=EfficientViT_m2):
    model = EfficientViT(frozen_stages=frozen_stages, distillation=distillation, pretrained=pretrained, **model_cfg)
    if pretrained:
        model.load_state_dict(update_weight(model.state_dict(), torch.load(pretrained)['model']))
    if fuse:
        replace_batchnorm(model)
    return model

def EfficientViT_M3(pretrained='', frozen_stages=0, distillation=False, fuse=False, pretrained_cfg=None, model_cfg=EfficientViT_m3):
    model = EfficientViT(frozen_stages=frozen_stages, distillation=distillation, pretrained=pretrained, **model_cfg)
    if pretrained:
        model.load_state_dict(update_weight(model.state_dict(), torch.load(pretrained)['model']))
    if fuse:
        replace_batchnorm(model)
    return model
    
def EfficientViT_M4(pretrained='', frozen_stages=0, distillation=False, fuse=False, pretrained_cfg=None, model_cfg=EfficientViT_m4):
    model = EfficientViT(frozen_stages=frozen_stages, distillation=distillation, pretrained=pretrained, **model_cfg)
    if pretrained:
        model.load_state_dict(update_weight(model.state_dict(), torch.load(pretrained)['model']))
    if fuse:
        replace_batchnorm(model)
    return model

def EfficientViT_M5(pretrained='', frozen_stages=0, distillation=False, fuse=False, pretrained_cfg=None, model_cfg=EfficientViT_m5):
    model = EfficientViT(frozen_stages=frozen_stages, distillation=distillation, pretrained=pretrained, **model_cfg)
    if pretrained:
        model.load_state_dict(update_weight(model.state_dict(), torch.load(pretrained)['model']))
    if fuse:
        replace_batchnorm(model)
    return model

def update_weight(model_dict, weight_dict):
    idx, temp_dict = 0, {}
    for k, v in weight_dict.items():
        # k = k[9:]
        if k in model_dict.keys() and np.shape(model_dict[k]) == np.shape(v):
            temp_dict[k] = v
            idx += 1
    model_dict.update(temp_dict)
    print(f'loading weights... {idx}/{len(model_dict)} items')
    return model_dict

ultralytics/nn/tasks.py中导入刚才的efficientVit模块:

# 主干网络
from ultralytics.nn.backbone.efficientViT import *

第2步–修改tasks.py中的相关内容

parse_model函数修改

修改ultralytics/nn/tasks.py中的parse_model函数,修改后完整代码如下:

def parse_model(d, ch, verbose=True):  # model_dict, input_channels(3)
    """Parse a YOLO model.yaml dictionary into a PyTorch model."""
    import ast

    # Args
    max_channels = float('inf')
    nc, act, scales = (d.get(x) for x in ('nc', 'activation', 'scales'))
    depth, width, kpt_shape = (d.get(x, 1.0) for x in ('depth_multiple', 'width_multiple', 'kpt_shape'))
    if scales:
        scale = d.get('scale')
        if not scale:
            scale = tuple(scales.keys())[0]
            LOGGER.warning(f"WARNING ⚠️ no model scale passed. Assuming scale='{scale}'.")
        depth, width, max_channels = scales[scale]

    if act:
        Conv.default_act = eval(act)  # redefine default activation, i.e. Conv.default_act = nn.SiLU()
        if verbose:
            LOGGER.info(f"{colorstr('activation:')} {act}")  # print

    if verbose:
        LOGGER.info(f"
{'':>3}{'from':>20}{'n':>3}{'params':>10}  {'module':<45}{'arguments':<30}")
    ch = [ch]
    layers, save, c2 = [], [], ch[-1]  # layers, savelist, ch out
    is_backbone = False
    for i, (f, n, m, args) in enumerate(d['backbone'] + d['head']):  # from, number, module, args
        try:
            if m == 'node_mode':
                m = d[m]
                if len(args) > 0:
                    if args[0] == 'head_channel':
                        args[0] = int(d[args[0]])
            t = m
            m = getattr(torch.nn, m[3:]) if 'nn.' in m else globals()[m]  # get module
        except:
            pass
        for j, a in enumerate(args):
            if isinstance(a, str):
                with contextlib.suppress(ValueError):
                    try:
                        args[j] = locals()[a] if a in locals() else ast.literal_eval(a)
                    except:
                        args[j] = a

        n = n_ = max(round(n * depth), 1) if n > 1 else n  # depth gain
        if m in (Classify, Conv, ConvTranspose, GhostConv, Bottleneck, GhostBottleneck, SPP, SPPF, DWConv, Focus,
                 BottleneckCSP, C1, C2, C2f, C3, C3TR, C3Ghost, nn.ConvTranspose2d, DWConvTranspose2d, C3x, RepC3):
            c1, c2 = ch[f], args[0]
            if c2 != nc:  # if c2 not equal to number of classes (i.e. for Classify() output)
                c2 = make_divisible(min(c2, max_channels) * width, 8)

            args = [c1, c2, *args[1:]]
            if m in (BottleneckCSP, C1, C2, C2f, C3, C3TR, C3Ghost, C3x, RepC3):
                args.insert(2, n)  # number of repeats
                n = 1
        elif m is AIFI:
            args = [ch[f], *args]
        elif m in (HGStem, HGBlock):
            c1, cm, c2 = ch[f], args[0], args[1]
            args = [c1, cm, c2, *args[2:]]
            if m is HGBlock:
                args.insert(4, n)  # number of repeats
                n = 1
        elif m is ResNetLayer:
            c2 = args[1] if args[3] else args[1] * 4
        elif m is nn.BatchNorm2d:
            args = [ch[f]]
        elif m is Concat:
            c2 = sum(ch[x] for x in f)
        elif m in (Detect, Segment, Pose):
            args.append([ch[x] for x in f])
            if m is Segment:
                args[2] = make_divisible(min(args[2], max_channels) * width, 8)
        elif m is RTDETRDecoder:  # special case, channels arg must be passed in index 1
            args.insert(1, [ch[x] for x in f])
        elif m in {MHSA, ShuffleAttention}:
            args = [ch[f], *args]
        elif m in {EfficientViT_M0, EfficientViT_M1, EfficientViT_M2, EfficientViT_M3, EfficientViT_M4, EfficientViT_M5}:
            m = m(*args)
            c2 = m.channel
        else:
            c2 = ch[f]

        if isinstance(c2, list):
            is_backbone = True
            m_ = m
            m_.backbone = True
        else:
            m_ = nn.Sequential(*(m(*args) for _ in range(n))) if n > 1 else m(*args)  # module
            t = str(m)[8:-2].replace('__main__.', '')  # module type
        m.np = sum(x.numel() for x in m_.parameters())  # number params
        m_.i, m_.f, m_.type = i + 4 if is_backbone else i, f, t  # attach index, 'from' index, type
        if verbose:
            LOGGER.info(f'{i:>3}{str(f):>20}{n_:>3}{m.np:10.0f}  {t:<45}{str(args):<30}')  # print
        save.extend(x % (i + 4 if is_backbone else i) for x in ([f] if isinstance(f, int) else f) if
                    x != -1)  # append to savelist
        layers.append(m_)


        if i == 0:
            ch = []
        if isinstance(c2, list):
            ch.extend(c2)
            for _ in range(5 - len(ch)):
                ch.insert(0, 0)
        else:
            ch.append(c2)
    return nn.Sequential(*layers), sorted(save)

parse_model修改的详细内容对比

  1. efficientVit.py中的all参数中的函数名,写入tasks.py的判断分支中。
    新建if判断分支,添加如下内容:
        elif m in {efficientvit_b0, efficientvit_b1, efficientvit_b2, efficientvit_b3}:
            m = m(*args)
            c2 = m.channel

2.修改下图解析部分代码1,如下图:

修改前:

修改后:

代码如下:

    is_backbone = False
    for i, (f, n, m, args) in enumerate(d['backbone'] + d['head']):  # from, number, module, args
        try:
            if m == 'node_mode':
                m = d[m]
                if len(args) > 0:
                    if args[0] == 'head_channel':
                        args[0] = int(d[args[0]])
            t = m
            m = getattr(torch.nn, m[3:]) if 'nn.' in m else globals()[m]  # get module
        except:
            pass
        for j, a in enumerate(args):
            if isinstance(a, str):
                with contextlib.suppress(ValueError):
                    try:
                        args[j] = locals()[a] if a in locals() else ast.literal_eval(a)
                    except:
                        args[j] = a

3.修改下面截图中的部分代码2

修改前:

修改后:

代码如下:

        if isinstance(c2, list):
            is_backbone = True
            m_ = m
            m_.backbone = True
        else:
            m_ = nn.Sequential(*(m(*args) for _ in range(n))) if n > 1 else m(*args)  # module
            t = str(m)[8:-2].replace('__main__.', '')  # module type
        
        m.np = sum(x.numel() for x in m_.parameters())  # number params
        m_.i, m_.f, m_.type = i + 4 if is_backbone else i, f, t  # attach index, 'from' index, type
        if verbose:
            LOGGER.info(f'{i:>3}{str(f):>20}{n_:>3}{m.np:10.0f}  {t:<45}{str(args):<30}')  # print
        save.extend(x % (i + 4 if is_backbone else i) for x in ([f] if isinstance(f, int) else f) if x != -1)  # append to savelist
        layers.append(m_)

4.修改下面截图部分代码

修改前:

修改后:

修改代码为:

        if isinstance(c2, list):
            ch.extend(c2)
            for _ in range(5 - len(ch)):
                ch.insert(0, 0)
        else:
            ch.append(c2)

_predict_once函数修改

替换ultralytics/nn/tasks.py中的BaseModel类的_predict_once函数,代码如下:

def _predict_once(self, x, profile=False, visualize=False):
        """
        Perform a forward pass through the network.

        Args:
            x (torch.Tensor): The input tensor to the model.
            profile (bool):  Print the computation time of each layer if True, defaults to False.
            visualize (bool): Save the feature maps of the model if True, defaults to False.

        Returns:
            (torch.Tensor): The last output of the model.
        """
        y, dt = [], []  # outputs
        for m in self.model:
            if m.f != -1:  # if not from previous layer
                x = y[m.f] if isinstance(m.f, int) else [x if j == -1 else y[j] for j in m.f]  # from earlier layers
            if profile:
                self._profile_one_layer(m, x, dt)
            if hasattr(m, 'backbone'):
                x = m(x)
                for _ in range(5 - len(x)):
                    x.insert(0, None)
                for i_idx, i in enumerate(x):
                    if i_idx in self.save:
                        y.append(i)
                    else:
                        y.append(None)
                # for i in x:
                #     if i is not None:
                #         print(i.size())
                x = x[-1]
            else:
                x = m(x)  # run
                y.append(x if m.i in self.save else None)  # save output
            if visualize:
                feature_visualization(x, m.type, m.i, save_dir=visualize)
        return x

第3步:创建配置文件–yolov8-efficientViT.yaml

ultralytics/cfg/models/v8目录下,创建新的配置文件yolov8-efficientViT.yaml,内容如下:

注:可以使用EfficientViT_M0, EfficientViT_M1, EfficientViT_M2, EfficientViT_M3, EfficientViT_M4, EfficientViT_M5中的任何一个,参数量不同。

# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLOv8 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect

# Parameters
nc: 80  # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.33, 0.25, 1024]  # YOLOv8n summary: 225 layers,  3157200 parameters,  3157184 gradients,   8.9 GFLOPs
  s: [0.33, 0.50, 1024]  # YOLOv8s summary: 225 layers, 11166560 parameters, 11166544 gradients,  28.8 GFLOPs
  m: [0.67, 0.75, 768]   # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients,  79.3 GFLOPs
  l: [1.00, 1.00, 512]   # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs
  x: [1.00, 1.25, 512]   # YOLOv8x summary: 365 layers, 68229648 parameters, 68229632 gradients, 258.5 GFLOPs

# 0-P1/2
# 1-P2/4
# 2-P3/8
# 3-P4/16
# 4-P5/32

# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, EfficientViT_M0, []]  # 4
  - [-1, 1, SPPF, [1024, 5]]  # 5

# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, 'nearest']] # 6
  - [[-1, 3], 1, Concat, [1]]  # 7 cat backbone P4
  - [-1, 3, C2f, [512]]  # 8

  - [-1, 1, nn.Upsample, [None, 2, 'nearest']] # 9
  - [[-1, 2], 1, Concat, [1]]  # 10 cat backbone P3
  - [-1, 3, C2f, [256]]  # 11 (P3/8-small)

  - [-1, 1, Conv, [256, 3, 2]] # 12
  - [[-1, 8], 1, Concat, [1]]  # 13 cat head P4
  - [-1, 3, C2f, [512]]  # 14 (P4/16-medium)

  - [-1, 1, Conv, [512, 3, 2]] # 15
  - [[-1, 5], 1, Concat, [1]]  # 16 cat head P5
  - [-1, 3, C2f, [1024]]  # 17 (P5/32-large)

  - [[11, 14, 17], 1, Detect, [nc]]  # Detect(P3, P4, P5)

yolov8.yamlyolov8-efficientViT.yaml对比

backbone部分:yolov8.yamlyolov8-efficientViT.yaml对比:

head部分:yolov8.yamlyolov8-efficientViT.yaml对比:【注意层数的变化,所以要修改对应的层数数字部分

第4步:加载配置文件训练模型

运行训练代码train.py文件,内容如下:

#coding:utf-8
# 替换主干网络,训练
from ultralytics import YOLO

if __name__ == '__main__':
    model = YOLO('ultralytics/cfg/models/v8/yolov8-efficientViT.yaml')
    model.load('yolov8n.pt') # loading pretrain weights
    model.train(data='datasets/TomatoData/data.yaml', epochs=250, batch=4)

第5步:模型推理

模型训练完成后,我们使用训练好的模型对图片进行检测:

#coding:utf-8
from ultralytics import YOLO
import cv2

# 所需加载的模型目录
# path = 'models/best2.pt'
path = 'runs/detect/train9/weights/best.pt'
# 需要检测的图片地址
img_path = "TestFiles/Riped tomato_31.jpeg"

# 加载预训练模型
# conf	0.25	object confidence threshold for detection
# iou	0.7	intersection over union (IoU) threshold for NMS
model = YOLO(path, task='detect')


# 检测图片
results = model(img_path)
res = results[0].plot()
# res = cv2.resize(res,dsize=None,fx=2,fy=2,interpolation=cv2.INTER_LINEAR)
cv2.imshow("YOLOv8 Detection", res)
cv2.waitKey(0)

【源码获取】

为了小伙伴们能够,更好的学习实践,本文已将所有代码、数据集、论文等相关内容打包上传,供小伙伴们学习。获取方式如下:

关注下方名片G-Z-H:【阿旭算法与机器学习】,发送【yolov8改进】即可免费获取


结束语

关于本篇文章大家有任何建议或意见,欢迎在评论区留言交流!

觉得不错的小伙伴,感谢点赞、关注加收藏哦!

本文地址:https://www.vps345.com/4415.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 ssh deepseek Ollama 模型联网 API CherryStudio python MCP 数据库 centos oracle 关系型 安全 分布式 llama 算法 opencv 自然语言处理 神经网络 语言模型 javascript 前端 chrome edge 进程 操作系统 进程控制 Ubuntu harmonyos 华为 开发语言 typescript 计算机网络 ubuntu 阿里云 网络 网络安全 网络协议 react.js 前端面试题 node.js 持续部署 zotero WebDAV 同步失败 代理模式 科技 ai java 人工智能 个人开发 IIS .net core Hosting Bundle .NET Framework vs2022 ollama llm php android Dell R750XS nuxt3 vue3 sql KingBase 银河麒麟 kylin v10 麒麟 v10 spring boot websocket docker 实时音视频 c++ c语言 adb nginx 监控 自动化运维 笔记 C 环境变量 进程地址空间 json html5 firefox django fastapi flask web3.py gitlab numpy 自动化 蓝耘科技 元生代平台工作流 ComfyUI spring RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 经验分享 联想开天P90Z装win10 matlab gitee github windows YOLOv8 NPU Atlas800 A300I pro asi_bench http ecm bpm 运维开发 容器 vscode ide mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 tcp/ip web安全 安全架构 MCP server agent C/S LLM agi AIGC 计算机视觉 ansible playbook gpu算力 深度学习 AI编程 golang 后端 macos 华为云 物联网 YOLO pytorch uni-app Dify Docker Compose docker compose docker-compose FunASR ASR android studio 交互 fpga开发 pycharm 集成学习 集成测试 消息队列 权限 ssl rust mysql 媒体 深度优先 图论 并集查找 换根法 树上倍增 AI MNN DeepSeek Qwen 电脑 kubernetes jenkins 云原生 ci/cd arm开发 架构 银河麒麟桌面操作系统 Kylin OS 国产化 串口服务器 pppoe radius ESP32 AI agent vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 java-ee udp IIS服务器 IIS性能 日志监控 react next.js 部署 部署next.js 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP 报错 excel qt 多线程服务器 TCP服务器 qt项目 qt项目实战 qt教程 bash 小程序 JAVA IDEA Java idm Docker Hub docker pull 镜像源 daemon.json Linux 根服务器 spring cloud redis 宝塔面板 同步 备份 建站 安全威胁分析 vscode 1.86 mcp mcp-proxy mcp-inspector fastapi-mcp sse 豆瓣 追剧助手 迅雷 nas 微信 内存 网络结构图 目标检测 LDAP https jvm kylin aws googlecloud eureka 服务器繁忙 备选 网站 api 调用 示例 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 tomcat maven intellij idea filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 MQTT mosquitto 智能路由器 外网访问 内网穿透 端口映射 mongodb Cursor openssl 密码学 shell conda pillow intellij-idea kafka hibernate 统信 国产操作系统 虚拟机安装 游戏程序 pygame 小游戏 五子棋 ffmpeg 音视频 git 远程工作 vim ftp apache 孤岛惊魂4 重启 排查 系统重启 日志 原因 学习方法 程序人生 僵尸进程 microsoft DeepSeek-R1 API接口 Headless Linux flash-attention 远程登录 telnet pdf Linux网络编程 visualstudio 银河麒麟操作系统 编辑器 live555 rtsp rtp 嵌入式硬件 驱动开发 硬件工程 嵌入式实习 爬虫 Hyper-V WinRM TrustedHosts ecmascript nextjs reactjs Reactor 设计模式 性能优化 C++ 网络工程师 华为认证 搜索引擎 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 MI300x ux 多线程 机器学习 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 开发环境 SSL证书 svn 能力提升 面试宝典 技术 IT信息化 创意 社区 数据集 c# Flask FastAPI Waitress Gunicorn uWSGI Uvicorn prometheus rpc 远程过程调用 Windows环境 直播推流 腾讯云 向日葵 佛山戴尔服务器维修 佛山三水服务器维修 面试 jdk flutter 企业微信 Linux24.04 deepin 学习 safari pip Mac 系统 系统架构 seatunnel DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 智能音箱 智能家居 加解密 Yakit yaklang jmeter 软件测试 多个客户端访问 IO多路复用 回显服务器 TCP相关API 历史版本 下载 安装 Agent bootstrap html web Socket 软考 黑客 计算机 jupyter wireshark 测试工具 嵌入式 linux驱动开发 XCC Lenovo iperf3 带宽测试 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 繁忙 解决办法 替代网站 汇总推荐 AI推理 CDN mac 模拟器 教程 大模型 ShenTong dba 统信UOS 麒麟 bonding 链路聚合 devops 压力测试 开机自启动 开源 rag ragflow ragflow 源码启动 tailscale derp derper 中转 医疗APP开发 app开发 1024程序员节 unity elasticsearch 数据挖掘 IM即时通讯 QQ 剪切板对通 HTML FORMAT express 游戏服务器 Minecraft 程序 ddos 防火墙 NAT转发 NAT Server Unity Dedicated Server Host Client 无头主机 stm32项目 单片机 stm32 ip embedding wsl cursor sqlserver 负载均衡 网络攻击模型 mamba Vmamba 课程设计 大数据 debian windows日志 glibc npm Kali 虚拟机 list 模拟实现 thingsboard postgresql LORA 大语言模型 NLP lio-sam SLAM H3C iDRAC R720xd 微服务 r语言 freebsd fd 文件描述符 ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS dell服务器 go 图形化界面 css3 zabbix 游戏引擎 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 XFS xfs文件系统损坏 I_O error es yum apt cocoapods xcode AI-native Docker Desktop HiCar CarLife+ CarPlay QT RK3588 iot 中兴光猫 换光猫 网络桥接 自己换光猫 yolov8 Node-Red 编程工具 流编程 SenseVoice springsecurity6 oauth2 授权服务器 前后端分离 openEuler jar k8s 服务器主板 AI芯片 信息与通信 单元测试 功能测试 selenium file server http server web server 个人博客 X11 Xming ruoyi 前端框架 TRAE minio 远程连接 rdp 实验 我的世界服务器搭建 换源 国内源 Debian asm linux 命令 sed 命令 王者荣耀 Wi-Fi chatgpt 微信小程序 Spring Security springboot 我的世界 我的世界联机 数码 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK 代码调试 ipdb oceanbase rc.local 开机自启 systemd 系统安全 缓存 鸿蒙 华为od ISO镜像作为本地源 virtualenv wsl2 云电竞 云电脑 todesk 机器人 视觉检测 职场和发展 db jetty undertow Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 UOS 统信操作系统 yaml Ultralytics 可视化 智能手机 NAS Termux Samba ui HarmonyOS Next onlyoffice unix 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 selete 高级IO llama3 Chatglm 开源大模型 无人机 远程桌面 gaussdb xss 图像处理 3d 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 微信分享 Image wxopensdk hugo tensorflow ocr 腾讯云大模型知识引擎 Deepseek 思科模拟器 思科 Cisco gradle kind AI写作 AI作画 聊天室 frp Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 KylinV10 麒麟操作系统 Vmware 其他 银河麒麟服务器操作系统 系统激活 Linux的基础指令 visual studio code xpath定位元素 redhat ios Radius 小艺 Pura X muduo 数据结构 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 群晖 iBMC UltraISO windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 鲲鹏 昇腾 npu EMQX 通信协议 CUDA PyTorch GCC aarch64 编译安装 HPC grafana junit 实习 SEO 漏洞 显示管理器 lightdm gdm Typore 树莓派 VNC VR手套 数据手套 动捕手套 动捕数据手套 文件系统 路径解析 阻塞队列 生产者消费者模型 服务器崩坏原因 laravel vue css less webrtc SSH Xterminal 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 输入法 unity3d log4j 数学建模 rabbitmq 网络穿透 云服务器 交叉编译 金仓数据库 2025 征文 数据库平替用金仓 Netty 即时通信 NIO dns 自动驾驶 HTTP 服务器控制 ESP32 DeepSeek 反向代理 致远OA OA服务器 服务器磁盘扩容 远程 命令 执行 sshpass 操作 okhttp CORS 跨域 游戏机 Linux环境 5G 3GPP 卫星通信 C语言 信号处理 vasp安装 查询数据库服务IP地址 SQL Server WSL2 语音识别 AutoDL HCIE 数通 VMware安装Ubuntu Ubuntu安装k8s 客户端 鸿蒙系统 SVN Server tortoise svn 数据可视化 数据分析 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 IMX317 MIPI H265 VCU 程序员 sqlite 交换机 dubbo 合成模型 扩散模型 图像生成 hadoop eclipse gateway Clion Nova ResharperC++引擎 Centos7 远程开发 业界资讯 arm kamailio sip VoIP 大数据平台 Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 烟花代码 烟花 元旦 中间件 DevEco Studio HarmonyOS OpenHarmony 真机调试 硬件架构 Python基础 Python教程 Python技巧 AI大模型 大模型入门 大模型教程 ESXi Dell HPE 联想 浪潮 webstorm ukui 麒麟kylinos openeuler rust腐蚀 .net UDP的API使用 vSphere vCenter sdkman n8n dity make Java Applet URL操作 服务器建立 Socket编程 网络文件读取 armbian u-boot 升级 CVE-2024-7347 软件工程 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm 策略模式 单例模式 温湿度数据上传到服务器 Arduino HTTP 需求分析 规格说明书 安装教程 GPU环境配置 Ubuntu22 Anaconda安装 相机 飞书 web3 恒源云 ollama下载加速 抗锯齿 tcp mysql离线安装 ubuntu22.04 mysql8.0 can 线程池 vscode1.86 1.86版本 ssh远程连接 autodl 源码 毕业设计 矩阵 big data opensearch helm gcc 考研 工业4.0 open webui 在线office IMM Windows echarts linux上传下载 健康医疗 互联网医院 hive Hive环境搭建 hive3环境 Hive远程模式 传统数据库升级 银行 LLMs 博客 单一职责原则 webgl Python 网络编程 聊天服务器 套接字 TCP 监控k8s集群 集群内prometheus IPMITOOL BMC 硬件管理 oneapi 小智AI服务端 xiaozhi TTS FTP 服务器 计算机外设 gitea chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 iis 移动云 云服务 可信计算技术 epoll nfs MySql SSL 域名 rsyslog etl 虚拟局域网 Linux PID ruby 毕昇JDK 显卡驱动 Trae IDE AI 原生集成开发环境 Trae AI dify tcpdump 魔百盒刷机 移动魔百盒 机顶盒ROM CPU 主板 电源 网卡 WSL win11 无法解析服务器的名称或地址 本地部署 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 半虚拟化 硬件虚拟化 Hypervisor EasyConnect Cline Kali Linux 渗透测试 信息收集 实战案例 黑客技术 虚幻 ssrf 失效的访问控制 openwrt deepseek r1 open Euler dde LLM Web APP Streamlit .netcore 网工 springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 iphone TrinityCore 魔兽世界 P2P HDLC sysctl.conf vm.nr_hugepages adobe elk bug 环境迁移 编程 性能分析 Ubuntu 24.04.1 轻量级服务器 python3.11 文件分享 安卓 W5500 OLED u8g2 odoo 服务器动作 Server action 镜像 netty navicat rclone AList webdav fnOS sentinel ROS 实时互动 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 毕设 wps OD机试真题 华为OD机试真题 服务器能耗统计 MacOS录屏软件 微信公众平台 工作流 workflow ipython 低代码 linux安装配置 CH340 串口驱动 CH341 uart 485 Invalid Host allowedHosts 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 Cookie visual studio 干货分享 黑客工具 密码爆破 RAGFLOW RAG 检索增强生成 文档解析 大模型垂直应用 西门子PLC 通讯 IPv4 子网掩码 公网IP 私有IP SSH 密钥生成 SSH 公钥 私钥 生成 服务器时间 流量运营 docker run 数据卷挂载 交互模式 bcompare Beyond Compare ue4 着色器 ue5 seleium chromedriver 自动化测试 宕机切换 服务器宕机 nvidia c 执法记录仪 智能安全帽 smarteye triton 模型分析 线性代数 电商平台 skynet transformer DOIT 四博智联 知识库 RAGFlow 本地知识库部署 DeepSeek R1 模型 ip命令 新增网卡 新增IP 启动网卡 wsgiref Web 服务器网关接口 技能大赛 cuda cudnn anaconda 线程 springcloud 系统开发 binder 车载系统 framework 源码环境 常用命令 文本命令 目录命令 嵌入式Linux IPC linux环境变量 阿里云ECS EMUI 回退 降级 gnu ardunio BLE 端口测试 PX4 命名管道 客户端与服务端通信 PVE kali 共享文件夹 eNSP 网络规划 VLAN 企业网络 Unity插件 iventoy VmWare OpenEuler Qwen2.5-coder 离线部署 x64 SIGSEGV SSE xmm0 threejs 3D 磁盘监控 服务器配置 链表 生物信息学 办公自动化 自动化生成 pdf教程 CentOS Google pay Apple pay bat 端口 查看 ss TrueLicense firewalld 灵办AI 元服务 应用上架 docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 g++ g++13 软件需求 nac 802.1 portal 产品经理 超融合 DNS MDK 嵌入式开发工具 论文笔记 sublime text edge浏览器 RAID RAID技术 磁盘 存储 arcgis crosstool-ng UDP 运维监控 trea idea rpa 游戏开发 trae pyautogui IPMI 带外管理 硬件 设备 GPU PCI-Express VMware创建虚拟机 自动化任务管理 tidb GLIBC prompt easyui langchain grub 版本升级 扩容 Windsurf ping++ leetcode 推荐算法 Linux find grep deekseek 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 代理 ceph Erlang OTP gen_server 热代码交换 事务语义 信创 信创终端 中科方德 大模型推理 大模型学习 yum源切换 更换国内yum源 多层架构 解耦 搭建个人相关服务器 sqlite3 音乐服务器 Navidrome 音流 bot Docker 远程控制 rustdesk SWAT 配置文件 服务管理 网络共享 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 dns是什么 如何设置电脑dns dns应该如何设置 深度求索 私域 vr DeepSeek行业应用 Heroku 网站部署 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 分析解读 cd 目录切换 rocketmq 代理服务器 信号 架构与原理 C# MQTTS 双向认证 emqx 测试用例 分布式训练 jina 匿名管道 嵌入式系统开发 风扇控制软件 双系统 Open WebUI Linux的权限 MacMini 迷你主机 mini Apple 算力 宠物 免费学习 宠物领养 宠物平台 camera Arduino 电子信息 李心怡 conda配置 conda镜像源 deep learning EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 充电桩 欧标 OCPP 强化学习 物联网开发 lua clickhouse vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 docker部署Python 社交电子 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 远程服务 HAProxy 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 软链接 硬链接 直流充电桩 域名服务 DHCP 符号链接 配置 WebUI DeepSeek V3 音乐库 飞牛 实用教程 程序员创富 DBeaver mcu 大模型部署 YOLOv12 Nuxt.js ubuntu24.04.1 7z minicom 串口调试工具 IO模型 裸金属服务器 弹性裸金属服务器 av1 电视盒子 cnn DenseNet p2p CrewAI 热榜 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 状态管理的 UDP 服务器 Arduino RTOS Xinference AD域 keepalived sonoma 自动更新 xshell termius iterm2 neo4j 数据仓库 数据库开发 database 大模型微调 技术共享 docker命令大全 虚幻引擎 chrome devtools 智能硬件 AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 DocFlow gpt 边缘计算 ubuntu24 vivado24 ArcTS 登录 ArcUI GridItem arkUI 服务网格 istio mariadb js EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 自动化编程 code-server 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 SysBench 基准测试 wpf mybatis k8s集群资源管理 云原生开发 MS Materials 序列化反序列化 模拟退火算法 ros2 moveit 机器人运动 语法 银河麒麟高级服务器 外接硬盘 Kylin flink 信息可视化 网页设计 mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 华为机试 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 数据库系统 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 AISphereButler 鸿蒙开发 移动开发 remote-ssh 捆绑 链接 谷歌浏览器 youtube google gmail Ark-TS语言 win服务器架设 windows server 图形渲染 hosts 迁移指南 环境配置 框架搭建 黑苹果 VMware Claude llama.cpp 大模型面经 sequoiaDB AnythingLLM AnythingLLM安装 做raid 装系统 火绒安全 VPS .net mvc断点续传 内网服务器 内网代理 内网通信 基础环境 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 alias unalias 别名 ubuntu20.04 开机黑屏 searxng 网络药理学 生信 PPI String Cytoscape CytoHubba RustDesk自建服务器 rustdesk服务器 docker rustdesk cmos prometheus数据采集 prometheus数据模型 prometheus特点 rime 服务器管理 配置教程 服务器安装 网站管理 雨云 NPS 剧本 沙盒 WebRTC uniapp word VMware安装mocOS macOS系统安装 多路转接 软件定义数据中心 sddc RTMP 应用层 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 状态模式 混合开发 环境安装 JDK regedit 开机启动 firewall ros Playwright 离线部署dify 京东云 Ubuntu共享文件夹 共享目录 Linux共享文件夹 ssh远程登录 nlp 基础入门 VS Code 本地化部署 USB网络共享 opcua opcda KEPServer安装 centos-root /dev/mapper yum clean all df -h / du -sh 玩机技巧 软件分享 软件图标 vmware 卡死 AD 域管理 spark HistoryServer Spark YARN jobhistory 网站搭建 serv00 SSH 服务 SSH Server OpenSSH Server 知识图谱 微信开放平台 微信公众号配置 企业网络规划 华为eNSP 浏览器开发 AI浏览器 私有化 ssh漏洞 ssh9.9p2 CVE-2025-23419 VSCode hexo token sas dock 加速 僵尸世界大战 游戏服务器搭建 政务 分布式系统 监控运维 Prometheus Grafana proxy模式 zookeeper 服务器部署ai模型 AI代码编辑器 Anolis nginx安装 linux插件下载 LInux raid5数据恢复 磁盘阵列数据恢复 自定义客户端 SAS 邮件APP 免费软件 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 Ubuntu Server Ubuntu 22.04.5 minecraft GIS 遥感 WebGIS gpt-3 文心一言 大大通 第三代半导体 碳化硅 USB转串口 飞牛NAS 飞牛OS MacBook Pro harmonyOS面试题 ai工具 java-rocketmq v10 软件 ldap 金融 pyqt kerberos CentOS Stream 网络用户购物行为分析可视化平台 大数据毕业设计 Kylin-Server 内网环境 h.264 micropython esp32 mqtt etcd 数据安全 RBAC Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 流式接口 perf URL 人工智能生成内容 项目部署到linux服务器 项目部署过程 压测 ECS openstack Xen pgpool NFS TCP协议 composer 拓扑图 田俊楠 产测工具框架 IMX6ULL 管理框架 蓝桥杯 网卡的名称修改 eth0 ens33 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors cpp-httplib outlook Logstash 日志采集 xrdp SRS 流媒体 直播 影刀 #影刀RPA# 开发 iftop 网络流量监控 ABAP Deepseek-R1 私有化部署 推理模型 milvus QT 5.12.12 QT开发环境 Ubuntu18.04 GRUB引导 Linux技巧 make命令 makefile文件 docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 粘包问题 崖山数据库 YashanDB 视频编解码 源码剖析 rtsp实现步骤 流媒体开发 存储维护 NetApp存储 EMC存储 dash 正则表达式 uv 项目部署 性能测试 chfs ubuntu 16.04 雨云服务器 Redis Desktop 远程看看 远程协助 软负载 多进程 cpu 实时 使用 midjourney figma 相差8小时 UTC 时间 AI Agent 字节智能运维 rnn matplotlib fast 大模型应用 risc-v OpenSSH GoogLeNet swoole 三级等保 服务器审计日志备份 Attention FTP服务器