最新资讯

  • K8S详解(5万字详细教程)

K8S详解(5万字详细教程)

2025-04-27 02:00:03 0 阅读

目录

 一、集群管理命令

 二、命名空间

 1. 获取命名空间列表

2. 创建命名空间

3. 删除命名空间

4. 查看命名空间详情

三、Pod

1. Pod概述

2. Pod相位状态

3. 管理命令

3.1 获取命名空间下容器(pod)列表

3.2 查看pod的详细信息

3.3 创建 && 运行

3.4 删除pod

3.5 进入容器

3.6 根据资源对象文件运行命令

3.7 排错三兄弟 

4. 污点策略

4.1 概述

 4.2 设置并查看污点标签

4.3 删除污点标签 

四、资源对象文件

1. 资源对象文件相关帮助

1.1 Pod的资源清单

1.1 最基础Pod资源对象文件

1.3 自动生成模板命令

1.4 查询帮助信息

2. Pod

2.1 Pod自定义命令

2.2 restartPolicy 保护策略

2.3 terminationGracePeriodSeconds 宽限期策略

2.4 activeDeadlineSeconds 策略

2.5 多容器Pod

3. Pod容忍策略

3.1 精确匹配策略

3.2 模糊匹配策略

4. 优先级与抢占

4.1 非抢占优先级

4.2 抢占优先级 

5. Pod调度策略 

5.1 定向调度

5.2 标签调度 

 6. Pod资源管理

1. 内存资源配额

2. 计算资源配额

3. 综合资源配额

 4. 内存 CPU限额

7. 全局资源管理

 7.1 LimitRange

7.2 ResourceQuota

五、控制器

1. Deployment

1.1 扩缩容

1.2 镜像更新

1.3  滚动更新策略

 1.4 版本回滚

1.5 金丝雀发布 

1.6 删除控制器方法 

2. DaemonSet

 2.1 DS控制器会受到污点策略的影响

3. Job/CronJob

3.1 Job

 3.2 CronJob

4. 基础控制器的区别

4.1 Deployment

4.2 DaemonSet 

4.3 CronJob/Job 

5. StatefulSet 

4.1 headless服务 

4.2  StatefulSet资源配置文件

6. Horizontal Pod Autoscaler(HPA)控制器

六、service

 6.1 ClusterIP

6.2 nodePort

6.3 Ingress

七、存储卷管理

1. 持久卷

1.1 hostPath

 1.2 NFS

 1.3 PV/PVC

2. 临时卷

2.1 configMap 

2.2 secret

2.3 emptyDir

一、集群管理命令

kubectl 是用于控制 kubernetes集群的命令工具

语法格式:

kubectl  [command]  [TYPE]  [NAME]  [flags]
command: 子命令,如create、get、describe、delete
type: 资源类型,可以表示单数,复数或缩写形式
name: 资源的名称,如果省略,泽显示所有资源信息
flags: 指定可选标志,或附加的参数 

子命令说明
help用于查看命令及子命令的帮助信息
cluster-info显示集群的相关配置信息
version查看服务器及客户端的版本信息
api-resources查看当前服务器上所有的资源对象
api-versions查看当前服务器上所有资源对象的版本
config管理当前节点上kubeconfig 的认证信息

 二、命名空间

Namespace是kubernetes系统中的一种非常重要资源,它的主要作用是用来实现多套环境的资源隔离或者多租户的资源隔离

 1. 获取命名空间列表

[root@master ~]# kubectl get ns # 简写
[root@master ~]# kubectl get namespaces # 全写
[root@master ~]# kubectl -n 命名空间 get pods  # 查看命名空间中的资源对象

2. 创建命名空间

[root@master ~]# kubectl create ns your_namespace # 简写, 其中:your_namespace 为你自己的命名空间名称
[root@master ~]# kubectl create namespace your_namespace # 全写, 其中:your_namespace 为你自己的命名空间名称

3. 删除命名空间

[root@master ~]# kubectl delete namespace your_namespace # 简写, 其中:your_namespace 为你自己的命名空间名称
[root@master ~]# kubectl delete namespace your_namespace # 全写, 其中:your_namespace 为你自己的命名空间名称

4. 查看命名空间详情

[root@master ~]# kubectl describe ns your_namespace # your_namespace 为你自己的命名空间名称

三、Pod

1. Pod概述

  • 由一个容器或多个容器组成(最少一个容器)
  • 是k8s中最小的管理元素
  • 同一个Pod 共享IP及权限,主机名称,共享存储设备,命名空间
  • 每个Pod都会存在一个Pause根容器,这是每一个Pod都会去运行的。它就像一个基石,为Pod中的其他容器提供基础运行环境。Pause容器会加载所有必要的运行时、内核模块和设备驱动,以确保Pod中的所有容器都能在相同的网络和命名空间中运行。
  • 其他的资源对象都是用来支撑或者扩展Pod对象功能的。

2. Pod相位状态

-- Pending: Pod创建过程中,但它尚未被调度完成
-- Running: Pod中所有容器都被创建成功
-- Completed或者successd: Pod所有容器都已经成功终止,并不会被重启
-- Failed: Pod中的所有容器至少有一个容器退出是非0状态
-- Unkown: 无法正常获取Pod对象的状态信息

3. 管理命令

3.1 获取命名空间下容器(pod)列表

[root@master ~]# kubectl get pods -n your_namespace -o wide -w # your_namespace为你自己的命名空间名称

-n 指定命名空间 

-o wide 显示更加详细信息

-o name 只显示名字

-o yaml/json  以yaml/json语法格式显示资源对象

-w 持续监听

3.2 查看pod的详细信息

[root@master ~]# kubectl describe pod your_pod -n your_namespace # your_pod为自己的pod名称,your_namespace为你自己的命名空间名称

3.3 创建 && 运行

[root@master ~]# kubectl run [pod名称] --image=[镜像]:[镜像版本] --port=[对外端口] --namespace [namespace]

3.4 删除pod

[root@master ~]# kubectl delete pod [pod名称] -n [命名空间名称]

 删除会再次出现?

因为pod是隶属于Pod控制器下,控制器会监控pod的健康值,出现问题会重启几次失败后删除重新创建,所以会出现删除在出现的问题。

3.5 进入容器

[root@master ~]# kubectl exec your_pod -c 容器名称 -n your_namespace -it /bin/bash
# 在容器内执行命令
[root@master ~]# kubectl exec myweb -- ls
50x.html
index.html

 若有很多容器

 # 获取pod列表
[root@node2 ~]# kubectl get pods -n your_namespace
NAME                     READY   STATUS    RESTARTS   AGE
nginx-64777cd554-c2k5n   2/2     Running   2          23h

# 获取pod详情
 #    - your_pod 你的pd名称, 对应上面 nginx-64777cd554-c2k5n
[root@node2 ~]# kubectl describe pod your_pod -n your_namespace
...其他配置
Controlled By:  ReplicaSet/nginx-replicaset
Containers:
  nginx: # ***容器名称***
    Container ID:   docker://42534954660b49806772a7df127267f399652fcaef18b26c619363e1283d6c8c
    Image:          nginx:1.17.1
    Image ID:       docker-pullable://nginx@sha256:b4b9b3eee194703fc2fa8afa5b7510c77ae70cfba567af1376a573a967c03dbb
...其他配置

# 进入容器内部
#   - your_container 你的容器名称,对应上面获取pod详情结果的 nginx
[root@master ~]# kubectl exec your_pod -n your_namespace -it -c your_container /bin/bash

3.6 根据资源对象文件运行命令

[root@master ~]# kubectl  create/apply/delete -f  资源文件名称.yaml
  • create 创建文件中定义的资源 
    kubectl create .... --dry-run=client -o yaml(create主要用来生成资源对象的模板,我们一般都是用apply)
  • apply  创建(更新)文件中定义的资源 (主要用的就是这个)
  • delete 删除文件中定义的资源

3.7 排错三兄弟 

  • kubectl get 查看资源对象的状态信息)
  • kubectl describe  查询资源对象的属性信息
    Events下是事物日志,用来排错
  • Kubectl logs  查看容器报错信息 
# 查看 work 名称空间下的 pod 信息
[root@master ~]# kubectl -n work describe pod myhttp
Name: myhttp
Namespace: work
Priority: 0
Service Account: default
Node: node-0004/192.168.1.54
... ...
Events:
  Type Reason Age From Message
  ---- ------ ---- ---- -------
  Normal Scheduled 12m default-scheduler Successfully assigned work/myhttp
to node-0004
  Normal Pulling 12m kubelet Pulling image "myos:httpd"
  Normal Pulled 12m kubelet Successfully pulled image
"myos:httpd" in 3.678925795s (3.678930716s including waiting)
  Normal Created 12m kubelet Created container myhttp
  Normal Started 12m kubelet Started container myhttp
# 查看 myweb 日志
[root@master ~]# kubectl logs myweb
2023/09/14 09:42:38 [error] 7#0: *2 open() "/usr/local/nginx/html/info.php"
failed (2: No such file or directory), client: 10.244.219.64, server: localhost,
request: "GET /info.php HTTP/1.1", host: "10.244.243.193"
2023/09/14 09:44:46 [error] 6#0: *4 open() "/usr/local/nginx/html/info.php"
failed (2: No such file or directory), client: 10.244.219.64, server: localhost,
request: "GET /info.php HTTP/1.1", host: "10.244.243.193"
2023/09/14 09:51:08 [error] 6#0: *5 open() "/usr/local/nginx/html/info.php"
failed (2: No such file or directory), client: 10.244.219.64, server: localhost,
request: "GET /info.php HTTP/1.1", host: "10.244.243.193"

4. 污点策略

4.1 概述

  • 污点(Taint)是使节点与Pod产生排斥的一类规则
  • 污点策略通过嵌合在键值对上的污点标签进行声明
  • 污点的格式为:key=value:effect, key和value是污点的标签,effect描述污点的作用
  • 污点标签
    • PreferNoSchedule:kubernetes将尽量避免把Pod调度到具有该污点的Node上,除非没有其他节点可调度

    • NoSchedule:kubernetes将不会把Pod调度到具有该污点的Node上,但不会影响当前Node上已存在的Pod

    • NoExecute:kubernetes将不会把Pod调度到具有该污点的Node上,同时也会将Node上已存在的Pod驱离

  • 管理污点标签

    • 查看污点标签
      kubectl describe nodes [节点名字]

    • 设置污点标签
      kubectl taint node [节点名字] key=value:污点标签

    • 删除污点标签
      kubectl taint node [节点名字] key=value:污点标签-

 4.2 设置并查看污点标签

# node01 设置污点策略 PreferNoSchedule
[root@master ~]# kubectl taint node node01 k=v1:PreferNoSchedule
node/node01 tainted
# 查看污点
[root@master ~]# kubectl describe node node01 
Name:               node01
Roles:              
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/arch=amd64
                    kubernetes.io/hostname=node01
                    kubernetes.io/os=linux
Annotations:        flannel.alpha.coreos.com/backend-data: {"VNI":1,"VtepMAC":"ce:d8:30:f2:9b:b0"}
                    flannel.alpha.coreos.com/backend-type: vxlan
                    flannel.alpha.coreos.com/kube-subnet-manager: true
                    flannel.alpha.coreos.com/public-ip: 192.168.1.101
                    kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl: 0
                    volumes.kubernetes.io/controller-managed-attach-detach: true
CreationTimestamp:  Mon, 25 Dec 2023 12:15:15 +0800
Taints:             taint=v1:PreferNoSchedule # 污点标签
Unschedulable:      false
...其他设置内容

4.3 删除污点标签 

[root@master ~]# kubectl taint node node01 k-
node/node01 untainted

四、资源对象文件

1. 资源对象文件相关帮助

1.1 Pod的资源清单

apiVersion: v1             #必选,版本号,例如v1
kind: Pod                 #必选,资源类型,例如 Pod
metadata:                 #必选,元数据
  name: string             #必选,Pod名称
annotations:               #选做,描述信息
  nginx: nginx
  namespace: string        #Pod所属的命名空间,默认为"default"
  labels:                #自定义标签列表
    - name: string                 
spec:                      #必选,Pod中容器的详细定义
  containers:              #必选,Pod中容器列表
  - name: string           #必选,容器名称
    image: string          #必选,容器的镜像名称
    imagePullPolicy: [ Always|Never|IfNotPresent ]   #获取镜像的策略 
    command: [string]      #容器的启动命令列表,如不指定,使用打包时使用的启动命令
    args: [string]         #容器的启动命令参数列表
    workingDir: string     #容器的工作目录
    volumeMounts:          #挂载到容器内部的存储卷配置
    - name: string         #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名
      mountPath: string    #存储卷在容器内mount的绝对路径,应少于512字符
      readOnly: boolean    #是否为只读模式
    ports: #需要暴露的端口库号列表
    - name: string         #端口的名称
      containerPort: 80    #容器需要监听的端口号
      hostPort: int        #容器所在主机需要监听的端口号,默认与Container相同
      protocol: string     #端口协议,支持TCP和UDP,默认TCP
    env:                   #容器运行前需设置的环境变量列表
    - name: string         #环境变量名称
      value: string        #环境变量的值
    resources:             #资源限制和请求的设置
      limits:              #资源限制的设置(上限)
        cpu: string        #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数
        memory: string     #内存限制,单位可以为Mib/Gib,将用于docker run --memory参数
      requests:            #资源请求的设置(下限)
        cpu: string        #Cpu请求,容器启动的初始可用数量
        memory: string     #内存请求,容器启动的初始可用数量
    lifecycle:             #生命周期钩子
    postStart:             #容器启动后立即执行此钩子,如果执行失败,会根据重启策略进行重启
    preStop:               #容器终止前执行此钩子,无论结果如何,容器都会终止
    livenessProbe:         #对Pod内各容器健康检查的设置,当探测无响应几次后将自动重启该容器
      exec:               #对Pod容器内检查方式设置为exec方式
        command: [string]  #exec方式需要制定的命令或脚本
      httpGet:             #对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port
        path: string
        port: number
        host: string
        scheme: string
        HttpHeaders:
        - name: string
          value: string
      tcpSocket:                    #对Pod内个容器健康检查方式设置为tcpSocket方式
         port: number
       initialDelaySeconds: 0       #容器启动完成后首次探测的时间,单位为秒
       timeoutSeconds: 0          #对容器健康检查探测等待响应的超时时间,单位秒,默认1秒
       periodSeconds: 0           #对容器监控检查的定期探测时间设置,单位秒,默认10秒一次
       successThreshold: 0
       failureThreshold: 0
       securityContext:
         privileged: false
  restartPolicy: [Always | Never | OnFailure]  #Pod的重启策略
  nodeName:       #设置NodeName表示将该Pod调度到指定到名称的node节点上
  nodeSelector: obeject   #设置NodeSelector表示将该Pod调度到包含这个label的node上
  imagePullSecrets:       #Pull镜像时使用的secret名称,以key:secretkey格式指定
  - name: string
  hostNetwork: false      #是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络
  volumes:                #在该pod上定义共享存储卷列表
  - name: string          #共享存储卷名称 (volumes类型有很多种)
    emptyDir: {}          #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值
    hostPath: string      #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录
      path: string                #Pod所在宿主机的目录,将被用于同期中mount的目录
    secret:            #类型为secret的存储卷,挂载集群与定义的secret对象到容器内部
      scretname: string  
      items:     
      - key: string
        path: string
    configMap:             #类型为configMap的存储卷,挂载预定义的configMap对象到容器内部
      name: string
      items:
      - key: string
        path: string

1.1 最基础Pod资源对象文件

[root@master ~]# vim myweb.yml
---                   # Yaml文件起始标志
kind: Pod             # 当前创建资源的类型
apiVersion: v1        # 当前资源对应的版本
metadata:  # 属性信息,元数据,包括名字和其他标识符等。这些信息对于识别和管理Pod很有用
  name: myweb         # 属性信息,资源的名称
spec:                 # 资源的特性描述(规约),定义Pod具体行为的部分
  containers:         # 容器资源特征描述
  - name: webserver   # 容器名称
    image: myos:nginx   # 启动容器使用的镜像
status: {}          # 资源状态,运行后自动生成(一般不写这行)

1.3 自动生成模板命令

 生成模板命令: [ --dry-run=client -o yaml]

[root@master ~]# kubectl run myweb --image=myos:nginx --dry-run=client -o yaml
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: myweb
    name: myweb
spec:
  containers:
  - image: myos:nginx
    name: myweb
    resources: {}
  dnsPolicy: ClusterFirst
  restartPolicy: Always
status: {}

1.4 查询帮助信息

[root@master ~]# kubectl explain Pod.spec.restartPolicy
KIND: Pod
VERSION: v1

FIELD: restartPolicy 

DESCRIPTION:
    Restart policy for all containers within the pod. One of Always, OnFailure,
    Never. Default to Always. More info:
    https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#restart-policy
    Possible enum values:
    - `"Always"`
    - `"Never"`
    - `"OnFailure"`

资源文件参数使用"."分割层级结构关系 

---
kind: xxx            # 一级,可以表示为 .kind
apiVersion: xx       # 一级,可以表示为 .apiVersion
metadata:            # 一级,可以表示为 .metadata
  name: xx           # 二级,可以表示为 .metadata.name
spec:                # 一级,可以表示为 .spec
  restartPolicy: xx  # 二级,可以表示为 .spec.restartPolicy
  containers:        # 二级,可以表示为 .spec.containers
  - name: xx         # 三级,可以表示为 .spec.containers.name
  image: xx          # 三级,可以表示为 .spec.containers.image
status: {}           # 一级,可以表示为 .status

2. Pod

2.1 Pod自定义命令

  • 创建Pod时,启动时要执行的自定义命令,如果配置了自定义命令,那镜像中自带的默认命令将不再执行
  • 蓝色的,是固定的,下面红色的是变化,可以理解上面蓝色的就是一个模板

[root@master ~]# vim myweb.yml
---                  
kind: Pod             
apiVersion: v1        
metadata:  # 属性信息,元数据,包括名字和其他标识符等。这些信息对于识别和管理Pod很有用
  name: myweb         
spec:                 # 资源的特性描述(规约),定义Pod具体行为的部分
  containers: 
  - name: webserver
    image: myos:nginx 
    command: ["/bin/bash"]
    args:
    - -c
    - |
        while sleep 5;do
            echo "hello world"
        done

2.2 restartPolicy 保护策略

  • 指在系统发生故障或意外停机时,系统或应用程序如何处理和恢复的策略
  • 重启[Always] -- 不重启[Never] -- 失败就重启[OnFailure]
  • Pod会根据策略决定容器结束后是否重启
[root@master ~]# vim mycmd.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: mycmd
spec:
  restartPolicy: Never # 配置保护策略
  containers:
  - name: linux
    image: myos:8.5
    command: ["sleep"]
    args: ["30"]

2.3 terminationGracePeriodSeconds 宽限期策略

  • 是K8s中的Pod生命周期策略之一,当容器运行完自己的任务后,会等待一段时间,然后优雅的退出
  • 宽限期为避免服务突然中断,造成事物不一致的问题
  • 宽限期默认 30s 不等待为 0s
[root@master ~]# vim mycmd.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: mycmd
spec:
  terminationGracePeriodSeconds:0 # 设置宽限期
  restartPolicy: Never
  containers:
  - name: linux
    image: myos:8.5
    command: ["sleep"]
    args: ["30"]

2.4 activeDeadlineSeconds 策略

  • 是K8s中的Pod生命周期策略之一
  • 允许Pod运行的最大时长
  • 如果一个Pod的内部程序在运行时出现循环死锁,那么就会永远不停的重复执行,为避免出现循环死索,允许Pod运行的最大时长,等到时间后,强制关闭,并设置Error状态
[root@master ~]# vim mycmd.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: mycmd
spec:
  terminationGracePeriodSeconds: 0
  activeDeadlineSeconds: 60 # 可以执行的最大时长
  restartPolicy: Never
  containers:
  - name: linux
    image: myos:8.5
    command: ["sleep"]
    args: ["300"]

2.5 多容器Pod

  • 受影响的命令: [log , exec , cp ]
  • 需要以上命令后加 -c 容器名
[root@master ~]# vim mynginx.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: mynginx
spec:
  terminationGracePeriodSeconds: 0
  restartPolicy: Always
  containers: # 容器资源是个数组,可以定义多个Pod
  - name: nginx # 容器名称
    image: myos:nginx # 启动容器使用的镜像
  - name: php # 容器名称
    image: myos:php-fpm # 启动容器使用的镜像

注意:如果启动多容器,也根据提供的配置文件,没有明确指定每个容器的端口信息,那就需要在一个Pod中,每个容器需要使用不同的端口来避免冲突 

[root@master ~]# vim web2.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web2
spec:
  containers:
  - name: httpd
    image: myos:httpd
    ports:
    - containerPort: 80 # 指定该容器端口80
  - name: nginx
    image: myos:nginx
    ports:
    - containerPort: 8080 # 指定该容器端口8080

3. Pod容忍策略

  • 容忍刚好和污点相反,某些时候我们需要在有污点的节点上运行Pod,这种无视污点标签的调度方式成为容忍
  • 精确匹配: 下面3个条件必须写全
    模糊匹配: 不需要写全

3.1 精确匹配策略

把effect: "" 改成这个样子代表容忍所有污点

# 容忍 k=v1:NoSchedule 污点
[root@master ~]# vim myphp.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: myphp
spec:
  tolerations:         # 定义容忍策略
  - operator: Equal    # 匹配方式,必选(Equal精确匹配,Exists模糊匹配)
    key: k             # 设置键值对的key,为空代表任意键值对
    value: v1          # 设置values的值
    effect: NoSchedule # 设置容忍的标签,为空代表所有污点标签
  containers:
  - name: php
    image: myos:php-fpm

3.2 模糊匹配策略

# 容忍 k=*:NoSchedule 污点
[root@master ~]# vim myphp.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: myphp
spec:
  tolerations:
  - operator: Exists   # 部分匹配,存在即可
    key: k             # 键
    effect: NoSchedule # 污点标签
containers:
  - name: php
    image: myos:php-fpm

4. 优先级与抢占

  • 优先级就是为了保证重要的Pod被调度运行
  • 通过配置优先级PriorityClass或创建Pod时为其设置对应的优先级来确认优先级
  • PriorityClass是一个全局资源对象,它定义了从优先级类名称到优先级整数值的映射。优先级在value字段中指定,可以设置小于10亿的整数值,值越大,优先级越高,默认优先级0
  • PriorityClass还有两个可选字段:
    • globalDefault用于设置默认优先级状态,如果没有任何优先级设置Pod的优先级为零
    • description用来配置描述性信息,告诉用户优先级的用途
  • 优先级策略:
    • 非抢占优先:指的是在调度阶段优先进行调度分配,一旦容器调度完成就不可以抢占,资源不足时,只能等待
    • 抢占优先:强制调度一个Pod,如果资源不足无法被调度,调度程序会抢占(删除)较低优先级的Pod的资源,来保证高优先级Pod的运行

4.1 非抢占优先级

创建新的优先级策略

# 定义优先级(队列优先)
[root@master ~]# vim mypriority.yaml
---
kind: PriorityClass
apiVersion: scheduling.k8s.io/v1
metadata:
  name: high-non # 优先级名称
preemptionPolicy: Never # 策略:非抢占
value: 1000 # 优先级
---
kind: PriorityClass
apiVersion: scheduling.k8s.io/v1
metadata:
  name: low-non # 优先级名称
preemptionPolicy: Never # 策略:非抢占
value: 500 # 优先级

# 运行并查看优先级
[root@master ~]# kubectl apply -f mypriority.yaml
priorityclass.scheduling.k8s.io/high-non created
priorityclass.scheduling.k8s.io/low-non created
[root@master ~]# kubectl get priorityclasses.scheduling.k8s.io
NAME VALUE GLOBAL-DEFAULT AGE
high-non 1000 false 12s
low-non 500 false 12s
system-cluster-critical 2000000000 false 45h
system-node-critical 2000001000 false 45h

创建pod 

[root@master ~]# vim php2.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: php2
spec:
  nodeSelector:
    kubernetes.io/hostname: node01
  priorityClassName: low-non # 优先级名称
  containers:
    - name: php
    image: myos:php-fpm

4.2 抢占优先级 

创建新的优先级策略

[root@master ~]# vim mypriority.yaml
---
kind: PriorityClass
apiVersion: scheduling.k8s.io/v1
metadata:
  name: high
preemptionPolicy: PreemptLowerPriority #抢占策略
value: 1000

---
kind: PriorityClass
apiVersion: scheduling.k8s.io/v1
metadata:
  name: low
preemptionPolicy: PreemptLowerPriority #抢占策略
value: 500

# 运行并查看优先级策略
[root@master ~]# kubectl apply -f mypriority.yaml
priorityclass.scheduling.k8s.io/high-non created
priorityclass.scheduling.k8s.io/low-non created
priorityclass.scheduling.k8s.io/high created
priorityclass.scheduling.k8s.io/low created
[root@master ~]# kubectl get priorityclasses.scheduling.k8s.io
NAME VALUE GLOBAL-DEFAULT AGE
high 1000 false 2m56s
low 500 false 2m56s
system-cluster-critical 2000000000 false 7d22h
system-node-critical 2000001000 false 7d22h

5. Pod调度策略 

  • 将Pod分配到合适的计算节点上,并运行 -- kube-scheduler 默认调度器
  • 什么是调度分配?
    • 在k8s中,调度是将Pod分配到合适的计算节点上,然后对应节点上的Kubelet运行这些pod
    • kube-scheduler是默认调度器,是集群的核心组件
  • 调度器是如何工作的?
    • 调度器通过k8s的监测(Watch)机制来发现集群中尚未被调度到节点上的Pod。调度器依据调度原则将Pod分配到一个合适的节点上运行。
  • 调度流程
    • 调度器给一个pod做调度选择包含两个步骤: 过滤和打分
  • 第一步过滤(筛选)
    • 首先要筛选出满足Pod所有的资源请求的节点,这里包含计算资源、内存、存储、网络、端口号等等,如果没有节点能满足Pod的需求,Pod将一直停留在Pending状态,直到调度器能够找到合适的节点运行它
  • 第二步打分(优选):
    • 在打分阶段,调度器会根据打分规则,为每一个课调度节点进行打分。选出其中得分最高的节点来运行Pod。如果存在多个得分最高的节点,调度器会从中随机选取一个。
  • 绑定
    • 在确认了某个节点运行Pod之后,调度器将这个调度决定通知给kube-apiserver,这个过程叫做绑定

5.1 定向调度

  • 基于节点名称的调度
  • 在 spec下面,添加nodeName标签,让Pod运行在指定节点上面,若指标节点无法运行,它会一直等下去,现实pending
[root@master ~]# vim myhttp.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: myhttp
spec:
  nodeName: node-0001 # 基于节点名进行调度
  containers:
  - name: apache
    image: myos:httpd

5.2 标签调度 

  • Pod标签调度是指通过在Pod上设置标签(Label),将Pod调度到具有匹配标签的节点上,可以匹配到多个节点,也可以一个节点都匹配不到。
  • Pod标签调度是通过在Pod配置文件中设置nodeSelector字段来实现的
  • 查看筛选标签
    • 使用--show-labels查询标签
  • 管理标签语法格式
    • 设置标签
      kubectl label 资源类型 [资源名称] =
    • 删除标签
      kubectl label 资源类型 [资源名称] -
    • 查看标签
      kubectl label 资源类型 [资源名称] --show-labels
    • 使用标签选择
      kubectl get 资源类型 [资源名称] -l =
[root@master ~]# kubectl get pods --show-labels
NAME READY STATUS RESTARTS AGE LABELS
myhttp 1/1 Running 1 (3m18s ago) 15h 

[root@master ~]# kubectl get namespaces --show-labels
NAME STATUS AGE LABELS
default Active 6d17h kubernetes.io/metadata.name=default
kube-node-lease Active 6d17h kubernetes.io/metadata.name=kube-node-lease
kube-public Active 6d17h kubernetes.io/metadata.name=kube-public
kube-system Active 6d17h kubernetes.io/metadata.name=kube-system
# 使用标签过滤资源对象
[root@master ~]# kubectl get nodes -l kubernetes.io/hostname=master
NAME STATUS ROLES AGE VERSION
master Ready control-plane 6d18h v1.26.0

# 添加标签
[root@master ~]# kubectl label pod myhttp app=apache
pod/myhttp labeled
[root@master ~]# kubectl get pods --show-labels
NAME   READY STATUS  RESTARTS    AGE LABELS
myhttp 1/1   Running 1 (39m ago) 15h app=apache

# 删除标签
[root@master ~]# kubectl label pod myhttp app-
pod/myhttp unlabeled
[root@master ~]# kubectl get pods --show-labels
NAME   READY STATUS  RESTARTS    AGE LABELS
myhttp 1/1   Running 1 (40m ago) 15h 

 使用系统标签调度

[root@master ~]# kubectl get nodes node-0002 --show-labels
NAME STATUS ROLES AGE VERSION LABELS
node-0002 Ready  5d22h v1.26.0
beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd6
4,kubernetes.io/hostname=node-0002,kubernetes.io/os=linux

[root@master ~]# vim myhttp.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: myhttp
  labels:
    app: apache
spec:
  nodeSelector:         # 基于节点标签进行调度
    kubernetes.io/hostname: node-0002  # 标签
  containers:
  - name: apache
    image: myos:httpd
    
[root@master ~]# kubectl apply -f myhttp.yaml
pod/myhttp created

[root@master ~]# kubectl get pods -l app=apache -o wide
NAME READY STATUS RESTARTS AGE IP NODE
myhttp 1/1 Running 0 23s 10.244.147.7 node-0002

 6. Pod资源管理

  • 是K8s中用于限制和约束集群中各个命名空间或项目使用资源的方式,避免资源争用和浪费
  • Pod资源配额可以限制命名空间或项目中Pod使用的CPU、内存、存储等资源的数量
  • 设置resources字段,来实现资源管理

CPU资源类型

  • CPU资源的约束和请求以豪核(m)为单位。在k8s中1m是最小的调度单元,CPU的一个核心可以看作1000m
  • 如果你有2颗cpu,且每CPU为4核心,那么你的CPU资源总量就是8000

1. 内存资源配额

[root@master ~]# vim minpod.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: minpod
spec:
  nodeSelector:                     # 配置Pod调度节点
  kubernetes.io/hostname: node-0003 # 在node-0003节点创建
  terminationGracePeriodSeconds: 0
  containers:
  - name: linux
    image: myos:8.5
    command: ["awk","BEGIN{while(1){}}"]
    resources:                      # 资源策略
      requests:                     # 配额策略
        memory: 1100Mi              # 内存配额

2. 计算资源配额

[root@master ~]# vim minpod.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: minpod
spec:
  terminationGracePeriodSeconds: 0
  nodeSelector:
  kubernetes.io/hostname: node-0003
  containers:
  - name: linux
    image: myos:8.5
  command: ["awk","BEGIN{while(1){}}"]
  resources:    # 资源策略
    requests:   # 配额策略
      cpu: 800m # cpu配额,计算资源配额

3. 综合资源配额

同时设置CPU和内存配额时,资源必须满足全部需求

[root@master ~]# vim minpod.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: minpod
spec:
  terminationGracePeriodSeconds: 0
  nodeSelector:
  kubernetes.io/hostname: node-0003
  containers:
  - name: linux
    image: myos:8.5
  command: ["awk","BEGIN{while(1){}}"]
  resources:
    requests:
      cpu: 800m      # 计算资源配额
      memory: 1100Mi # 内存资源配额

 4. 内存 CPU限额

# 创建限额资源对象文件
[root@master ~]# vim maxpod.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: maxpod
spec:
  terminationGracePeriodSeconds: 0
  containers:
  - name: linux
    image: myos:8.5
  command: ["awk","BEGIN{while(1){}}"]
  resources:
    limits:
      cpu: 800m       # 计算资源配额
      memory: 2000Mi  # 内存资源配额

[root@master ~]# kubectl apply -f maxpod.yaml
pod/maxpod created

7. 全局资源管理

  • 如果有大量的容器需要设置资源配额,为每个Pod设置资源配额策略不方便且不好管理。管理员可以以名称空间为单位(namespace),限制其资源的使用与创建。在该名称空间中创建的容器都会受到规则的限制。
  • k8s 支持的全局资源配额方式有:
    • 对单个Pod内存、CPU进行配额:LimitRange
    • 对资源总量进行配额:ResourceQuota

 7.1 LimitRange

# 创建名称空间
[root@master ~]# kubectl create namespace work
namespace/work created

# 设置默认配额
[root@master ~]# vim limit.yaml
---
apiVersion: v1
kind: LimitRange
metadata:
  name: mylimit      # 策略名称
  namespace: work    # 规则生效的名称空间
spec:
  limits: # 全局规则
  - type: Container  # 资源类型
    default:         # 对没有限制策略的容器添加规则
      cpu: 300m      # 计算资源限额
      memory: 500Mi  # 内存资源限额
  defaultRequest:
    cpu: 8m          # 计算资源配额
    memory: 8Mi      # 内存资源配额

[root@master ~]# kubectl -n work apply -f limit.yaml
limitrange/mylimit created

7.2 ResourceQuota

[root@master ~]# vim quota.yaml
---
apiVersion: v1
kind: ResourceQuota           # 全局资源限额对象
metadata:
  name: myquota               # 规则名称
  namespace: work             # 规则作用的名称空间
spec:                         # ResourceQuota.spec定义
  hard:                       # 创建强制规则
    requests.cpu: 1000m       # 计算资源配额总数
    requests.memory: 2000Mi   # 内存资源配额总数
    limits.cpu: 5000m         # 计算资源限额总数
    limits.memory: 8Gi        # 内存资源限额总数
    pods: 3                   # 限制创建资源对象总量

[root@master ~]# kubectl -n work apply -f quota.yaml
resourcequota/myquota created

五、控制器

  • 控制器是什么?
    • 控制器是k8s内置的管理工具。可以帮助用户实现Pod的自动部署、自维护、扩容、翻滚更新等功能的自动化程序
  • 为什么要使用控制器?
    • 有大量的Pod需要维护管理
    • 需要维护Pod的健康状态
    • 控制器可以像机器人一样可以替用户完成维护管理的工作
  • Deployment控制器
    • 最常用的无状态服务控制器,由Deployment、ReplicaSet、Pod组成、支持集群扩容缩容、滚动、更新、自动维护Pod可用性及副本数量等功能
    • ReplicaSet和Pod由Deployment自动管理,用户无需干预

1. Deployment

  • 功能
    • 需要service资源对象来对其资源进行访问
    • 当集群中有Pod被删除,Deploy会自动创建新的Pod来维护集群的完整性
    • 当Pod标签去掉时,会被踢出集群(谁有标签谁才可以在集群中)
    • 集群扩缩容
    • 滚动更新策略
    • 历史版本及回滚

 在这里面,需要新了解的配置项就是spec下面几个选项:

  • replicas:指定副本数量,其实就是当前rs创建出来的pod的数量,默认为1
  • selector:选择器,它的作用是建立pod控制器和pod之间的关联关系,采用的Label Selector机制,在pod模板上定义label,在控制器上定义选择器,就可以表明当前控制器能管理哪些pod了
  • template:模板,就是当前控制器创建pod所使用的模板板,里面其实就是前一章学过的pod的定义

 imagePullPolicy: 是确保容器总是使用最新版本的镜像

  • IfNotPresent: 仅当镜像在本地不存在时,才被拉取
  • Never:: 设镜像已经存在于本地,不会尝试拉取镜像
  • always: 确保每次容器启动时都会拉取最新的镜像

最常用的控制器,资源清单文件:

[root@master ~]# vim mydeploy.yaml
---
kind: Deployment              # 资源对象类型
apiVersion: apps/v1           # 版本
metadata:                     # 元数据
  name: myweb                 # 名称
spec:                         # 详细定义
  replicas: 2                 # 副本数量
  strategy:                   # 策略
    type: RollingUpdate       # 滚动更新策略
    rollingUpdate:            # 滚动更新
      maxSurge: 30%           # 最大额外可以存在的副本数,可以为百分比,也可以为整数
      maxUnavailable: 30%     # 最大不可用状态的 Pod 的最大值,可以为百分比,也可以为整数
  selector:                   # 定义标签选择器
    matchLabels:              # 支持 matchExpressions 表达式语法
      app: httpd              # 通过标签来确定那个 Pod 由它来管理
  template:                   # 定义用来创建 Pod 的模板,以下为 Pod 定义
    metadata:                 # Pod元数据
      labels:                 # 名称由控制器生成
        app: httpd            # 这里只能定义标签
  spec:                       # Pod的详细定义
    restartPolicy: Always     # 重启策略
    containers:               # 容器定义
      - name: webserver       # 容器名称
      image: myos:httpd       # 创建容器使用的容器
      imagePullPolicy: Always # 镜像下载策略

1.1 扩缩容

[root@master ~]# kubectl scale deployment myweb(Deployment名字) --replicas=3(指定Pod数量)

# 1、创建deployment
[root@master ~]# kubectl create -f nginx-deployment.yaml --record=true
deployment.apps/nginx-deployment created

# 2、查看deployment
# UP-TO-DATE 最新版本的pod的数量
# AVAILABLE  当前可用的pod的数量
#   - your_namespace 你的命名空间名称
[root@master ~]# kubectl get deploy myweb -n your_spacename
NAME            READY   UP-TO-DATE   AVAILABLE   AGE
nginx-deployment   3/3     3            3           15s

[root@master ~]#  kubectl get pods -n your_namespace
NAME                             READY   STATUS    RESTARTS   AGE
nginx-deployment-6696798b78-d2c8n   1/1     Running   0          4m19s
nginx-deployment-6696798b78-jxmdq   1/1     Running   0          94s
nginx-deployment-6696798b78-mktqv   1/1     Running   0          93s

1.2 镜像更新

 deployment支持两种更新策略:重建更新滚动更新,可以通过strategy指定策略类型,支持两个属性:

strategy:指定新的Pod替换旧的Pod的策略, 支持两个属性:
  type:指定策略类型,支持两种策略
    Recreate:在创建出新的Pod之前会先杀掉所有已存在的Pod
    RollingUpdate:滚动更新,就是杀死一部分,就启动一部分,在更新过程中,存在两个版本Pod
  rollingUpdate:当type为RollingUpdate时生效,用于为RollingUpdate设置参数,支持两个属性:
    maxUnavailable:用来指定在升级过程中不可用Pod的最大数量,默认为25%。
    maxSurge: 用来指定在升级过程中可以超过期望的Pod的最大数量,默认为25%。

1.3  滚动更新策略

  • deployment支持版本升级过程中的暂停、继续功能以及版本回退等诸多功能,下面具体来看.

  • kubectl rollout: 版本升级相关功能,支持下面的选项

    • status 显示当前升级状态
    • history 显示 升级历史记录
    • pause 暂停版本升级过程
    • resume 继续已经暂停的版本升级过程
    • restart 重启版本升级过程
    • undo 回滚到上一级版本(可以使用–to-revision回滚到指定版本)
[root@master ~]# kubectl get deployments.apps myweb -o yaml
......
spec:
revisionHistoryLimit: 10  # 保留10个历史版本
strategy:                 # 更新策略
rollingUpdate:            # 滚动更新策略
maxSurge: 25%             # 允许最大副本25%超量
maxUnavailable: 25%       # 允许最小副本25%不足
type: RollingUpdate       # 更新方式[Recreate,RollingUpdate]
template:
spec:
containers:
- name: webserver
image: myos:httpd
imagePullPolicy: Always  # 镜像下载策略[Always,Never,ifNotPresent]
......
# 修改镜像,滚动更新集群
[root@master ~]# kubectl set image deployment myweb webserver=myos:nginx
deployment.apps/myweb image updated

# 给新版本添加注释信息
[root@master ~]# kubectl annotate deployments myweb kubernetes.io/change-
cause="nginx.v1"
deployment.apps/myweb annotated

# 查看历史版本信息
[root@master ~]# kubectl rollout history deployment myweb
deployment.apps/myweb
REVISION CHANGE-CAUSE
1 httpd:v1
2 nginx.v1

# 访问验证服务
[root@master ~]# curl -m 3 http://10.245.1.80
Nginx is running !

 1.4 版本回滚

# 历史版本与回滚
[root@master ~]# kubectl rollout undo deployment myweb --to-revision 1
deployment.apps/myweb rolled back

[root@master ~]# curl -m 3 http://10.245.1.80
Welcome to The Apache.

[root@master ~]# kubectl rollout history deployment myweb
deployment.apps/myweb
REVISION CHANGE-CAUSE
2 nginx.v1
3 httpd:v1

1.5 金丝雀发布 

Deployment控制器支持控制更新过程中的控制,如“暂停(pause)”或“继续(resume)”更新操作。

比如有一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是所谓的金丝雀发布。

# 1、更新deployment的版本,并配置暂停deployment
[root@master ~]#  kubectl set image deploy your_deploy_name nginx=nginx:1.17.4 -n your_namespace && kubectl rollout pause deployment your_deploy_name -n your_namespace
deployment.apps/nginx-deployment image updated
deployment.apps/nginx-deployment paused

# 2、观察更新状态
#  - your_deploy_name 你的deploy名称
#  - your_namespace 你的命名空间名称
[root@master ~]# kubectl rollout status deploy your_deploy_name -n your_namespace 
Waiting for deployment "nginx-deployment" rollout to finish: 2 out of 4 new replicas have been updated...

# 3、监控更新的过程,可以看到已经新增了一个资源,但是并未按照预期的状态去删除一个旧的资源,就是因为使用了pause暂停命令
#   - your_namespace 你的命名空间名称
[root@master ~]# kubectl get rs -n your_namespace -o wide
NAME                       DESIRED   CURRENT   READY   AGE     CONTAINERS   IMAGES         
nginx-deployment-5d89bdfbf9   3         3         3       19m     nginx        nginx:1.17.1   
nginx-deployment-675d469f8b   0         0         0       14m     nginx        nginx:1.17.2   
nginx-deployment-6c9f56fcfb   2         2         2       3m16s   nginx        nginx:1.17.4   

# - your_namespace 你的命名空间名称
[root@master ~]# kubectl get pods -n your_namespace
NAME                             READY   STATUS    RESTARTS   AGE
nginx-deployment-5d89bdfbf9-rj8sq   1/1     Running   0          7m33s
nginx-deployment-5d89bdfbf9-ttwgg   1/1     Running   0          7m35s
nginx-deployment-5d89bdfbf9-v4wvc   1/1     Running   0          7m34s
nginx-deployment-6c9f56fcfb-996rt   1/1     Running   0          3m31s
nginx-deployment-6c9f56fcfb-j2gtj   1/1     Running   0          3m31s

# 4、确保更新的pod没问题了,继续更新
#     - your_deploy_name 你的deploy名称
#     - your_namespace 你的命名空间名称
[root@master ~]# kubectl rollout resume deploy your_deploy_name -n your_namespace
deployment.apps/nginx-deployment resumed

# 5、查看最后的更新情况
#     - your_namespace 你的命名空间名称
[root@master ~]# kubectl get rs -n your_namespace -o wide
NAME                       DESIRED   CURRENT   READY   AGE     CONTAINERS   IMAGES         
nginx-deployment-5d89bdfbf9   0         0         0       21m     nginx        nginx:1.17.1   
nginx-deployment-675d469f8b   0         0         0       16m     nginx        nginx:1.17.2   
nginx-deployment-6c9f56fcfb   4         4         4       5m11s   nginx        nginx:1.17.4   

# - your_namespace 你的命名空间名称
[root@master ~]# kubectl get pods -n your_namespace
NAME                             READY   STATUS    RESTARTS   AGE
nginx-deployment-6c9f56fcfb-7bfwh   1/1     Running   0          37s
nginx-deployment-6c9f56fcfb-996rt   1/1     Running   0          5m27s
nginx-deployment-6c9f56fcfb-j2gtj   1/1     Running   0          5m27s
nginx-deployment-6c9f56fcfb-rf84v   1/1     Running   0          37s

1.6 删除控制器方法 

# 删除控制器方法1
[root@master ~]# kubectl delete deployments myweb
deployment.apps "myweb" deleted

# 删除控制器方法2
[root@master ~]# kubectl delete -f mydeploy.yaml
deployment.apps "myweb" deleted

2. DaemonSet

DaemonSet控制器

  • 无法自定义副本数量
  • 所创建的Pod与node节点绑定
  • 每个node上都会允许一个Pod
  • 当有新Node加入集群时,会为他新增Pod副本,当Node从集群移除时,这些Pod也会被回收,典型应用:kube-proxy 
[root@master ~]# vim myds.yaml
---
kind: DaemonSet       # 资源对象类型
apiVersion: apps/v1   # 版本
metadata:             # 元数据
  name: myds          # 名称
spec: # 详细定义
  selector:           # 定义标签选择器
    matchLabels:      # 支持 matchExpressions 表达式语法
      app: httpd      # 通过标签来确定那个 Pod 由它来管理
  template:           # 定义用来创建 Pod 的模板,以下为 Pod 定义
    metadata:
      labels:
        app: httpd
  spec:
    restartPolicy: Always
    containers:
    - name: webserver
      image: myos:httpd
      imagePullPolicy: Always

[root@master ~]# kubectl apply -f myds.yaml
daemonset.apps/myds created

[root@master ~]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE
NOMINATED NODE READINESS GATES
myds-78b2h 1/1 Running 0 31s 10.244.153.154 node-0005
 
myds-78pgb 1/1 Running 0 31s 10.244.243.226 node-0003
 
myds-cg2sv 1/1 Running 0 31s 10.244.147.30 node-0002
 
myds-pp7s6 1/1 Running 0 31s 10.244.240.162 node-0004
 
myds-qrp82 1/1 Running 0 32s 10.244.21.155 node-0001
 

 2.1 DS控制器会受到污点策略的影响

[root@master ~]# kubectl taint node node-0001 k=v:NoSchedule
node/node-0001 tainted

[root@master ~]# kubectl delete -f myds.yaml
daemonset.apps "myds" deleted

[root@master ~]# kubectl apply -f myds.yaml
daemonset.apps/myds created

# 有污点不会部署,特殊需求可以设置容忍策略
[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
myds-fxlgq 1/1 Running 0 33s
myds-j5779 1/1 Running 0 33s
myds-nb6bv 1/1 Running 0 33s
myds-vkk6x 1/1 Running 0 33s

# 删除污点后会立即部署
[root@master ~]# kubectl taint node node-0001 k=v:NoSchedule-
node/node-0001 untainted
[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
myds-bq2nv 1/1 Running 0 3s
myds-fxlgq 1/1 Running 0 114s
myds-j5779 1/1 Running 0 114s
myds-nb6bv 1/1 Running 0 114s
myds-vkk6x 1/1 Running 0 114s

# 删除控制器
[root@master ~]# kubectl delete -f myds.yaml
daemonset.apps "myds" deleted

3. Job/CronJob

3.1 Job

  • 单任务控制器,执行一次任务
  • CronJob是Job的升级版,基于时间管理的Job控制器
  • restartPOlicy策略会判断exit状态码,状态为0表示正常,其他都是失败
  • 任务执行出错,会重新执行该任务
[root@master ~]# vim myjob.yaml
---
kind: Job
apiVersion: batch/v1
metadata:
  name: myjob
spec:
  template: # 以下定义 Pod 模板
    spec:
      restartPolicy: OnFailure
      containers:
      - name: myjob
        image: myos:8.5
        command: ["/bin/bash"]
        args:
        - -c
        - |
          sleep 3
          exit $((RANDOM%2))

[root@master ~]# kubectl apply -f myjob.yaml
job.batch/myjob created

# 失败了会重启
[root@master ~]# kubectl get pods -l job-name=myjob -w
NAME READY STATUS RESTARTS AGE
myjob-plnhc 1/1 Running 0 3s
myjob-plnhc 0/1 Completed 0 4s
myjob-plnhc 0/1 Completed 0 5s
myjob-plnhc 0/1 Completed 0 6s
myjob-plnhc 0/1 Completed 0 6s

[root@master ~]# kubectl get jobs.batch
NAME COMPLETIONS DURATION AGE
myjob 1/1 6s 91s

# 删除Job控制器
[root@master ~]# kubectl delete -f myjob.yaml
job.batch "myjob" deleted

 3.2 CronJob

  • 时间定义 schedule: 分 时 日 月 周
  • 会按照时间周期运行
  • 只保留执行三次的结果,多余被删除
[root@master ~]# vim mycj.yaml
---
kind: CronJob
apiVersion: batch/v1
metadata:
  name: mycj
spec:
  schedule: "* * * * 1-5"
  jobTemplate: # 以下定义Job模板
    spec:
      template:
        spec:
          restartPolicy: OnFailure
          containers:
          - name: myjob
            image: myos:8.5
            command: ["/bin/bash"]
            args:
            - -c
            - |
              sleep 3
              exit $((RANDOM%2))

[root@master ~]# kubectl apply -f mycj.yaml
cronjob.batch/mycj created

[root@master ~]# kubectl get cronjobs
NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE
mycj * * * * 1-5 False 0  14s

# 按照时间周期,每分钟触发一个任务
[root@master ~]# kubectl get jobs -w
NAME COMPLETIONS DURATION AGE
mycj-28263259 1/1 29s 70s
mycj-28263260 1/1 6s 10s
mycj-28263261 0/1 0s
mycj-28263261 0/1 0s 0s
mycj-28263261 0/1 2s 2s
mycj-28263261 0/1 5s 5s
mycj-28263261 0/1 5s 5s

# 保留三次结果,多余的会被删除
[root@master ~]# kubectl get jobs
NAME COMPLETIONS DURATION AGE
mycj-28263261 1/1 24s 2m13s
mycj-28263262 1/1 27s 73s
mycj-28263263 1/1 6s 13s

# 删除CJ控制器
[root@master ~]# kubectl delete -f mycj.yaml
cronjob.batch "mycj" deleted

4. 基础控制器的区别

4.1 Deployment

Deployment 控制器是最常用的 Controller,可以管理 Pod 的多个副本,并确保 Pod 按照期望的状态运行。它支持两种更新策略:滚动更新和重新创建,默认为滚动更新。在 Deployment 中,如果存在容器异常退出,会自动创建新的 Pod 进行替代;同时,异常多出来的容器也会自动回收。当某个 Pod 发生故障需要删除并重新启动时,Pod 的名称会发生变化,同时 StatefulSet 会保证副本按照固定的顺序启动、更新或者删除。

4.2 DaemonSet 

DaemonSet 控制器主要用于在每个节点最多只运行一个 Pod 副本的场景。它的名称暗示了其通常用于运行守护进程(daemon)。当有新的节点加入集群时,DaemonSet 控制器会自动在该节点上创建一个 Pod 副本,当有节点从集群中移除时,DaemonSet 控制器会自动回收该节点上的 Pod 副本。

4.3 CronJob/Job 

主要用于运行结束就删除的应用。它并不适合长期持续运行的任务。相反,它的设计目的是为了处理一些特定的、一次性的任务,例如批处理任务、定时任务等。一旦任务完成,Job 控制器就会自动删除相关的 Pod。

5. StatefulSet 

  • StatefulSet控制器
    • StatefulSet旨在与有状态的应用及分布式统一使用,涉及了Headless服务、存储卷、DNS等相关知识,是一个宽泛而复杂的话题
  • Headless服务
    • 在配置StatefulSets的时候,首先要定义一个Headless的服务
    • 在创建Pod的时候会自动把注册为域名

4.1 headless服务 

# 配置 headless 服务
[root@master ~]# vim mysvc2.yaml
---
kind: Service
apiVersion: v1
metadata:
  name: mysvc2 # 服务名称
spec:
  type: ClusterIP
  clusterIP: None # 设置IP为None
  selector:
    app: httpd
  ports:
  - protocol: TCP
    port: 80
    targetPort: 80

[root@master ~]# kubectl get service mysvc2
NAME        TYPE      CLUSTER-IP EXTERNAL-IP PORT(S) AGE
mysvc2   ClusterIP     None             80/TCP 17s

4.2  StatefulSet资源配置文件

[root@master ~]# vim mysts.yaml
---
kind: StatefulSet     # 资源对象类型
apiVersion: apps/v1   # 版本
metadata:             # 元数据
  name: mysts         # 名称
spec:                 # 详细定义
  serviceName: mysvc2 # 控制器名称
  replicas: 3         # 副本数量
  selector:           # 定义标签选择器
    matchLabels:      # 支持 matchExpressions 表达式语法
      app: httpd      # 通过标签来确定那个 Pod 由它来管理
  template:           # 定义用来创建 Pod 的模板,以下为 Pod 定义
    metadata:
      labels:
        app: httpd
    spec:
      restartPolicy: Always
      containers:
      - name: webserver
        image: myos:httpd
        imagePullPolicy: Always

[root@master ~]# kubectl apply -f mysts.yaml
statefulset.apps/mysts created

[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
mysts-0 1/1 Running 0 8s
mysts-1 1/1 Running 0 7s
mysts-2 1/1 Running 0 6s

[root@master ~]# host mysts-0.mysvc2.default.svc.cluster.local 10.245.0.10
Using domain server:
Name: 10.245.0.10
Address: 10.245.0.10  #53
Aliases:
mysts-0.mysvc2.default.svc.cluster.local has address 10.244.153.159

[root@master ~]# host mysvc2.default.svc.cluster.local 10.245.0.10
Using domain server:
Name: 10.245.0.10
Address: 10.245.0.10  #53
Aliases:
mysvc2.default.svc.cluster.local has address 10.244.147.37
mysvc2.default.svc.cluster.local has address 10.244.153.159
mysvc2.default.svc.cluster.local has address 10.244.240.164

# 删除sts控制器
[root@master ~]# kubectl delete -f mysts.yaml -f mysvc2.yaml
statefulset.apps "mysts" deleted
service "mysvc2" deleted

6. Horizontal Pod Autoscaler(HPA)控制器

  • 可在k8s集群中基于CPU利用率或其他应用程序提供的度量指标实现水平自动伸缩的功能,自动缩放POD的数量
  • 要在集群中运行,所以先创建集群
  • 也需要ClusterIP服务

 创建被监控的资源对象

# 为 Deploy 模板添加资源配额
[root@master ~]# vim mydeploy.yaml
---
kind: Deployment
apiVersion: apps/v1
metadata:
  name: myweb
spec:
  replicas: 1        # 修改副本数量
  selector:
    matchLabels:
      app: httpd
  template:
    metadata:
      labels:
        app: httpd
   spec:
     restartPolicy: Always
     containers:
     - name: webserver
       image: myos:httpd
       imagePullPolicy: Always
       resources:    # 为该资源设置配额
         requests:   # HPA控制器会根据配额使用情况伸缩集群
         cpu: 200m   # CPU配额

 创建HPA

[root@master ~]# vim myhpa.yaml
---
kind: HorizontalPodAutoscaler         # 资源对象类型
apiVersion: autoscaling/v1            # 版本
metadata:                             # 元数据
  name: myweb                         # 资源对象名称
spec:                                 # 详细定义
  minReplicas: 1                      # 最少保留的副本数量
  maxReplicas: 5                      # 最大创建的副本数量
  targetCPUUtilizationPercentage: 50  # 警戒值,以百分比计算
  scaleTargetRef:                     # 监控的资源对象
    kind: Deployment                  # 资源对象类型
    apiVersion: apps/v1               # 版本
    name: myweb                       # 资源对象名称

[root@master ~]# kubectl apply -f myhpa.yaml
horizontalpodautoscaler.autoscaling/myweb created

# 刚刚创建 unknown 是正常现象,最多等待 60s 就可以正常获取数据
[root@master ~]# kubectl get horizontalpodautoscalers.autoscaling
NAME  REFERENCE        TARGETS       MINPODS MAXPODS REPLICAS
myweb Deployment/myweb /50% 1       5       0

[root@master ~]# kubectl get horizontalpodautoscalers.autoscaling
NAME   REFERENCE        TARGETS MINPODS MAXPODS REPLICAS AGE
myweb  Deployment/myweb 0%/50%  1       5       1        59s

六、service

容器带来的问题:

  • 自动调度: 在Pod创建之前,用户无法预知Pod所在节点以及Pod的IP地址
  • 一个已经存在的Pod在运行过程中,出现故障,Pod也会在新的节点使用新的IP进行部署
  • 应用程序访问服务时,地址是不能经常转变的
  • 多个相同的Pod如何访问他们上面的服务

 service服务原理:

  • 自动感知: 服务会创建一个clusterIP,对应资源地址,不管Pod如何变化,服务总能找到对应的Pod,且clusterIP保持不变
  • 负载均衡: 若服务器后端对应多个Pod,则会通过IPTables/LVS规则 访问请求最终映射到Pod容器内部,自动实现多个容器的负载均衡
  • 自动发现: 服务创建时会自动在内部dns上注册域名
  • 域名: <服务名称>.<名称空间>.svc.cluster.local

 Service可以看作是一组同类Pod对外的访问接口。借助Service,应用可以方便地实现服务发现和负载均衡。

Service有4种类型:

  • ClusterIP:默认值,它是Kubernetes系统自动分配的虚拟IP,只能在集群内部访问
  • NodePort:将Service通过指定的Node上的端口暴露给外部,通过此方法,就可以在集群外部访问服务
  • LoadBalancer:使用外接负载均衡器完成到服务的负载分发,注意此模式需要外部云环境支持
  • ExternalName: 把集群外部的服务引入集群内部,直接使用

 6.1 ClusterIP

 默认的ServiceType,通过集群的内部IP暴露服务,选择该值时服务只能够在集群内部访问

  • 默认类型: 实现Pod的自动感知与负载均衡,是最核心的服务类型,但ClusterIP不能对外发布服务,相对外发布服务只能使用NodePort或lngress
  • 工作原理: kube-proxy 是在所有节点上运行的代理,可以实现简单的数据转发,设置更新IPTables/LVS规则,服务创建时,还提供服务地址DNS自动注册与服务发现功能
  • 查看DNS IP: kubectl -n kube-system get service kube-dns
  • 解析域名的软件包: bind-utils
  • 创建service资源文件模板: kubectl create service clusterip mysvc --tcp=80:80 --dry-run=client -o yaml

[root@master ~]# vim mysvc.yaml
---
kind: Service       # 资源对象类型
apiVersion: v1      # 版本
metadata:           # 元数据
  name: mysvc       # 资源对象名称
spec:               # 详细信息
  type: ClusterIP   # 服务类型
  clusterIP: 10.245.1.80 # 可以设置ClusterIP
  selector:         # 选择算符
    app: web        # Pod标签
  ports:            # 端口
  - protocol: TCP   # 协议
    port: 80        # 监听的端口,service端口
    targetPort: 80  # 后端服务器端口,pod端口
    nodePort: 31122 # 主机端口
  • NodePort:将Service通过指定的Node上的端口暴露给外部,通过此方法,就可以在集群外部访问服务
  • 在 /root/init/init.yaml  查看固定IP的范围及Pod IP的范围
    CluseterIP是随机分配的,可以自定义但必须满足CIDR

创建service

[root@master ~]# kubectl apply -f mysvc.yaml
service/mysvc created
[root@master ~]# kubectl get service
NAME        TYPE       CLUSTER-IP     EXTERNAL-IP  PORT(S) AGE
kubernetes  ClusterIP  10.245.0.1            443/TCP 9d
mysvc       ClusterIP  10.245.186.38         80/TCP 8s

 域名解析

# 安装工具软件包
[root@master ~]# dnf -y install bind-utils

# 查看 DNS 服务地址
[root@master ~]# kubectl -n kube-system get service kube-dns
NAME     TYPE       LUSTER-IP    EXTERNAL-IP PORT(S)                AGE
kube-dns ClusterIP  10.245.0.10        53/UDP,53/TCP,9153/TCP 9d
 
# 域名解析测试
[root@master ~]# host mysvc.default.svc.cluster.local 10.245.0.10
Using domain server:
Name: 10.245.0.10
Address: 10.245.0.10#53
Aliases:

mysvc.default.svc.cluster.local has address 10.245.186.38

6.2 nodePort

对外发布应用

  • ClusterIP服务可以解决集群内应用互访的问题,但外部的应用无法访问集群内的资源,某些应
  • 用需要访问集群内的资源,我们就需要对外发布服务。
  • ClusterIP:默认类型,可以实现Pod的自动感知与负载均衡,是最核心的服务类型,但
    ClusterIP不能对外发布服务,如果想对外发布服务可以使用NodePort 或Ingress
  • NodePort与Ingress:
    • NodePort: 使用基于端口映射(默认值: 30000-32767)的方式对外发布服务,可以任意发布服务(四层)
    • Ingress: 使用Ingress控制器(一般由Nginx或HAProxy构成),用来发布http,https服务(七层,只能发布这俩个服务)
    • 7层负载均衡比4层负载均衡更加智能
      4层负载均衡比7层负载均衡更加简洁高效
[root@master ~]# vim mysvc1.yaml
---
kind: Service
apiVersion: v1
metadata:
  name: mysvc1
spec:
  type: NodePort # 服务类型
  selector:
  app: web
  ports:
  - protocol: TCP
    port: 80
    nodePort: 30080 # 映射端口号
    targetPort: myhttp

 发布服务

[root@master ~]# kubectl apply -f mysvc1.yaml
service/mysvc1 created
[root@master ~]# kubectl get service
NAME       TYPE      CLUSTER-IP     EXTERNAL-IP PORT(S)      AGE
kubernetes ClusterIP 10.245.0.1           443/TCP      3h53m
mysvc      ClusterIP 10.245.1.80          80/TCP       3h35m
mysvc1     NodePort  10.245.235.255       80:30080/TCP 15s

6.3 Ingress

  • Ingress服务由(规则 + 控制器)组成

  • 使用Ingress控制器(一般由Nginx或HAProxy构成),用来发布http,https服务(七层,只能发布这俩个服务)

获取ingress

# 创建文件夹
[root@master ~]# mkdir ingress-controller
[root@master ~]# cd ingress-controller/

# 获取ingress-nginx,本次案例使用的是0.30版本
[root@master ingress-controller]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/mandatory.yaml
[root@master ingress-controller]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/provider/baremetal/service-nodeport.yaml

# 修改mandatory.yaml文件中的仓库
# 修改quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.30.0
# 为registry.aliyuncs.com/google_containers/nginx-ingress-controller:0.30.0
# 创建ingress-nginx
[root@master ingress-controller]# kubectl apply -f ./

# 查看ingress-nginx
[root@master ingress-controller]# kubectl get pod -n ingress-nginx
NAME                                           READY   STATUS    RESTARTS   AGE
pod/nginx-ingress-controller-fbf967dd5-4qpbp   1/1     Running   0          12h

# 查看service
[root@master ingress-controller]# kubectl get svc -n ingress-nginx
NAME            TYPE       CLUSTER-IP     EXTERNAL-IP   PORT(S)                      AGE
ingress-nginx   NodePort   10.98.75.163           80:32240/TCP,443:31335/TCP   11h

创建ingress

[root@master ingress]# vim mying.yaml
---
kind: Ingress              # 资源对象类型
apiVersion: networking.k8s.io/v1 # 资源对象版本
metadata:                  # 元数据
  name: mying              # 资源对象名称
spec:                      # 资源对象定义
  ingressClassName: nginx  # 使用的类名称
  rules:                   # ingress规则定义
  - host: nsd.tedu.cn      # 域名定义,没有可以不写
    http:                  # 协议
      paths:               # 访问的路径定义
      - path: /            # 访问的url路径
        pathType: Prefix   # 路径类型:Exact、Prefix
        backend:           # 后端服务
          service:         # 服务声明
            name: mysvc    # 服务名称
            port:          # 端口号声明
              number: 80   # 访问服务的端口号

[root@master ingress]# kubectl apply -f mying.yaml
ingress.networking.k8s.io/mying created
[root@master ingress]# kubectl get ingress
NAME   CLASS HOSTS       ADDRESS      PORTS AGE
mying  nginx nsd.tedu.cn 192.168.1.51 80    10s
[root@master ingress]# curl -H "Host: nsd.tedu.cn" http://192.168.1.51
Welcome to The Apache.

七、存储卷管理

容器中的文件在磁盘上是临时存放的,所以:

  • 当容器崩溃或重启,kubelet重启容器后,历史数据会消失
  • 容器被删除,容器内的数据也会消失
  • 多个容器有共享文件或目录的需求

卷概述:

  • 卷是一个抽象化的存储设备
  • 卷可以解决容器崩溃或重启,数据丢失的问题
  • 可以解决容器或Pod被删后数据持久保存的问题
  • 可以解决在多个容器内共享数据的问题
  • Pod可以同时使用任意数目的卷

持久卷:持久卷是集群中的存储资源,里面的内容不会随着Pod的删除而消失

临时卷:有些应用程序需要额外的存储,但并不关心数据在重启后是否仍可用,卷会遵从Pod的生命周期,与Pod一起创建和删除

使用存储卷:

  • 在Pod.spec下添加volumes字段,配置外部存储卷
  • 在Pod.spec.containers[*]中添加 vloumeMounts字段,声明卷在容器中挂载位置

1. 持久卷

1.1 hostPath

  • 本质是使用本地设备,如磁盘,分区,目录等,hostPath的可用性取决于底层节点的可用性,如果节点变的不健康,那hostPath也将不可访问

  • hostPath卷里面的数据不会随着Pod的结束而消失

[root@master ~]# vim web1.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web1
spec:
  volumes:                    # 卷定义
  - name: logdata             # 卷名称
    hostPath:                 # 资源类型
    path: /var/weblog         # 宿主机路径
    type: DirectoryOrCreate   # 目录不存在就创建
  containers:
  - name: nginx
    image: myos:nginx
    volumeMounts:             # mount 卷
      - name: logdata         # 卷名称
        mountPath: /usr/local/nginx/logs # 容器内路径

type类型:

type类型 说明说明
DirectoryOrCreate卷映射对象是一个目录,如果不存在就创建它
Directory卷映射对象是一个目录,且必须存在
FileOrCreate卷映射对象是一个文件,如果不存在创建它
File卷映射对象是一个文件,且必须存在
Socket卷映射对象是一个Socket套接字,且必须存在
CharDevice卷映射对象是一个字符设备,且必须存在
BlockDevice卷映射对象是一个块设备,且必须存在

 1.2 NFS

NFS 存储

k8s中允许将nfs存储以卷的方式挂载到你的Pod中。在删除Pod时,nfs存储卷会被卸载(umount),而不是被删除。nfs卷可以在不同节点的Pod之间共享数据。

NFS卷的用途

NFS最大的功能就是在不同节点的不同Pod中共享读写数据。本地NSF的客户端可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样。

 部署 

  • 需要一台NFS服务器
  • 在所有节点都需安装NFS(因为Pod是随机调度的,所以为保证NFS存储卷可以正确加载,需在所有node节点上都安装NFS软件工具包)
[root@master ~]# vim nfs.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web1
spec:
  volumes:                  # 卷定义
  - name: website           # 卷定义
    nfs:                    # NFS 资源类型
      server: 192.168.1.10  # NFS 服务器地址
      path: /var/webroot    # NFS 共享目录
  containers:
  - name: nginx
    image: myos:nginx
    volumeMounts:            # mount 卷
    - name: website          # 卷名称
      mountPath: /usr/local/nginx/html # 容器内路径

[root@master ~]# kubectl apply -f nfs.yaml
pod/nfs created

 1.3 PV/PVC

  • PV: 持久卷,资源提供者,有管理员配置,PV的全称是Persistent Volume,是持久卷
  • VC: 持久卷声明,资源使用者,根据业务需求来配置,PVC的全称是Persistent VolumeClaim,是持久卷声明
  • PVC会根据客户的需求,自动找到PV绑定

 accessMode:存储卷能提供的访问方式:

  • ReadWriteOnce: 单节点读写
  • ReadOnlyMany: 多节点只读
  • ReadWriteMang: 多节点读写
  • ReadWriteOnceMangy: 在一个Pod中只读

volumeMode: 提供资源的类型:

  • Filesystem:文件系统,直接mount就可以使用
  • Block:块设备,要先格式化在mount

 持久卷PV

[root@master ~]# vim pv.yaml
---
kind: PersistentVolume
apiVersion: v1
metadata:
  name: pv-local
spec:
  volumeMode: Filesystem     # 提供资源的类型[Filesystem,Block]
  accessModes:               # 存储卷能提供的访问模式
    - ReadWriteOnce          # 卷支持的模式,支持多种(hostPAth 只支持 RWO)
  capacity:                  # 存储卷能提供的存储空间
    storage: 30Gi            # 空间大小
  persistentVolumeReclaimPolicy: Retain  # 数据回收方式(手工回收) 
  hostPath:                  # hostPath配置
    path: /var/weblog
    type: DirectoryOrCreate
---
kind: PersistentVolume
apiVersion: v1
metadate:
  name: pv-nfs
spec:
  volumeMode: Filesystem     # 提供Filesystem访问方式
  accessModes:               # NFS支持多种访问方式
    - ReadWriteOnce          # RWO、ROX、RWX    
    - ReadOnlyMany
    - ReadWriteMany
  capacity:
    storage: 20Gi            # 提供的磁盘空间大小
  persistentVolumeReclaimPolicy: Retain # 数据手动回收
  mountOptions:              # mount的参数
    - nolock
  nfs:                       # NFS配置
    server: 192.168.1.10
    path: /var/webroot

[root@master ~]# kubectl apply -f pv.yaml
persistentvolume/pv-local created
persistentvolume/pv-nfs created
[root@master ~]# kubectl get persistentvolume
NAME     CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-local 30Gi     RWO          Retain         Available                        2s
pv-nfs   20Gi     RWO,ROX,RWX  Retain         Available                        2s

持久卷声明 PVC

[root@master ~]# vim pvc.yaml
---
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: pvc1
spec:                      # 定义需求
  volumeMode: Filesystem   # 需要使用Filesystem的存储卷
  accessModes:
    - ReadWriteOnce        # 需要支持RWO的存储卷
  resources:
    requests:
      storage: 25Gi        # 最小磁盘空间需求
---
kind: PersistentVolumeClaim
apiVersion: v1
metadata: 
  name: pvc2
spec:                      # 定义需求
  volumeMode: Filesystem   # 需要使用Filesystem的存储卷
  accessModes:
    - ReadWriteMany        # 需要支持RWX的存储卷
  resources:    
    requests:
      storage: 15Gi        # 最小磁盘空间需求

[root@master ~]# kubectl apply -f pvc.yaml
persistentvolumeclaim/pvc1 created
persistentvolumeclaim/pvc2 created
[root@master ~]# kubectl get persistentvolumeclaims
NAME STATUS VOLUME   CAPACITY ACCESS MODES STORAGECLASS AGE
pvc1 Bound  pv-local 30Gi     RWO                       17s
pvc2 Bound  pv-nfs   20Gi     RWO,ROX,RWX               17s

 Pod 挂载 PVC

[root@master ~]# vim web1.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web1
spec:
  volumes:                   # 卷定义
  - name: logdata            # 卷名称
    persistentVolumeClaim:   # 通过PVC引用存储资源
      claimName: pvc1        # PVC名称
  - name: website            # 卷名称
    persistentVolumeClaim:   # 通过PVC引用存储资源
      claimName: pvc2        # 卷名称
  containers:
  - name: nginx
    image: myos:nginx
    volumeMounts:            # mount 卷
    - name: logdata            # 卷名称
      mountPath: /usr/local/nginx/logs # 容器内路径
    - name: website            # 卷名称
      mountPath: /usr/local/nginx/html # 容器内路径

2. 临时卷

2.1 configMap 

  • 提供了向Pod注入配置数据的方法,允许你将配置文件与镜像分离,使容器化的应用具有可移植性
  • 在使用之前就要创建好,不是用来保存数据的,其保存的数据不可超过1MiB
  •  配置环境变量,修改配置文件的参数,数据库地址等
[root@master ~]# vim timezone.yaml
---
kind: ConfigMap
apiVersion: v1
metadata:
  name: timezone
data:
  TZ: Asia/Shanghai

[root@master ~]# kubectl apply -f timezone.yaml
configmap/timezone created
[root@master ~]# kubectl get configmaps
NAME             DATA AGE
kube-root-ca.crt 1    9d
timezone         1    9s
tz               1    3m57s
[root@master ~]# vim web1.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web1
spec:
  volumes:                     # 卷定义
  - name: logdata              # 卷名称
    persistentVolumeClaim:     # 通过PVC引用存储资源
      claimName: pvc1          # PVC名称
  - name: website              # 卷名称
    persistentVolumeClaim:     # 通过PVC引用存储资源
      claimName: pvc2          # 卷名称
  containers:
  - name: nginx
    image: myos:nginx
    envFrom:                   # 配置环境变量
    - configMapRef:            # 调用资源对象
      name: timezone           # 资源对象名称
    volumeMounts:              # mount 卷
    - name: logdata            # 卷名称
      mountPath: /usr/local/nginx/logs # 容器内路径
    - name: website            # 卷名称
      mountPath: /usr/local/nginx/html # 容器内路径

[root@master ~]# kubectl delete pods web1
pod "web1" deleted
[root@master ~]# kubectl apply -f web1.yaml
pod/web1 created
[root@master ~]# kubectl exec -it web1 -- date +%T
17:25:37

2.2 secret

  • 类似于ConfigMap,专门用于保存机密数据,因为是加密的
  • 一般用于:
    • 配置一些需要加密的环境变量或文件(如 https 证书)
    • 访问需要认证登录的私有镜像仓库(如 harbor 私有仓库)

通用类型
kubectl createsecret generic 名称 [选项/参数]
用于认证登录私有仓库的子类型
kubectl create secret docker-registry 名称 [选项/参数]
用于创建TLS证书的子类型
kubectl create secret tls 名称 [选项/参数]

 配置登录密钥

root@master ~]# kubectl create secret docker-registry harbor-auth --docker server=harbor:443 --docker-username="admin" --docker-password="admin123"
secret/harbor-auth created

[root@master ~]# kubectl get secrets harbor-auth -o yaml
apiVersion: v1
data:
  .dockerconfigjson:
eyJhdXRocyI6eyJoYXJib3I6NDQzIjp7InVzZXJuYW1lIjoiYWRtaW4iLCJwYXNzd29yZCI6ImFkbWluM
TIzIiwiYXV0aCI6IllXUnRhVzQ2WVdSdGFXNHhNak09In19fQ== # 经过加密的数据
kind: Secret
metadata:
creationTimestamp: "2023-09-22T10:03:02Z"
 name: harbor-auth
 namespace: default
 resourceVersion: "285856"
 uid: 14112a73-d723-48a4-b172-0bff7c3ed1ea
type: kubernetes.io/dockerconfigjson

[root@master ~]# kubectl get secrets harbor-auth
NAME        TYPE                           DATA AGE
harbor-auth kubernetes.io/dockerconfigjson 1    2m23s

认证私有仓库

[root@master ~]# vim web2.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web2
spec:
  imagePullSecrets:                     # 引用secret数据
  - name: harbor-auth                   # 资源对象名称
  containers:
  - name: apache
    image: harbor:443/myimg/httpd:latest # 使用私有仓库里的镜像

[root@master ~]# kubectl apply -f web2.yaml
pod/web2 created
[root@master ~]# kubectl get pods
NAME READY STATUS  RESTARTS AGE
web1 2/2   Running 0        46m
web2 1/1   Running 0        5s

2.3 emptyDir

  • 本质是一个空目录
  • 可以提供临时空间,同一个Pod中的容器也可以来共享数据
  • 随着Pod创建而创建,Pod在该节点上运行期间,一直存在,当Pod被节点删除时,临时卷中的数据也会被永久删除
  • 重启Pod不会造成emptyDir数据的丢失

临时空间

[root@master ~]# vim web2.yaml
---
kind: Pod
apiVersion: v1
metadata:
  name: web2
spec:
  imagePullSecrets:
  - name: harbor-auth
  volumes:                 # 卷配置
  - name: cache            # 卷名称,在容器内引用
    emptyDir: {}           # 资源类型
  containers:
  - name: apache
    image: harbor:443/myimg/httpd:latest
    volumeMounts:          # 挂载卷
    - name: cache          # 卷名称
      mountPath: /var/cache # 路径如果不存在,就创建出来,如果存在,就覆盖

[root@master ~]# kubectl apply -f web2.yaml
pod/web2 created
[root@master ~]# kubectl get pods
NAME READY STATUS  RESTARTS AGE
web1 2/2   Running 0        58m
web2 1/1   Running 0        8s
[root@master ~]# kubectl exec -it web2 -- bash
[root@web2 html]# mount | grep cache
/dev/sda1 on /var/cache type ext4 (rw,relatime)

本文地址:https://www.vps345.com/2646.html

搜索文章

Tags

PV计算 带宽计算 流量带宽 服务器带宽 上行带宽 上行速率 什么是上行带宽? CC攻击 攻击怎么办 流量攻击 DDOS攻击 服务器被攻击怎么办 源IP 服务器 linux 运维 游戏 云计算 javascript 前端 chrome edge deepseek Ollama 模型联网 API CherryStudio 进程 操作系统 进程控制 Ubuntu python MCP ssh ubuntu llama 算法 opencv 自然语言处理 神经网络 语言模型 数据库 centos oracle 关系型 安全 分布式 django fastapi flask web3.py 笔记 C 环境变量 进程地址空间 flutter react.js 前端面试题 node.js 持续部署 Dell R750XS 科技 ai java 人工智能 个人开发 mcp mcp-proxy mcp-inspector fastapi-mcp agent sse harmonyos 华为 开发语言 typescript 计算机网络 rust http 网络 numpy adb nginx 监控 自动化运维 阿里云 网络安全 网络协议 macos windows 搜索引擎 android kubernetes 容器 学习方法 经验分享 程序人生 github 创意 社区 docker DeepSeek-R1 API接口 Flask FastAPI Waitress Gunicorn uWSGI Uvicorn Hyper-V WinRM TrustedHosts RTSP xop RTP RTSPServer 推流 视频 kvm 无桌面 命令行 后端 c++ matlab YOLOv8 NPU Atlas800 A300I pro asi_bench mount挂载磁盘 wrong fs type LVM挂载磁盘 Centos7.9 ecm bpm tcp/ip Deepseek unity c# c语言 ansible playbook udp golang IIS .net core Hosting Bundle .NET Framework vs2022 es jvm php html 深度学习 机器学习 chatgpt 大模型 llama3 Chatglm 开源大模型 深度优先 图论 并集查找 换根法 树上倍增 ddos ollama llm 串口服务器 zotero WebDAV 同步失败 代理模式 pycharm YOLO pytorch vue.js audio vue音乐播放器 vue播放音频文件 Audio音频播放器自定义样式 播放暂停进度条音量调节快进快退 自定义audio覆盖默认样式 自动化 蓝耘科技 元生代平台工作流 ComfyUI 面试 性能优化 jdk intellij-idea 架构 sql KingBase 银河麒麟 kylin v10 麒麟 v10 spring boot tomcat ESP32 LDAP websocket ide nuxt3 vue3 实时音视频 filezilla 无法连接服务器 连接被服务器拒绝 vsftpd 331/530 统信 国产操作系统 虚拟机安装 .net gitlab 多线程服务器 Linux网络编程 Docker Compose docker compose docker-compose conda pillow spring json html5 firefox 网络工程师 华为认证 https 流式接口 3d 数学建模 URL 网络结构图 AI Agent ftp jenkins 云原生 ci/cd express stm32 单片机 qt 嵌入式硬件 EasyConnect 开源 Cline 企业微信 Linux24.04 deepin ecmascript nextjs react reactjs av1 电视盒子 机顶盒ROM 魔百盒刷机 LLM Web APP Streamlit .netcore hadoop 运维开发 opensearch helm 学习 web安全 ssrf 失效的访问控制 HTML audio 控件组件 vue3 audio音乐播放器 Audio标签自定义样式默认 vue3播放音频文件音效音乐 自定义audio播放器样式 播放暂停调整声音大小下载文件 vim MI300x DeepSeek AIGC openwrt maven ux 多线程 k8s Python 网络编程 聊天服务器 套接字 TCP 客户端 Socket 小程序 apache clickhouse Linux PID svn mysql Linux xrdp 远程桌面 远程连接 string模拟实现 深拷贝 浅拷贝 经典的string类问题 三个swap 游戏服务器 TrinityCore 魔兽世界 开发环境 SSL证书 sysctl.conf vm.nr_hugepages chfs ubuntu 16.04 odoo 服务器动作 Server action 能力提升 面试宝典 技术 IT信息化 live555 源码剖析 rtsp实现步骤 流媒体开发 其他 Cursor 报错 智能路由器 电脑 prometheus kylin 银河麒麟操作系统 国产化 rpc 远程过程调用 Windows环境 直播推流 腾讯云 JAVA Java spring cloud rsyslog 高效日志打印 串口通信日志 服务器日志 系统状态监控日志 异常记录日志 物联网 硬件工程 低代码 pygame 小游戏 五子棋 vscode FTP服务器 媒体 微信公众平台 中间件 C语言 ipython 服务器繁忙 联想开天P90Z装win10 DigitalOcean GPU服务器购买 GPU服务器哪里有 GPU服务器 jmeter 软件测试 gitee AI编程 microsoft 压力测试 tailscale derp derper 中转 C++软件实战问题排查经验分享 0xfeeefeee 0xcdcdcdcd 动态库加载失败 程序启动失败 程序运行权限 标准用户权限与管理员权限 权限 僵尸进程 eureka 统信UOS 麒麟 bonding 链路聚合 mysql离线安装 ubuntu22.04 mysql8.0 远程工作 redis 课程设计 大数据 cursor 向日葵 MCP server C/S LLM windows日志 安全架构 Minecraft 命名管道 客户端与服务端通信 缓存 agi 计算机视觉 gpu算力 负载均衡 unix flash-attention LORA 大语言模型 NLP mongodb H3C iDRAC R720xd 目标检测 华为云 springsecurity6 oauth2 授权服务器 前后端分离 uni-app go 硬件架构 系统架构 服务器无法访问 ip地址无法访问 无法访问宝塔面板 宝塔面板打不开 机器人 XFS xfs文件系统损坏 I_O error ssl 集成学习 集成测试 openEuler jar arm FunASR ASR 佛山戴尔服务器维修 佛山三水服务器维修 android studio 交互 file server http server web server Spring Security Docker Hub docker pull 镜像源 daemon.json Reactor 设计模式 C++ 代码调试 ipdb rdp 实验 消息队列 minio UOS 统信操作系统 yum oceanbase rc.local 开机自启 systemd 1024程序员节 ollama下载加速 备份SQL Server数据库 数据库备份 傲梅企业备份网络版 shell MNN Qwen pppoe radius hugo arm开发 gaussdb ruoyi Dify DeepSeek行业应用 Heroku 网站部署 xss 宝塔面板访问不了 宝塔面板网站访问不了 宝塔面板怎么配置网站能访问 宝塔面板配置ip访问 宝塔面板配置域名访问教程 宝塔面板配置教程 jupyter pip kind next.js 部署 部署next.js ocr AI agent 思科模拟器 思科 Cisco java-ee muduo X11 Xming bash IDEA googlecloud EMQX MQTT 通信协议 弹性计算 虚拟化 KVM 计算虚拟化 弹性裸金属 idm 游戏程序 安全威胁分析 vscode 1.86 医疗APP开发 app开发 漏洞 宝塔面板 同步 备份 建站 unity3d 安装教程 GPU环境配置 Ubuntu22 CUDA PyTorch Anaconda安装 SSH Xterminal 豆瓣 追剧助手 迅雷 nas 微信 内存 爬虫 数据集 postman mock mock server 模拟服务器 mock服务器 Postman内置变量 Postman随机数据 ios aws 备选 网站 api 调用 示例 银河麒麟桌面操作系统 Kylin OS AD域 AutoDL IIS服务器 IIS性能 日志监控 intellij idea 监控k8s集群 集群内prometheus git elasticsearch sqlite dubbo TCP服务器 qt项目 qt项目实战 qt教程 fpga开发 openssl 密码学 模拟退火算法 国标28181 视频监控 监控接入 语音广播 流程 SIP SDP mosquitto 外网访问 内网穿透 端口映射 r语言 数据挖掘 数据可视化 数据分析 word图片自动上传 word一键转存 复制word图片 复制word图文 复制word公式 粘贴word图文 粘贴word公式 华为od kafka hibernate 5G 3GPP 卫星通信 kamailio sip VoIP 编辑器 根服务器 ffmpeg 音视频 AI大模型 大模型入门 大模型教程 webrtc remote-ssh GaN HEMT 氮化镓 单粒子烧毁 辐射损伤 辐照效应 sqlserver ukui 麒麟kylinos openeuler 微服务 系统安全 springboot Nuxt.js 温湿度数据上传到服务器 Arduino HTTP 需求分析 规格说明书 big data okhttp CORS 跨域 雨云 NPS 孤岛惊魂4 virtualenv debian 恒源云 tcp RTMP 应用层 oneapi 大模型微调 open webui 博客 交换机 excel Headless Linux uniapp 远程登录 telnet pdf asp.net大文件上传 asp.net大文件上传下载 asp.net大文件上传源码 ASP.NET断点续传 asp.net上传文件夹 asp.net上传大文件 .net core断点续传 rtsp rtp visualstudio TRAE zookeeper WSL win11 无法解析服务器的名称或地址 v10 软件 armbian u-boot 重启 排查 系统重启 日志 原因 驱动开发 嵌入式实习 Samba SWAT 配置文件 服务管理 网络共享 seatunnel RustDesk自建服务器 rustdesk服务器 docker rustdesk yaml Ultralytics 可视化 黑客技术 GCC Linux环境 项目部署到linux服务器 项目部署过程 本地部署 RAGFlow web pyqt 微信小程序域名配置 微信小程序服务器域名 微信小程序合法域名 小程序配置业务域名 微信小程序需要域名吗 微信小程序添加域名 Trae AI代码编辑器 gcc 半虚拟化 硬件虚拟化 Hypervisor etl 7z etcd 数据安全 RBAC wireshark 测试工具 嵌入式 linux驱动开发 Kali Linux 黑客 渗透测试 信息收集 输入法 h.264 micropython esp32 mqtt ceph keepalived 网卡的名称修改 eth0 ens33 ue4 着色器 ue5 虚幻 远程 命令 执行 sshpass 操作 cpp-httplib 网工 npm dify postgresql pgpool 开机自启动 自动驾驶 rag ragflow ragflow 源码启动 grafana vscode1.86 1.86版本 ssh远程连接 田俊楠 SSE rocketmq open Euler dde 深度求索 私域 知识库 迁移指南 bug ui outlook frp jina 腾讯云大模型知识引擎 cuda cudnn anaconda mamba Vmamba 视觉检测 信息与通信 adobe Docker引擎已经停止 Docker无法使用 WSL进度一直是0 镜像加速地址 xcode elk 软件工程 iis Linux的基础指令 W5500 OLED u8g2 雨云服务器 合成模型 扩散模型 图像生成 token sas 环境迁移 序列化反序列化 lio-sam SLAM 服务器管理 配置教程 服务器安装 网站管理 崖山数据库 YashanDB 鸿蒙 鸿蒙系统 composer glibc 视频编解码 Ubuntu 24.04.1 轻量级服务器 NFS redhat 产测工具框架 IMX6ULL 管理框架 python3.11 dash 正则表达式 ip visual studio code 群晖 文件分享 DevEco Studio HarmonyOS OpenHarmony 真机调试 毕设 游戏引擎 devops Logstash 日志采集 相差8小时 UTC 时间 rustdesk 前端框架 远程控制 远程看看 远程协助 HiCar CarLife+ CarPlay QT RK3588 yolov8 Node-Red 编程工具 流编程 知识图谱 网络穿透 云服务器 CPU cpu 实时 使用 鲲鹏 昇腾 npu 系统 黑苹果 虚拟机 VMware 三级等保 服务器审计日志备份 sdkman 程序 编程 性能分析 bat sequoiaDB mac 端口 查看 ss OD机试真题 华为OD机试真题 服务器能耗统计 捆绑 链接 谷歌浏览器 youtube google gmail firewalld dns 软考 nvidia linux 命令 sed 命令 prometheus数据采集 prometheus数据模型 prometheus特点 css 相机 智能音箱 智能家居 微信小程序 服务器数据恢复 数据恢复 存储数据恢复 北亚数据恢复 oracle数据恢复 多个客户端访问 IO多路复用 回显服务器 TCP相关API 实时互动 bootstrap alias unalias 别名 主板 电源 网卡 可信计算技术 网络攻击模型 矩阵 线性代数 电商平台 大文件分片上传断点续传及进度条 如何批量上传超大文件并显示进度 axios大文件切片上传详细教 node服务器合并切片 vue3大文件上传报错提示错误 大文件秒传跨域报错cors 混合开发 环境安装 JDK XCC Lenovo 压测 ECS 繁忙 解决办法 替代网站 汇总推荐 AI推理 n8n 工作流 workflow CDN gateway Clion Nova ResharperC++引擎 Centos7 远程开发 dba prompt easyui langchain 源码 毕业设计 hive Hive环境搭建 hive3环境 Hive远程模式 Linux find grep wsgiref Web 服务器网关接口 webgl flink list 数据结构 代理 skynet centos-root /dev/mapper yum clean all df -h / du -sh 考研 onlyoffice 在线office DOIT 四博智联 yum源切换 更换国内yum源 防火墙 NAT转发 NAT Server rclone AList webdav fnOS Unity Dedicated Server Host Client 无头主机 stm32项目 embedding wsl 基础入门 IPv4 子网掩码 公网IP 私有IP SSH 密钥生成 SSH 公钥 私钥 生成 chrome 浏览器下载 chrome 下载安装 谷歌浏览器下载 iperf3 带宽测试 常用命令 文本命令 目录命令 ShenTong 计算机 thingsboard matplotlib ardunio BLE 端口测试 IMX317 MIPI H265 VCU iot dell服务器 iventoy VmWare OpenEuler css3 epoll safari Mac 历史版本 下载 安装 MySql 线程 磁盘监控 移动魔百盒 USB转串口 CH340 飞牛NAS 飞牛OS MacBook Pro zabbix harmonyOS面试题 服务器配置 生物信息学 邮件APP 免费软件 gitea Ubuntu Server Ubuntu 22.04.5 服务器主板 AI芯片 Jellyfin 我的世界 我的世界联机 数码 我的世界服务器搭建 asm AI-native Docker Desktop 王者荣耀 Wi-Fi 策略模式 单例模式 超融合 ESXi WebUI DeepSeek V3 办公自动化 自动化生成 pdf教程 jetty undertow HarmonyOS Next tidb GLIBC ISO镜像作为本地源 fd 文件描述符 链表 云服务 文件系统 路径解析 云电竞 云电脑 todesk deepseek r1 BMC IPMI 带外管理 软链接 硬链接 模拟实现 职场和发展 db 硬件 设备 GPU PCI-Express 流水线 脚本式流水线 efficientVIT YOLOv8替换主干网络 TOLOv8 cocoapods threejs 3D make命令 makefile文件 sqlite3 g++ g++13 cnn DenseNet SenseVoice CrewAI rabbitmq ruby log4j iphone Windows Erlang OTP gen_server 热代码交换 事务语义 Qwen2.5-coder 离线部署 iftop 网络流量监控 Ubuntu DeepSeek DeepSeek Ubuntu DeepSeek 本地部署 DeepSeek 知识库 DeepSeek 私有化知识库 本地部署 DeepSeek DeepSeek 私有化部署 uv freebsd 安卓 Xinference 镜像 pyautogui dns是什么 如何设置电脑dns dns应该如何设置 SSH 服务 SSH Server OpenSSH Server AI写作 AI作画 QQ 聊天室 信号处理 WSL2 navicat IM即时通讯 剪切板对通 HTML FORMAT 无人机 ROS 架构与原理 VMware安装Ubuntu Ubuntu安装k8s 测试用例 功能测试 个人博客 less KylinV10 麒麟操作系统 Vmware 计算机外设 银河麒麟服务器操作系统 系统激活 k8s集群资源管理 云原生开发 MacOS录屏软件 算力 RAGFLOW cd 目录切换 Radius camera Arduino 电子信息 ros2 moveit 机器人运动 高效远程协作 TrustViewer体验 跨设备操作便利 智能远程控制 tensorflow Ubuntu 24 常用命令 Ubuntu 24 Ubuntu vi 异常处理 aarch64 编译安装 HPC 数据库架构 数据管理 数据治理 数据编织 数据虚拟化 图像处理 烟花代码 烟花 元旦 串口驱动 CH341 uart 485 图形化界面 lsb_release /etc/issue /proc/version uname -r 查看ubuntu版本 windwos防火墙 defender防火墙 win防火墙白名单 防火墙白名单效果 防火墙只允许指定应用上网 防火墙允许指定上网其它禁止 apt 国内源 Open WebUI 阻塞队列 生产者消费者模型 服务器崩坏原因 c laravel Linux无人智慧超市 LInux多线程服务器 QT项目 LInux项目 单片机项目 vue 直流充电桩 充电桩 域名服务 DHCP 符号链接 配置 selenium junit xpath定位元素 自动化测试 性能测试 SEO bcompare Beyond Compare 模拟器 教程 dity make 显示管理器 lightdm gdm 树莓派 VNC sentinel 强化学习 智能手机 NAS Termux RoboVLM 通用机器人策略 VLA设计哲学 vlm fot robot 视觉语言动作模型 具身智能 netty 裸金属服务器 弹性裸金属服务器 p2p 游戏机 抗锯齿 Netty 即时通信 NIO 实习 HTTP 服务器控制 ESP32 DeepSeek Linux awk awk函数 awk结构 awk内置变量 awk参数 awk脚本 awk详解 状态管理的 UDP 服务器 Arduino RTOS firewall EMUI 回退 降级 升级 致远OA OA服务器 服务器磁盘扩容 程序员 加解密 Yakit yaklang 语音识别 中兴光猫 换光猫 网络桥接 自己换光猫 HCIE 数通 gpt 技术共享 ArkUI 多端开发 智慧分发 应用生态 鸿蒙OS vasp安装 边缘计算 智能硬件 查询数据库服务IP地址 SQL Server GoogLeNet MS Materials 金仓数据库 2025 征文 数据库平替用金仓 Typore springcloud eclipse 业界资讯 code-server 执法记录仪 智能安全帽 smarteye SVN Server tortoise svn SysBench 基准测试 流量运营 wordpress 无法访问wordpess后台 打开网站页面错乱 linux宝塔面板 wordpress更换服务器 单元测试 政务 分布式系统 监控运维 Prometheus Grafana proxy模式 AISphereButler HAProxy 元服务 应用上架 大数据平台 虚拟局域网 银河麒麟高级服务器 外接硬盘 Kylin 换源 Debian echarts 信息可视化 网页设计 gradle transformer 华为机试 软件需求 UDP的API使用 vSphere vCenter llama.cpp crosstool-ng Java Applet URL操作 服务器建立 Socket编程 网络文件读取 Dell HPE 联想 浪潮 tcpdump 交叉编译 rust腐蚀 wsl2 框架搭建 显卡驱动 Python基础 Python教程 Python技巧 网络用户购物行为分析可视化平台 大数据毕业设计 selete 高级IO 技能大赛 多层架构 解耦 CVE-2024-7347 VPS .net mvc断点续传 实战案例 deekseek iBMC UltraISO 状态模式 微信分享 Image wxopensdk 飞书 web3 环境配置 Kali Claude autodl 软件定义数据中心 sddc 反向代理 mcu AnythingLLM AnythingLLM安装 IPMITOOL 硬件管理 opcua opcda KEPServer安装 P2P HDLC 工业4.0 k8s资源监控 annotations自动化 自动化监控 监控service 监控jvm IMM QT 5.12.12 QT开发环境 Ubuntu18.04 双系统 GRUB引导 Linux技巧 信号 rtsp服务器 rtsp server android rtsp服务 安卓rtsp服务器 移动端rtsp服务 大牛直播SDK docker搭建nacos详解 docker部署nacos docker安装nacos 腾讯云搭建nacos centos7搭建nacos 传统数据库升级 银行 LLMs springboot远程调试 java项目远程debug docker远程debug java项目远程调试 springboot远程 单一职责原则 hexo 移动云 小艺 Pura X 小智AI服务端 xiaozhi TTS FTP 服务器 RAID RAID技术 磁盘 存储 can 线程池 Ark-TS语言 微信开放平台 微信公众号配置 宠物 免费学习 宠物领养 宠物平台 游戏开发 mariadb ssh远程登录 自定义客户端 SAS 僵尸世界大战 游戏服务器搭建 多进程 linux上传下载 健康医疗 互联网医院 nfs wps SSL 域名 Anolis nginx安装 linux插件下载 nac 802.1 portal 大大通 第三代半导体 碳化硅 VMware安装mocOS macOS系统安装 vmware 卡死 VR手套 数据手套 动捕手套 动捕数据手套 ldap 毕昇JDK webstorm ros IDE AI 原生集成开发环境 Trae AI 浏览器开发 AI浏览器 linux安装配置 rnn Cookie 热榜 分布式训练 Kylin-Server Ubuntu共享文件夹 共享目录 Linux共享文件夹 内网环境 neo4j sonoma 自动更新 seleium chromedriver xshell termius iterm2 目标跟踪 OpenVINO 推理应用 数据仓库 数据库开发 database WebRTC win服务器架设 windows server ArcTS 登录 ArcUI GridItem arkUI 服务网格 istio 匿名管道 DBeaver kerberos js LInux SRS 流媒体 直播 chrome devtools ABAP perf openstack Xen TCP协议 存储维护 NetApp存储 EMC存储 系统开发 binder 车载系统 framework 源码环境 蓝桥杯 鸿蒙开发 移动开发 软负载 开发 CLion 语法 milvus CentOS Stream CentOS 服务器部署ai模型 swoole curl wget YOLOv12 risc-v 图形渲染 AI Agent 字节智能运维 ubuntu24.04.1 visual studio docker部署翻译组件 docker部署deepl docker搭建deepl java对接deepl 翻译组件使用 IO模型 西门子PLC 通讯 rpa triton 模型分析 fast regedit 开机启动 大模型应用 Redis Desktop 上传视频至服务器代码 vue3批量上传多个视频并预览 如何实现将本地视频上传到网页 element plu视频上传 ant design vue vue3本地上传视频及预览移除 自动化任务管理 宕机切换 服务器宕机 本地化部署 飞牛nas fnos 京东云 私有化 PVE vr 玩机技巧 软件分享 软件图标 mq Unity插件 x64 SIGSEGV xmm0 TrueLicense Linux的权限 李心怡 Google pay Apple pay UDP ip命令 新增网卡 新增IP 启动网卡 docker部署Python Invalid Host allowedHosts DNS PX4 idea 服务器时间 VMware创建虚拟机 网络爬虫 大模型推理 大模型学习 搭建个人相关服务器 minicom 串口调试工具 音乐服务器 Navidrome 音流 粘包问题 ping++ 产品经理 离线部署dify MDK 嵌入式开发工具 论文笔记 sublime text arcgis eNSP 企业网络规划 华为eNSP 网络规划 运维监控 增强现实 沉浸式体验 应用场景 技术实现 案例分析 AR 在线预览 xlsx xls文件 在浏览器直接打开解析xls表格 前端实现vue3打开excel 文件地址url或接口文档流二进 bot Docker 虚幻引擎 leetcode 推荐算法 DocFlow ubuntu24 vivado24 自动化编程 怎么卸载MySQL MySQL怎么卸载干净 MySQL卸载重新安装教程 MySQL5.7卸载 Linux卸载MySQL8.0 如何卸载MySQL教程 MySQL卸载与安装 Attention trea 阿里云ECS 论文阅读 Deepseek-R1 私有化部署 推理模型 欧标 OCPP edge浏览器 物联网开发 lua vue-i18n 国际化多语言 vue2中英文切换详细教程 如何动态加载i18n语言包 把语言json放到服务器调用 前端调用api获取语言配置文件 社交电子 RAG 检索增强生成 文档解析 大模型垂直应用 键盘 音乐库 飞牛 实用教程 deep learning 嵌入式系统开发 searxng midjourney 网络药理学 生信 PPI String Cytoscape CytoHubba 代理服务器 rime 影刀 #影刀RPA# kali 共享文件夹 嵌入式Linux IPC gnu 信创 信创终端 中科方德 程序员创富 nlp 干货分享 黑客工具 密码爆破 figma 远程服务 Windsurf conda配置 conda镜像源 灵办AI EtherNet/IP串口网关 EIP转RS485 EIP转Modbus EtherNet/IP网关协议 EIP转RS485网关 EIP串口服务器 大模型部署 聚类 mybatis C# MQTTS 双向认证 emqx docker命令大全 ai小智 语音助手 ai小智配网 ai小智教程 esp32语音助手 diy语音助手 数据库系统 dock 加速 做raid 装系统 docker run 数据卷挂载 交互模式 gpt-3 文心一言 trae 火绒安全 内网服务器 内网代理 内网通信 EtherCAT转Modbus ECT转Modbus协议 EtherCAT转485网关 ECT转Modbus串口网关 EtherCAT转485协议 ECT转Modbus网关 VM搭建win2012 win2012应急响应靶机搭建 攻击者获取服务器权限 上传wakaung病毒 应急响应并溯源 挖矿病毒处置 应急响应综合性靶场 人工智能生成内容 金融 本地知识库部署 DeepSeek R1 模型 分析解读 拓扑图 剧本 docker搭建pg docker搭建pgsql pg授权 postgresql使用 postgresql搭建 linux环境变量 VLAN 企业网络 大模型面经 uni-file-picker 拍摄从相册选择 uni.uploadFile H5上传图片 微信小程序上传图片 VS Code mm-wiki搭建 linux搭建mm-wiki mm-wiki搭建与使用 mm-wiki使用 mm-wiki详解 基础环境 风扇控制软件 ubuntu20.04 开机黑屏 IO VSCode hosts 沙盒 word xml AD 域管理 spark HistoryServer Spark YARN jobhistory 多路转接 网站搭建 serv00 项目部署 grub 版本升级 扩容 MacMini 迷你主机 mini Apple wpf Playwright 磁盘镜像 服务器镜像 服务器实时复制 实时文件备份 raid5数据恢复 磁盘阵列数据恢复 cmos AP配网 AK配网 小程序AP配网和AK配网教程 WIFI设备配网小程序UDP开 USB网络共享 ai工具 java-rocketmq OpenSSH minecraft GIS 遥感 WebGIS ssh漏洞 ssh9.9p2 CVE-2025-23419