news 2026/4/18 4:15:01

K8S-Deployment

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
K8S-Deployment

Deployment 核心概念

Deployment 是 Kubernetes 中管理无状态应用的核心对象,通过声明式配置实现对 Pod 和 ReplicaSet 的自动化管理。其核心功能围绕应用生命周期管理展开:

  • 声明式更新:用户通过 YAML 文件定义期望状态,系统自动调整实际状态至匹配
  • 版本控制:保留历史版本记录,支持滚动更新和快速回滚
  • 扩缩容:动态调整 Pod 副本数量应对负载变化
  • 自愈能力:自动替换故障节点,维持声明副本数

YAML 文件结构解析

典型 Deployment 配置文件包含以下关键字段:

apiVersion: apps/v1 kind: Deployment metadata: name: nginx-deployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx:1.14.2 ports: - containerPort: 80
关键字段说明

metadata 部分

  • name: 必填字段,定义 Deployment 对象名称
  • labels: 可选标签,用于资源分类和组织

spec 部分核心参数

  • replicas: 指定期望的 Pod 副本数量
  • selector: 标签选择器,确定 Deployment 管理的 Pod 范围
  • template: Pod 模板定义,必须包含匹配 selector 的标签

策略配置扩展

spec: strategy: type: RollingUpdate rollingUpdate: maxSurge: 25% maxUnavailable: 25% minReadySeconds: 10 revisionHistoryLimit: 10
  • strategy.type: 更新策略(RollingUpdate/Recreate)
  • maxSurge: 更新期间允许超出副本数的百分比
  • maxUnavailable: 更新期间允许不可用副本比例
  • minReadySeconds: Pod 就绪后等待时间(秒)
  • revisionHistoryLimit: 保留的历史版本数量

操作场景示例

滚动更新触发修改 Pod 模板中的镜像版本后,自动触发渐进式更新流程:

kubectl set image deployment/nginx-deployment nginx=nginx:1.16.1

版本回滚操作回退到上一个稳定版本:

kubectl rollout undo deployment/nginx-deployment

状态监控命令查看更新进度和状态:

kubectl rollout status deployment/nginx-deployment kubectl get replicasets -l app=nginx

高级配置技巧

资源配额管理在 Pod 模板中配置资源限制:

resources: limits: cpu: "500m" memory: "512Mi" requests: cpu: "250m" memory: "256Mi"

健康检查配置添加存活和就绪探针:

livenessProbe: httpGet: path: / port: 80 initialDelaySeconds: 15 readinessProbe: httpGet: path: / port: 80 periodSeconds: 5

多容器部署单个 Pod 中部署多个关联容器:

containers: - name: nginx image: nginx:1.16.1 - name: log-collector image: fluentd:latest
apiVersion: extensions/v1beta1 #接口版本 kind: Deployment #接口类型 metadata: name: cango-demo #Deployment名称 namespace: cango-prd #命名空间 labels: app: cango-demo #标签 spec: replicas: 3 selector: matchLabels: app: cango-demo #匹配模板中label strategy: rollingUpdate: ##由于replicas为3,则整个升级,pod个数在2-4个之间 maxSurge: 1 #滚动升级时会先启动1个pod maxUnavailable: 1 #滚动升级时允许的最大Unavailable的pod个数 template: metadata: labels: app: cango-demo #模板名称必填 sepc: #定义容器模板,该模板可以包含多个容器 containers: - name: cango-demo #镜像名称 image: swr.cn-east-2.myhuaweicloud.com/cango-prd/cango-demo:0.0.1-SNAPSHOT #镜像地址 command: [ "/bin/sh","-c","cat /etc/config/path/to/special-key" ] #启动命令 args: #启动参数 - '-storage.local.retention=$(STORAGE_RETENTION)' - '-storage.local.memory-chunks=$(STORAGE_MEMORY_CHUNKS)' - '-config.file=/etc/prometheus/prometheus.yml' - '-alertmanager.url=http://alertmanager:9093/alertmanager' - '-web.external-url=$(EXTERNAL_URL)' #如果command和args均没有写,那么用Docker默认的配置。 #如果command写了,但args没有写,那么Docker默认的配置会被忽略而且仅仅执行.yaml文件的command(不带任何参数的)。 #如果command没写,但args写了,那么Docker默认配置的ENTRYPOINT的命令行会被执行,但是调用的参数是.yaml中的args。 #如果如果command和args都写了,那么Docker默认的配置被忽略,使用.yaml的配置。 imagePullPolicy: IfNotPresent #如果不存在则拉取 livenessProbe: #表示container是否处于live状态。如果LivenessProbe失败,LivenessProbe将会通知kubelet对应的container不健康了。随后kubelet将kill掉container,并根据RestarPolicy进行进一步的操作。默认情况下LivenessProbe在第一次检测之前初始化值为Success,如果container没有提供LivenessProbe,则也认为是Success; httpGet: path: /health #如果没有心跳检测接口就为/ port: 8080 scheme: HTTP initialDelaySeconds: 60 ##启动后延时多久开始运行检测 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 readinessProbe: httpGet: path: /health #如果没有心跳检测接口就为/ port: 8080 scheme: HTTP initialDelaySeconds: 30 ##启动后延时多久开始运行检测 timeoutSeconds: 5 successThreshold: 1 failureThreshold: 5 resources: ##CPU内存限制 requests: cpu: 2 memory: 2048Mi limits: cpu: 2 memory: 2048Mi env: ##通过环境变量的方式,直接传递pod=自定义Linux OS环境变量 - name: LOCAL_KEY #本地Key value: value - name: CONFIG_MAP_KEY #局策略可使用configMap的配置Key, valueFrom: configMapKeyRef: name: special-config #configmap中找到name为special-config key: special.type #找到name为special-config里data下的key ports: - name: http containerPort: 8080 #对service暴露端口 volumeMounts: #挂载volumes中定义的磁盘 - name: log-cache mountPath: /tmp/log - name: sdb #普通用法,该卷跟随容器销毁,挂载一个目录 mountPath: /data/media - name: nfs-client-root #直接挂载硬盘方法,如挂载下面的nfs目录到/mnt/nfs mountPath: /mnt/nfs - name: example-volume-config #高级用法第1种,将ConfigMap的log-script,backup-script分别挂载到/etc/config目录下的一个相对路径path/to/...下,如果存在同名文件,直接覆盖。 mountPath: /etc/config - name: rbd-pvc #高级用法第2中,挂载PVC(PresistentVolumeClaim) ​ #使用volume将ConfigMap作为文件或目录直接挂载,其中每一个key-value键值对都会生成一个文件,key为文件名,value为内容, volumes: # 定义磁盘给上面volumeMounts挂载 - name: log-cache emptyDir: {} - name: sdb #挂载宿主机上面的目录 hostPath: path: /any/path/it/will/be/replaced - name: example-volume-config # 供ConfigMap文件内容到指定路径使用 configMap: name: example-volume-config #ConfigMap中名称 items: - key: log-script #ConfigMap中的Key path: path/to/log-script #指定目录下的一个相对路径path/to/log-script - key: backup-script #ConfigMap中的Key path: path/to/backup-script #指定目录下的一个相对路径path/to/backup-script - name: nfs-client-root #供挂载NFS存储类型 nfs: server: 10.42.0.55 #NFS服务器地址 path: /opt/public #showmount -e 看一下路径 - name: rbd-pvc #挂载PVC磁盘 persistentVolumeClaim: claimName: rbd-pvc1 #挂载已经申请的pvc磁盘

三、企业应用案例 h3 3.1 环境准备 创建my-blue.yaml

apiVersion: apps/v1 kind: Deployment metadata: name: mydm spec: replicas: 3 selector: matchLabels: app: myapp-blue #匹配模板中label template: metadata: labels: app: myapp-blue spec: containers: - name: myapp-blue image: janakiramm/myapp:v1 imagePullPolicy: IfNotPresent ports: - containerPort: 80

创建访问service my-blue-service.yaml

apiVersion: v1 kind: Service metadata: name: service-blue spec: selector: app: myapp-blue type: NodePort ports: - port: 80 nodePort: 30030 targetPort: 80

提交对应的资源清单

[root@k8s-master01 ~]# kubectl apply -f my-blue.yaml [root@k8s-master01 ~]# kubectl apply -f my-blue-service.yaml #查看对应的资源 [root@k8s-master01 ~]# kubectl get pod NAME READY STATUS RESTARTS AGE mydm-7755b9f55f-7h2nb 1/1 Running 0 69s mydm-7755b9f55f-bj9gf 1/1 Running 0 69s mydm-7755b9f55f-hjckc 1/1 Running 0 69s mydm-7755b9f55f-lfvrd 1/1 Running 0 69s mydm-7755b9f55f-lxzw4 1/1 Running 0 69s mydm-7755b9f55f-v74w8 1/1 Running 0 69s [root@k8s-master01 ~]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service-blue NodePort 10.10.157.201 <none> 80:30030/TCP 87s

3.2 扩缩容 修改对应的yaml文件中的replicas的数量

apiVersion: apps/v1 kind: Deployment metadata: name: mydm spec: replicas: 5 selector: matchLabels: app: myapp-blue #匹配模板中label template: metadata: labels: app: myapp-blue spec: containers: - name: myapp-blue image: janakiramm/myapp:v1 imagePullPolicy: IfNotPresent ports: - containerPort: 80

3.3 滚动更新 修改对应的yaml文件中的image信息

apiVersion: apps/v1 kind: Deployment metadata: name: mydm spec: replicas: 3 selector: matchLabels: app: myapp-blue #匹配模板中label template: metadata: labels: app: myapp-blue spec: containers: - name: myapp-blue image: janakiramm/myapp:v2 imagePullPolicy: IfNotPresent ports: - containerPort: 80

3.4 回滚 查看历史版本

[root@k8s-master01 ~]# kubectl rollout history deployment name

回滚操作

[root@k8s-master01 ~]# kubectl rollout undo deployment name --to-revision=1

自定义更新策略配置详解

maxSurge与maxUnavailable类型说明

maxSurge
定义与期望副本数相比,允许超出副本数的最大比例或绝对值。数值越大,副本更新速度越快,但可能短暂占用更多资源。

maxUnavailable
定义与期望副本数相比,允许不可用副本的最大比例或绝对值。数值越小,服务稳定性越高,更新过程更平滑,但可能延长更新时间。

设置类型

按数量配置

  • maxUnavailable取值范围为[0, 副本数],例如副本数为10时,可设为3表示最多允许3个副本不可用。
  • maxSurge取值范围为[0, 副本数],例如设为2表示最多允许同时新增2个副本。
  • 两者不能同时为0,否则会导致更新无法进行。

按比例配置

  • maxUnavailable取值范围为[0%, 100%],计算时向下取整。例如10个副本的5%为0.5,实际按0处理。
  • maxSurge取值范围为[0%, 100%],计算时向上取整。例如10个副本的5%为0.5,实际按1处理。
  • 两者不能同时为0%,需至少保证一个参数允许更新动作。
配置案例

案例1:快速更新(侧重速度)

strategy: type: RollingUpdate rollingUpdate: maxSurge: 30% # 允许快速扩容30%副本 maxUnavailable: 10% # 仅允许10%副本不可用

案例2:平滑更新(侧重稳定性)

strategy: type: RollingUpdate rollingUpdate: maxSurge: 1 # 每次仅新增1个副本 maxUnavailable: 0 # 确保所有副本始终可用

案例3:混合配置(平衡速度与稳定性)

strategy: type: RollingUpdate rollingUpdate: maxSurge: 20% # 按比例扩容,向上取整 maxUnavailable: 1 # 按数量控制,最多1个副本不可用

注意事项

  • 生产环境中建议优先保证稳定性(maxUnavailable设为较低值)。
  • 测试环境可适当调高maxSurge以加速迭代。
  • 按比例配置时需注意副本总数,避免因取整规则导致更新停滞。
apiVersion: apps/v1 kind: Deployment metadata: name: myapp-v1 spec: replicas: 3 selector: matchLabels: app: myapp version: v1 strategy: rollingUpdate: maxSurge: 1 maxUnavailable: 1 template: metadata: labels: app: myapp version: v1 spec: containers: - name: myapp image: janakiramm/myapp:v1 imagePullPolicy: IfNotPresent ports: - containerPort: 80
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 3:25:52

基于Java的springboot/SSM+vue.js+uniapp小程序的非遗茶百戏科普小程序附带文章源码部署视频讲解等

文章目录前言详细视频演示具体实现截图核心技术介绍后端框架SpringBoot前端框架Vue持久层框架MyBaits为什么选择我代码参考数据库参考测试用例参考源码获取前言 &#x1f31e;博主介绍&#xff1a;✌CSDN特邀作者、资深全栈开发程序员&#xff0c;曾在互联网大厂担任高级职位、…

作者头像 李华
网站建设 2026/4/18 3:28:14

UE5 材质-21:

&#xff08;91&#xff09;这篇开始&#xff0c;跟着 B 站&#xff0c;游启明老师&#xff0c;再学一遍材质 黑白图&#xff0c; UE 里黑色是 0&#xff0c;白色是 1 &#xff1a; 启动引用查看器 &#xff1a; 让材质多使用引擎里的公共资源&#xff0c;易于迁移文件&…

作者头像 李华
网站建设 2026/4/17 3:40:02

Flutter 全场景开发实战宝典:组件化架构、性能优化与跨端适配深度解析

引言在移动应用开发领域&#xff0c;“多端一致体验”与“高效开发迭代”始终是开发者追求的核心目标。Flutter 作为 Google 推出的跨端开发框架&#xff0c;凭借“自绘 UI 引擎、单一代码库多端部署、原生级性能”三大核心优势&#xff0c;彻底打破了传统跨端方案“体验打折、…

作者头像 李华
网站建设 2026/4/17 4:18:09

Wan2.2-T2V-A14B与Sora的技术路线差异分析

Wan2.2-T2V-A14B与Sora的技术路线差异分析你有没有想过&#xff0c;一条8秒的广告视频&#xff0c;从脚本到成片&#xff0c;只需要不到两分钟&#xff1f;这不再是科幻。在AI生成内容&#xff08;AIGC&#xff09;狂飙突进的今天&#xff0c;文本到视频&#xff08;T2V&#x…

作者头像 李华
网站建设 2026/4/18 5:21:51

2025本地AI部署终极指南:3步搞定离线大模型

2025本地AI部署终极指南&#xff1a;3步搞定离线大模型 【免费下载链接】flashai_vision 项目地址: https://ai.gitcode.com/FlashAI/vision 在数据安全日益受到重视的2025年&#xff0c;本地AI部署成为企业技术转型的关键环节。无需联网的离线大模型解决方案&#xff…

作者头像 李华