对于自定义指标,将使用 custom.metrics.k8s.io API。它由其他度量指标方案厂商的“适配器(Adapter)” API 服务器提供。检查你的指标管道以查看是否有可用的 Kubernetes 指标适配器。
一、概述
Horizontal Pod Autoscaler(HPA,Pod水平自动伸缩),根据平均 CPU 利用率、平均内存利用率或你指定的任何其他自定义指标自动调整 Deployment 、ReplicaSet 或 StatefulSet 或其他类似资源,实现部署的自动扩展和缩减,让部署的规模接近于实际服务的负载。HPA不适用于无法缩放的对象,例如DaemonSet。
官方文档:https://kubernetes.io/zh-cn/docs/tasks/run-application/horizontal-pod-autoscale/
实际生产中,一般使用这四类指标:
Resource metrics——CPU核 和 内存利用率指标。
Pod metrics——例如网络利用率和流量。
Object metrics——特定对象的指标,比如Ingress, 可以按每秒使用请求数来扩展容器。
Custom metrics——自定义监控,比如通过定义服务响应时间,当响应时间达到一定指标时自动扩容。
二、安装 metrics-server
1)HPA 前提条件
默认情况下,Horizontal Pod Autoscaler 控制器会从一系列的 API 中检索度量值。集群管理员需要确保下述条件,以保证 HPA 控制器能够访问这些 API:
1.对于资源指标,将使用 metrics.k8s.io API,一般由 metrics-server 提供。它可以作为集群插件启动。
2.对于自定义指标,将使用 custom.metrics.k8s.io API。它由其他度量指标方案厂商的“适配器(Adapter)” API 服务器提供。检查你的指标管道以查看是否有可用的 Kubernetes 指标适配器。
3.对于外部指标,将使用 external.metrics.k8s.io API。可能由上面的自定义指标适配器提供。
Kubernetes Metrics Server:
1.Kubernetes Metrics Server 是 Cluster 的核心监控数据的聚合器,kubeadm 默认是不部署的。
2.Metrics Server 供 Dashboard 等其他组件使用,是一个扩展的 APIServer,依赖于 API Aggregator。所以,在安装 Metrics Server 之前需要先在 kube-apiserver 中开启 API Aggregator。
3.Metrics API 只可以查询当前的度量数据,并不保存历史数据。
4.Metrics API URI 为 /apis/metrics.k8s.io/,在 k8s.io/metrics 下维护。
5.必须部署 metrics-server 才能使用该 API,metrics-server 通过调用 kubelet Summary API 获取数据。
2)开启 API Aggregator
复制
1. # 添加这行
2. # --enable-aggregator-routing=true
3. ### 修改每个 API Server 的 kube-apiserver.yaml 配置开启 Aggregator Routing:修改 manifests 配置后 API Server 会自动重启生效。
4. cat /etc/kubernetes/manifests/kube-apiserver.yaml
3)开始安装 metrics-server
GitHub地址:https://github.com/kubernetes-sigs/metrics-server/releases下载
复制
1. wget https://github.com/kubernetes-sigs/metrics-server/releases/download/metrics-server-helm-chart-3.8.2/components.yaml
修改
复制
1. ...
2. template:
3. metadata:
4. labels:
5. k8s-app: metrics-server
6. spec:
7. containers:
8. - args:
9. - --cert-dir=/tmp
10. - --secure-port=4443
11. - --kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname
12. - --kubelet-use-node-status-port
13. - --kubelet-insecure-tls # 加上该启动参数,不加可能会报错
14. image: registry.aliyuncs.com/google_containers/metrics-server:v0.6.1 # 镜像地址根据情况修改
15. imagePullPolicy: IfNotPresent
16. ...
metrics-server pod无法启动,出现日志unable to fully collect metrics: ... x509: cannot validate certificate for because ... it doesn't contain any IP SANs ...解决方法:在metrics-server中添加--kubelet-insecure-tls参数跳过证书校验
开始安装
复制
1. kubectl apply -f components.yaml
2. kubectl get pod -n kube-system | grep metrics-server
3. # 查看
4. kubectl get pod -n kube-system | grep metrics-server
5. # 查看node和pod资源使用情况
6. kubectl top nodes
7. kubectl top pods
三、Horizontal Pod Autoscaler 工作原理
1)原理架构图
1、自动检测周期由 kube-controller-manager 的 --horizontal-pod-autoscaler-sync-period 参数设置(默认间隔为 15 秒)。
2、metrics-server 提供 metrics.k8s.io API 为pod资源的使用提供支持。
3、15s/周期 -> 查询metrics.k8s.io API -> 算法计算 -> 调用scale 调度 -> 特定的扩缩容策略执行。
2)HPA扩缩容算法
从最基本的角度来看,Pod 水平自动扩缩控制器根据当前指标和期望指标来计算扩缩比例。
复制
1. 期望副本数 = ceil[当前副本数 * (当前指标 / 期望指标)]
1、扩容
如果计算出的扩缩比例接近 1.0, 将会放弃本次扩缩, 度量指标 / 期望指标接近1.0。
2、缩容
冷却/延迟: 如果延迟(冷却)时间设置的太短,那么副本数量有可能跟以前一样出现抖动。默认值是 5 分钟(5m0s)--horizontal-pod-autoscaler-downscale-stabilization
3、特殊处理
丢失度量值:缩小时假设这些 Pod 消耗了目标值的 100%, 在需要放大时假设这些 Pod 消耗了 0% 目标值。这可以在一定程度上抑制扩缩的幅度。
存在未就绪的pod的时候:我们保守地假设尚未就绪的 Pod 消耗了期望指标的 0%,从而进一步降低了扩缩的幅度。
未就绪的 Pod 和缺少指标的 Pod 考虑进来再次计算使用率。如果新的比率与扩缩方向相反,或者在容忍范围内,则跳过扩缩。否则,我们使用新的扩缩比例。
指定了多个指标, 那么会按照每个指标分别计算扩缩副本数,取最大值进行扩缩。
3)HPA 对象定义
复制
1. apiVersion: autoscaling/v2beta2
2. kind: HorizontalPodAutoscaler
3. metadata:
4. name: nginx
5. spec:
6. behavior:
7. scaleDown:
8. policies:
9. - type: Pods
10. value: 4
11. periodSeconds: 60
12. - type: Percent
13. value: 10
14. periodSeconds: 60
15. stabilizationWindowSeconds: 300
16.
17. scaleTargetRef:
18. apiVersion: apps/v1
19. kind: Deployment
20. name: nginx
21. minReplicas: 1
22. maxReplicas: 10
23. metrics:
24. - type: Resource
25. resource:
26. name: cpu
27. target:
28. type: Utilization
29. averageUtilization: 50
HPA对象默认行为
复制
1. behavior:
2. scaleDown:
3. stabilizationWindowSeconds: 300
4. policies:
5. - type: Percent
6. value: 100
7. periodSeconds: 15
8. scaleUp:
9. stabilizationWindowSeconds: 0
10. policies:
11. - type: Percent
12. value: 100
13. periodSeconds: 15
14. - type: Pods
15. value: 4
16. periodSeconds: 15
17. selectPolicy: Max
四、示例演示
1)编排yaml
复制
1. apiVersion: autoscaling/v2
2. kind: HorizontalPodAutoscaler
3. metadata:
4. name: hpa-nginx
5. spec:
6. maxReplicas: 10 # 最大扩容到10个节点(pod)
7. minReplicas: 1 # 最小扩容1个节点(pod)
8. metrics:
9. - resource:
10. name: cpu
11. target:
12. averageUtilization: 40 # CPU 平局资源使用率达到40%就开始扩容,低于40%就是缩容
13. # 设置内存
14. # AverageValue:40
15. type: Utilization
16. type: Resource
17. scaleTargetRef:
18. apiVersion: apps/v1
19. kind: Deployment
20. name: hpa-nginx
21. ---
22. apiVersion: v1
23. kind: Service
24. metadata:
25. name: hpa-nginx
26. spec:
27. type: NodePort
28. ports:
29. - name: "http"
30. port: 80
31. targetPort: 80
32. nodePort: 30080
33. selector:
34. service: hpa-nginx
35. ---
36. apiVersion: apps/v1
37. kind: Deployment
38. metadata:
39. name: hpa-nginx
40. spec:
41. replicas: 1
42. selector:
43. matchLabels:
44. service: hpa-nginx
45. template:
46. metadata:
47. labels:
48. service: hpa-nginx
49. spec:
50. containers:
51. - name: hpa-nginx
52. image: nginx:latest
53. resources:
54. requests:
55. cpu: 100m
56. memory: 100Mi
57. limits:
58. cpu: 200m
59. memory: 200Mi
主要参数解释如下:
1、scaleTargetRef:目标作用对象,可以是Deployment、ReplicationController或ReplicaSet。
2、minReplicas和maxReplicas:Pod副本数量的最小值和最大值,系统将在这个范围内进行自动扩缩容操作,并维持每个Pod的内存使用率为40%,这个值就是上面设置的阈值averageUtilization。
3、metrics:目标指标值。在metrics中通过参数type定义指标的类型;通过参数target定义相应的指标目标值,系统将在指标数据达到目标值时(考虑容忍度的区间,见前面算法部分的说明)触发扩缩容操作。
4、对于CPU使用率,在target参数中设置averageUtilization定义目标平均CPU使用率。
5、对于内存资源,在target参数中设置AverageValue定义目标平均内存使用值。
执行
复制
1. kubectl apply -f test.yaml
2)使用 ab 工具进行压测
进入apache官网 http://httpd.apache.org/ 下载apache即可,或者直接通过yum安装apache都行,这里选择最简单的方式yum安装
复制
1. yum install httpd -y
开始压测
复制
1. ab -n 100000 -c 800 http://local-168-182-112:30080/
2.
3. #-c:并发数
4. #-n:总请求数
来源: 大数据与云原生技术分享
>>>>>>点击进入云计算专题
¥499.00
¥10500.00
¥499.00
¥99.00