文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

浅析 Kubelet 驱逐机制

2024-12-14 01:07

关注

Kubelet 出于对节点的保护,允许在节点资源不足的情况下,开启对节点上 Pod 进行驱逐的功能。最近对 Kubelet 的驱逐机制有所研究,发现其中有很多值得学习的地方,总结下来和大家分享。

Kubelet 的配置

Kubelet 的驱逐功能需要在配置中打开,并且配置驱逐的阈值。Kubelet 的配置中与驱逐相关的参数如下:

  1. type KubeletConfiguration struct { 
  2.     ... 
  3.   // Map of signal names to quantities that defines hard eviction thresholds. For example: {"memory.available""300Mi"}. 
  4.   EvictionHard map[string]string 
  5.   // Map of signal names to quantities that defines soft eviction thresholds.  For example: {"memory.available""300Mi"}. 
  6.   EvictionSoft map[string]string 
  7.   // Map of signal names to quantities that defines grace periods for each soft eviction signal. For example: {"memory.available""30s"}. 
  8.   EvictionSoftGracePeriod map[string]string 
  9.   // Duration for which the kubelet has to wait before transitioning out of an eviction pressure condition. 
  10.   EvictionPressureTransitionPeriod metav1.Duration 
  11.   // Maximum allowed grace period (in seconds) to use when terminating pods in response to a soft eviction threshold being met. 
  12.   EvictionMaxPodGracePeriod int32 
  13.   // Map of signal names to quantities that defines minimum reclaims, which describe the minimum 
  14.   // amount of a given resource the kubelet will reclaim when performing a pod eviction while 
  15.   // that resource is under pressure. For example: {"imagefs.available""2Gi"
  16.   EvictionMinimumReclaim map[string]string 
  17.   ... 

其中,EvictionHard 表示硬驱逐,一旦达到阈值,就直接驱逐;EvictionSoft 表示软驱逐,即可以设置软驱逐周期,只有超过软驱逐周期后,才启动驱逐,周期用 EvictionSoftGracePeriod 设置;EvictionMinimumReclaim 表示设置最小可用的阈值,比如 imagefs。

可以设置的驱逐信号有:

Eviction Manager 工作原理

Eviction Manager的主要工作在 synchronize 函数里。有两个地方触发 synchronize 任务,一个是 monitor 任务,每 10s 触发一次;另一个是根据用户配置的驱逐信号,启动的 notifier 任务,用来监听内核事件。

notifier

notifier 由 eviction manager 中的 thresholdNotifier 启动,用户配置的每一个驱逐信号,都对应一个 thresholdNotifier,而 thresholdNotifier 和 notifier 通过 channel 通信,当 notifier 向 channel 中发送消息时,对应的 thresholdNotifier 便触发一次 synchronize 逻辑。

notifier 采用的是内核的 cgroups Memory thresholds,cgroups 允许用户态进程通过 eventfd 来设置当 memory.usage_in_bytes 达到某阈值时,内核给应用发送通知。具体做法是向 cgroup.event_control 写入 " "。

notifier 的初始化代码如下(为了方便阅读,删除了部分不相干代码),主要是找到 memory.usage_in_bytes 的文件描述符 watchfd,cgroup.event_control 的文件描述符 controlfd,完成 cgroup memory thrsholds 的注册。

  1. func NewCgroupNotifier(path, attribute string, threshold int64) (CgroupNotifier, error) { 
  2.   var watchfd, eventfd, epfd, controlfd int 
  3.  
  4.   watchfd, err = unix.Open(fmt.Sprintf("%s/%s", path, attribute), unix.O_RDONLY|unix.O_CLOEXEC, 0) 
  5.   defer unix.Close(watchfd) 
  6.    
  7.   controlfd, err = unix.Open(fmt.Sprintf("%s/cgroup.event_control", path), unix.O_WRONLY|unix.O_CLOEXEC, 0) 
  8.   defer unix.Close(controlfd) 
  9.    
  10.   eventfd, err = unix.Eventfd(0, unix.EFD_CLOEXEC) 
  11.   defer func() { 
  12.     // Close eventfd if we get an error later in initialization 
  13.     if err != nil { 
  14.       unix.Close(eventfd) 
  15.     } 
  16.   }() 
  17.    
  18.   epfd, err = unix.EpollCreate1(unix.EPOLL_CLOEXEC) 
  19.   defer func() { 
  20.     // Close epfd if we get an error later in initialization 
  21.     if err != nil { 
  22.       unix.Close(epfd) 
  23.     } 
  24.   }() 
  25.    
  26.   config := fmt.Sprintf("%d %d %d", eventfd, watchfd, threshold) 
  27.   _, err = unix.Write(controlfd, []byte(config)) 
  28.  
  29.   return &linuxCgroupNotifier{ 
  30.     eventfd: eventfd, 
  31.     epfd:    epfd, 
  32.     stop:    make(chan struct{}), 
  33.   }, nil 

notifier 在启动时还会通过 epoll 来监听上述的 eventfd,当监听到内核发送的事件时,说明使用的内存已超过阈值,便向 channel 中发送信号。

  1. func (n *linuxCgroupNotifier) Start(eventCh chan<- struct{}) { 
  2.   err := unix.EpollCtl(n.epfd, unix.EPOLL_CTL_ADD, n.eventfd, &unix.EpollEvent{ 
  3.     Fd:     int32(n.eventfd), 
  4.     Events: unix.EPOLLIN, 
  5.   }) 
  6.  
  7.   for { 
  8.     select { 
  9.     case <-n.stop: 
  10.       return 
  11.     default
  12.     } 
  13.     event, err := wait(n.epfd, n.eventfd, notifierRefreshInterval) 
  14.     if err != nil { 
  15.       klog.InfoS("Eviction manager: error while waiting for memcg events""err", err) 
  16.       return 
  17.     } else if !event { 
  18.       // Timeout on wait.  This is expected if the threshold was not crossed 
  19.       continue 
  20.     } 
  21.     // Consume the event from the eventfd 
  22.     buf := make([]byte, eventSize) 
  23.     _, err = unix.Read(n.eventfd, buf) 
  24.     if err != nil { 
  25.       klog.InfoS("Eviction manager: error reading memcg events""err", err) 
  26.       return 
  27.     } 
  28.     eventCh <- struct{}{} 
  29.   } 

synchronize 逻辑每次执行都会判断 10s 内 notifier 是否有更新,并重新启动 notifier。cgroup memory threshold 的计算方式为内存总量减去用户设置的驱逐阈值。

synchronize

Eviction Manager 的主逻辑 synchronize 细节比较多,这里就不贴源码了,梳理下来主要是以下几个事项:

  1. 针对每个信号构建排序函数;
  2. 更新 threshold 并重新启动 notifier;
  3. 获取当前节点的资源使用情况(cgroup 的信息)和所有活跃的 pod;
  4. 针对每个信号,分别确定当前节点的资源使用情况是否达到驱逐的阈值,如果都没有,则退出当前循环;
  5. 将所有的信号进行优先级排序,优先级为:跟内存有关的信号先进行驱逐;
  6. 向 apiserver 发送 驱逐事件;
  7. 将所有活跃的 pod 进行优先级排序;
  8. 按照排序后的顺序对 pod 进行驱逐。

计算驱逐顺序

对 pod 的驱逐顺序主要取决于三个因素:

三个因素的判断顺序也是根据注册进 orderedBy 的顺序。这里 orderedBy 函数的多级排序也是 Kubernetes 里一个值得学习(抄作业)的一个实现,感兴趣的读者可以自行查阅源码。

  1. // rankMemoryPressure orders the input pods for eviction in response to memory pressure. 
  2. // It ranks by whether or not the pod's usage exceeds its requests, then by priority, and 
  3. // finally by memory usage above requests. 
  4. func rankMemoryPressure(pods []*v1.Pod, stats statsFunc) { 
  5.   orderedBy(exceedMemoryRequests(stats), priority, memory(stats)).Sort(pods) 

驱逐 Pod

接下来就是驱逐 Pod 的实现。Eviction Manager 驱逐 Pod 就是干净利落的 kill,里面具体的实现这里不展开分析,值得注意的是在驱逐之前有一个判断,如果 IsCriticalPod 返回为 true 则不驱逐。

  1. func (m *managerImpl) evictPod(pod *v1.Pod, gracePeriodOverride int64, evictMsg string, annotations map[string]string) bool { 
  2.   // If the pod is marked as critical and staticand support for critical pod annotations is enabled, 
  3.   // do not evict such pods. Static pods are not re-admitted after evictions. 
  4.   // https://github.com/kubernetes/kubernetes/issues/40573 has more details. 
  5.   if kubelettypes.IsCriticalPod(pod) { 
  6.     klog.ErrorS(nil, "Eviction manager: cannot evict a critical pod""pod", klog.KObj(pod)) 
  7.     return false 
  8.   } 
  9.   // record that we are evicting the pod 
  10.   m.recorder.AnnotatedEventf(pod, annotations, v1.EventTypeWarning, Reason, evictMsg) 
  11.   // this is a blocking call and should only return when the pod and its containers are killed. 
  12.   klog.V(3).InfoS("Evicting pod""pod", klog.KObj(pod), "podUID", pod.UID, "message", evictMsg) 
  13.   err := m.killPodFunc(pod, true, &gracePeriodOverride, func(status *v1.PodStatus) { 
  14.     status.Phase = v1.PodFailed 
  15.     status.Reason = Reason 
  16.     status.Message = evictMsg 
  17.   }) 
  18.   if err != nil { 
  19.     klog.ErrorS(err, "Eviction manager: pod failed to evict""pod", klog.KObj(pod)) 
  20.   } else { 
  21.     klog.InfoS("Eviction manager: pod is evicted successfully""pod", klog.KObj(pod)) 
  22.   } 
  23.   return true 

再看看 IsCriticalPod 的代码:

  1. func IsCriticalPod(pod *v1.Pod) bool { 
  2.   if IsStaticPod(pod) { 
  3.     return true 
  4.   } 
  5.   if IsMirrorPod(pod) { 
  6.     return true 
  7.   } 
  8.   if pod.Spec.Priority != nil && IsCriticalPodBasedOnPriority(*pod.Spec.Priority) { 
  9.     return true 
  10.   } 
  11.   return false 
  12.  
  13. // IsMirrorPod returns true if the passed Pod is a Mirror Pod. 
  14. func IsMirrorPod(pod *v1.Pod) bool { 
  15.   _, ok := pod.Annotations[ConfigMirrorAnnotationKey] 
  16.   return ok 
  17.  
  18. // IsStaticPod returns true if the pod is a static pod. 
  19. func IsStaticPod(pod *v1.Pod) bool { 
  20.   source, err := GetPodSource(pod) 
  21.   return err == nil && source != ApiserverSource 
  22.  
  23. func IsCriticalPodBasedOnPriority(priority int32) bool { 
  24.   return priority >= scheduling.SystemCriticalPriority 

从代码看,如果 Pod 是 Static、Mirror、Critical Pod 都不驱逐。其中 Static 和 Mirror 都是从 Pod 的 annotation 中判断;而 Critical 则是通过 Pod 的 Priority 值判断的,如果 Priority 为 system-cluster-critical/system-node-critical 都属于 Critical Pod。

不过这里值得注意的是,官方文档里提及 Critical Pod 是说,如果非 Static Pod 被标记为 Critical,并不完全保证不会被驱逐:https://kubernetes.io/docs/tasks/administer-cluster/guaranteed-scheduling-critical-addon-pods 。因此,很有可能是社区并没有想清楚这种情况是否要驱逐,并不排除后面会改变这段逻辑,不过也有可能是文档没有及时更新??。

总结

本文主要分析了 Kubelet 的 Eviction Manager,包括其对 Linux CGroup 事件的监听、判断 Pod 驱逐的优先级等。了解了这些之后,我们就可以根据自身应用的重要性来设置优先级,甚至设置成 Critical Pod。

来源:CS实验室内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯