2024年最全深入k8s:Kubernetes 守护进程DaemonSet及源码分析,java基础语法面试题

   日期:2024-12-27    作者:c3pw8 移动:http://oml01z.riyuangf.com/mobile/quote/60193.html

其实我投简历的时候,都不太敢投递阿里。因为在阿里一面前已经过了字节的三次面试,投阿里的简历一直没被捞,所以以为简历就挂了。

特别感谢一面的面试官捞了我,给了我机会,同时也认可我的努力和态度。对比我的面经和其他大佬的面经,自己真的是运气好。别人8成实力,我可能8成运气。所以对我而言,我要继续加倍努力,弥补自己技术上的不足,以及与科班大佬们基础上的差距。希望自己能继续保持学习的热情,继续努力走下去。

也祝愿各位同学,都能找到自己心动的offer。

分享我在这次面试前所做的准备(刷题复习资料以及一些大佬们的学习笔记和学习路线,都已经整理成了电子文档

本文已被CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】收录

需要这份系统化的资料的朋友,可以点击这里获取

然后查看运行情况

$ kubectl get pod -n kube-system -l name=fluentd-elasticsearch

NAME READY STATUS RESTARTS AGE

fluentd-elasticsearch-nwqph 1/1 Running 0 4m11s

由于我这是单节点,所以只有一个pod运行了。

然后查看一下 Kubernetes 集群里的 DaemonSet 对象

$ kubectl get ds -n kube-system fluentd-elasticsearch

NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE

fluentd-elasticsearch 1 1 1 1 1 27m

然后我们来稍微看一下源码,k8s是通过daemon_controller里面的manage方法来管理Pod删减操作的

manage方法里面首先会获取daemon pod 与 node 的映射关系,然后判断每一个 node 是否需要运行 daemon pod,然后遍历完node之后将需要创建的Pod列表和需要删除Pod的列表交给syncNodes执行。

func (dsc *DaemonSetsController) manage(ds *apps.DaemonSet, nodeList []*v1.Node, hash string) error {

// 获取已存在 daemon pod 与 node 的映射关系

nodeToDaemonPods, err := dsc.getNodesToDaemonPods(ds)

if err != nil {

return fmt.Errorf(“couldn’t get node to daemon pod mapping for daemon set %q: %v”, ds.Name, err)

}

// 判断每一个 node 是否需要运行 daemon pod

var nodesNeedingDaemonPods, podsToDelete []string

for _, node := range nodeList {

nodesNeedingDaemonPodsOnNode, podsToDeleteOnNode, err := dsc.podsShouldBeOnNode(

node, nodeToDaemonPods, ds)

if err != nil {

continue

}

//将需要删除的Pod和需要在某个节点创建Pod存入列表中

nodesNeedingDaemonPods = append(nodesNeedingDaemonPods, nodesNeedingDaemonPodsOnNode…)

podsToDelete = append(podsToDelete, podsToDeleteOnNode…)

}

podsToDelete = append(podsToDelete, getUnscheduledPodsWithoutNode(nodeList, nodeToDaemonPods)…)

//为对应的 node 创建 daemon pod 以及删除多余的 pods

if err = dsc.syncNodes(ds, podsToDelete, nodesNeedingDaemonPods, hash); err != nil {

return err

}

return nil

}

下面我们看一下podsShouldBeOnNode方法是如何判断哪些Pod需要创建和删除的

在podsShouldBeOnNode会调用nodeShouldRunDaemonPod方法来判断该node是否需要运行 daemon pod 以及能不能调度成功,然后获取该node上有没有创建该daemon pod。

通过判断shouldRun, shouldContinueRunning将需要创建 daemon pod 的 node 列表以及需要删除的 pod 列表获取到,shouldSchedule 主要检查 node 上的资源是否充足,shouldContinueRunning 默认为 true。

func (dsc *DaemonSetsController) podsShouldBeOnNode(

node *v1.Node,

nodeToDaemonPods map[string][]*v1.Pod,

ds *apps.DaemonSet,

) (nodesNeedingDaemonPods, podsToDelete []string, err error) {

//判断该 node 是否需要运行 daemon pod 以及能不能调度成功

shouldRun, shouldContinueRunning, err := dsc.nodeShouldRunDaemonPod(node, ds)

if err != nil {

return

}

//获取该节点上的指定ds的pod列表

daemonPods, exists := nodeToDaemonPods[node.Name]

switch {

//如果daemon pod是可以运行在这个node上,但是还没有创建,那么创建一个

case shouldRun && !exists:

nodesNeedingDaemonPods = append(nodesNeedingDaemonPods, node.Name)

// 需要 pod 一直运行

case shouldContinueRunning:

var daemonPodsRunning []*v1.Pod

for _, pod := range daemonPods {

if pod.DeletionTimestamp != nil {

continue

}

//如果 pod 运行状态为 failed,则删除该 pod

if pod.Status.Phase == v1.PodFailed {

podsToDelete = append(podsToDelete, pod.Name)

} else {

daemonPodsRunning = append(daemonPodsRunning, pod)

}

}

//如果节点上已经运行 daemon pod 数 > 1,保留运行时间最长的 pod,其余的删除

if len(daemonPodsRunning) > 1 {

sort.Sort(podByCreationTimestampAndPhase(daemonPodsRunning))

for i := 1; i < len(daemonPodsRunning); i++ {

podsToDelete = append(podsToDelete, daemonPodsRunning[i].Name)

}

}

// 如果 pod 不需要继续运行但 pod 已存在则需要删除 pod

case !shouldContinueRunning && exists:

for _, pod := range daemonPods {

if pod.DeletionTimestamp != nil {

continue

}

podsToDelete = append(podsToDelete, pod.Name)

}

}

return nodesNeedingDaemonPods, podsToDelete, nil

}

DaemonSet 对象的滚动更新和StatefulSet是一样的,可以通过  设置更新策略。目前支持两种策略

  • OnDelete:默认策略,更新模板后,只有手动删除了旧的 Pod 后才会创建新的 Pod

  • RollingUpdate:更新 DaemonSet 模版后,自动删除旧的 Pod 并创建新的 Pod。

具体的滚动更新可以在:深入k8s:kubernetes的StatefulSet控制器及源码分析回顾一下。

仅在某些节点上运行 Pod

如果想让DaemonSet在某个特定的Node上运行,可以使用nodeAffinity。

如下

apiVersion: v1

kind: Pod

metadata:

name: with-node-affinity

spec:

affinity:

nodeAffinity:

requiredDuringSchedulingIgnoredDuringExecution:

nodeSelectorTerms:

  • matchExpressions:

  • key: metadata.name

operator: In

values:

  • node1

上面的这个pod,我们指定了nodeAffinity,matchExpressions的含义是这个pod只能运行在metadata.name是node1的节点上,operator=In表示部分匹配的意思,除此之外operator还可以指定:In,NotIn,Exists,DoesNotExist,Gt,Lt等。

requiredDuringSchedulingIgnoredDuringExecution表明将pod调度到一个节点必须要满足的规则。除了这个规则还有preferredDuringSchedulingIgnoredDuringExecution将pod调度到一个节点可能不会满足规则

当我们使用如下命令的时候

$ kubectl edit pod -n kube-system fluentd-elasticsearch-nwqph

spec:

affinity:

nodeAffinity:

requiredDuringSchedulingIgnoredDuringExecution:

nodeSelectorTerms:

  • matchFields:

  • key: metadata.name

operator: In

values:

  • node1

可以看到DaemonSet自动帮我们加上了affinity来进行节点调度。我们也可以自己在yaml里面设置affinity,以此来覆盖系统默认的配置。

Taints and Tolerations

在k8s集群中,我们可以给Node打上污点,这样可以让pod避开那些不合适的node。在node上设置一个或多个Taint后,除非pod明确声明能够容忍这些污点,否则无法在这些node上运行。

例如

kubectl taint nodes node1 key=value:NoSchedule

由于篇幅过长,就不展示所有面试题了,感兴趣的小伙伴

更多笔记分享

本文已被CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】收录

需要这份系统化的资料的朋友,可以点击这里获取

[外链图片转存中…(img-N3QUiLnw-1715115457284)]

[外链图片转存中…(img-IDECm62H-1715115457285)]

[外链图片转存中…(img-veTvnMXO-1715115457285)]

更多笔记分享

[外链图片转存中…(img-x4c3qJGT-1715115457285)]

本文已被CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】收录


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号