Loading... ## 先从K8s “不” 是什么讲起 > 首先,K8s并不是一个传统意义上的 **PaaS**平台即服务的工具,它充分给使用者提供了很多很多选择的空间。 * 不限制支持的应用程序类型,K8s并不插手应用程序框架, 也不限制支持的语言 (如 **Java**, **Python**, Ruby 等),只要应用符合 12 因素即可。也就是说,只需要应用可以在**容器**中运行,那么它就可以很好的在 **Kubernetes** 上运行。 * 不提供内置的**中间件** (如消息中间件)、数据处理框架 (如 **Spark**)、**数据库** (如 Mysql) 或集群存储系统 (如 Ceph) 等。这些应用直接运行在 Kubernetes 之上。 * 不直接部署代码,也不会构建您的应用程序,但是可以在 Kubernetes 之上构建需 要的[持续集成](https://cloud.tencent.com/product/coding-ci?from_column=20065&from=20065) (CI) 工作流。 * 不提供机器配置、维护、管理或自愈系统。 * 不提供应用程序配置语言或系统。 * 不提供点击即部署的服务市场。 > K8s 不仅仅是一个 “编排系统”,它消除了编排的需要。K8s通过声明式的 **API** 和一系列独立、可组合的控制器保证了应用总是在期望的状态,用户并不需要关心中间状态是如何转换的。 ### K8s是什么及核心基础概念 > K8s 是谷歌开源的容器集群管理系统,即一个大规模**容器编排**系统,是 Google 多年大规模容器管理技术 Borg 的开源版本。 可以用来完成以下一些主要功能: * 基于容器的应用部署、维护和滚动升级。 * [负载均衡](https://cloud.tencent.com/product/clb?from_column=20065&from=20065)和服务发现: * 跨机器和跨地区的集群调度。 * 自动伸缩。 * 广泛的 Volume 支持。 * 插件机制保证扩展性。 > 用户可以使用 Label 以自己的方式组织管理资源,还可以使用 Annotation 来自定义资源的描述信息,比如为管理工具提供状态检查等。控制器也是构建在跟开发人员和用户使用的相同的 API 之上。用户 还可以编写自己的控制器和调度器,也可以通过各种插件机制扩展系统的功能。这使得可以方便地在 K8s 之上构建各种应用系统。 #### 核心组件  > K8S 是属于主从设备模型(Master-Slave 架构),即有 Master 节点负责集群的调度、管理和运维,Slave 节点是集群中的运算工作负载节点。 > 在 K8S 中,主节点一般被称为 Master 节点,而从节点则被称为 Worker Node 节点,每个 Node 都会被 Master 分配一些工作负载。 > Master 组件可以在群集中的任何计算机上运行,但建议 Master 节点占据一个独立的服务器。因为 Master 是整个集群的大脑,如果 Master 所在节点宕机或不可用,那么所有的控制命令都将失效。除了 Master,在 K8S 集群中的其他机器被称为 Worker Node 节点,当某个 Node 宕机时,其上的工作负载会被 Master 自动转移到其他节点上去。 ##### Master节点组件 ###### Kube-apiserver > 用于暴露 Kubernetes API,任何资源请求或调用操作都是通过 kube-apiserver 提供的接口进行。以 HTTP Restful API 提供接口服务,所有对象资源的增删改查和监听操作都交给 API Server 处理后再提交给 Etcd 存储。 > 可以理解成 API Server 是 K8S 的请求入口服务。API Server 负责接收 K8S 所有请求(来自 UI 界面或者 CLI 命令行工具), 然后根据用户的具体请求,去通知其他组件干活。可以说 API Server 是 K8S 集群架构的大脑。 ###### Kube-controller-manager > 运行管理控制器,是 K8S 集群中处理常规任务的后台进程,是 K8S 集群里所有资源对象的自动化控制中心。 > 在 K8S 集群中,一个资源对应一个控制器,而 Controller manager 就是负责管理这些控制器的。 控制器的种类: > 1 Node Controller(节点控制器):负责在节点出现故障时发现和响应。 > 2 . Replication Controller(副本控制器):负责保证集群中一个 RC(资源对象 Replication Controller)所关联的 Pod 副本数始终保持预设值。可以理解成确保集群中有且仅有 N 个 Pod 实例,N 是 RC 中定义的 Pod 副本数量。 > 3. Endpoints Controller(端点控制器):填充端点对象(即连接 Services 和 Pods),负责监听 Service 和对应的 Pod 副本的变化。 可以理解端点是一个服务暴露出来的访问点,如果需要访问一个服务,则必须知道它的 endpoint。 > 4. Service Account & Token Controllers(服务帐户和令牌控制器):为新的命名空间创建默认帐户和 API 访问令牌. > 5. ResourceQuota Controller(资源配额控制器):确保指定的资源对象在任何时候都不会超量占用系统物理资源。 > 6. Namespace Controller(命名空间控制器):管理 namespace 的生命周期。 > 7. Service Controller(服务控制器):属于 K8S 集群与外部的云平台之间的一个接口控制器。 ###### kube-scheduler > 是负责资源调度的进程,根据调度算法为新创建的 Pod 选择一个合适的 Node 节点。 > 可以理解成 K8S 所有 Node 节点的调度器。当用户要部署服务时,Scheduler 会根据调度算法选择最合适的 Node 节点来部署 Pod。 > > 预选策略(predicate) > 优选策略(priorities) > API Server 接收到请求创建一批 Pod ,API Server 会让 Controller-manager 按照所预设的模板去创建 Pod,Controller-manager 会通过 API Server 去找 Scheduler 为新创建的 Pod 选择最适合的 Node 节点。比如运行这个 Pod 需要 2C4G 的资源,Scheduler 会通过预选策略过滤掉不满足策略的 Node 节点。Node 节点中还剩多少资源是通过汇报给 API Server 存储在 etcd 里,API Server 会调用一个方法找到 etcd 里所有 Node 节点的剩余资源,再对比 Pod 所需要的资源,如果某个 Node 节点的资源不足或者不满足 预选策略的条件则无法通过预选。预选阶段筛选出的节点,在优选阶段会根据优选策略为通过预选的 Node 节点进行打分排名, 选择得分最高的 Node。例如,资源越富裕、负载越小的 Node 可能具有越高的排名。 ##### Node节点组件 ###### kubelet > Node 节点的监视器,以及与 Master 节点的通讯器。Kubelet 是 Master 节点安插在 Node 节点上的“眼线”,它会定时向 API Server 汇报自己 Node 节点上运行的服务的状态,并接受来自 Master 节点的指示采取调整措施。 > 从 Master 节点获取自己节点上 Pod 的期望状态(比如运行什么容器、运行的副本数量、网络或者存储如何配置等), 直接跟容器引擎交互实现容器的生命周期管理,如果自己节点上 Pod 的状态与期望状态不一致,则调用对应的容器平台接口(即 docker 的接口)达到这个状态。 > 管理镜像和容器的清理工作,保证节点上镜像不会占满磁盘空间,退出的容器不会占用太多资源。 > 总结: > 在 Kubernetes 集群中,在每个 Node(又称 Worker Node)上都会启动一个 kubelet 服务进程。该进程用于处理 Master 下发到本节点的任务,管理 Pod 及 Pod 中的容器。每个 kubelet 进程都会在 API Server 上注册节点自身的信息,定期向 Master 汇报节点资源的使用情况,并通过 cAdvisor 监控容器和节点资源。 ###### kube-proxy > 在每个 Node 节点上实现 Pod 网络代理,是 Kubernetes Service 资源的载体,负责维护网络规则和四层负载均衡工作。 负责写入规则至iptables、ipvs实现服务映射访问的。 > Kube-Proxy 本身不是直接给 Pod 提供网络,Pod 的网络是由 Kubelet 提供的,Kube-Proxy 实际上维护的是虚拟的 Pod 集群网络。 > Kube-apiserver 通过监控 Kube-Proxy 进行对 Kubernetes Service 的更新和端点的维护。 > 在 K8S 集群中微服务的负载均衡是由 Kube-proxy 实现的。Kube-proxy 是 K8S 集群内部的负载均衡器。它是一个分布式代理服务器,在 K8S 的每个节点上都会运行一个 Kube-proxy 组件。 ###### 容器引擎 docker或者containerd > 容器引擎,运行容器,负责本机的容器创建和管理工作。 > 当 kubernetes 把 pod 调度到节点上,节点上的 kubelet会指示 docker 启动特定的容器。接着,kubelet 会通过 docker 持续地收集容器的信息, 然后提交到主节点上。docker 会如往常一样拉取容器镜像、启动或停止容器。不同点仅仅在于这是由自动化系统控制而非管理员在每个节点上手动操作的。 ###### etcd 存储中心 > K8S 的存储服务。etcd 是分布式键值存储系统,存储了 K8S 的关键配置和用户配置,K8S 中仅 API Server 才具备读写权限,其他组件必须通过 API Server 的接口才能读写数据。 ###### K8s创建Pod的工作流程 > 工作流程 > > 1. 用户通过客户端发送创建Pod的请求到master节点上的apiserver > 2. apiserver会先把请求信息写入到etcd中保存,再找controller-manager根据预设的资源配置模板创建Pod资源 > 3. 然后controller-manager会通过apiserver去找scheduler为新创建的Pod选择最合适的node节点 > 4. scheduler通过调度算法的预选策略和优选策略筛选出最合适的node节点进行调度 > 5. 然后再通过apiserver找到对应的node节点上的kubelet去创建和管理Pod > 6. kubelet会跟容器引擎交互来管理Pod/容器的生命周期 > 7. 用户还可通过apiserver在kube-proxy上写入网络规则,创建service资源,实现对Pod的服务发现和负载均衡 最后修改:2025 年 04 月 23 日 © 允许规范转载 打赏 赞赏作者 支付宝微信 赞 2 如果觉得我的文章对你有用,请随意赞赏