这里有7种主流案例,告诉你调度器架构设计通用法则

张晨 2018-04-08 16:52:56

作者介绍

张晨,Strikingly数据平台工程师,算法、分布式系统和函数式编程编程爱好者。Shanghai Linux User Group Co-Op,上海交大技术社群SJTUG创始人。

个人专栏:https://zhuanlan.zhihu.com/io-meter

 

在开始写这篇文章之前,我先阅读了大量集群资源管理和任务调度的资料和论文,了解了诸如:Hadoop YARN、Mesos、Spark Drizzle、Borg/Kubernetes 以及 Omega 等系统的调度器设计架构。在这篇文章里,我将试图从这些架构案例总结出此类系统一般的设计模式。

 

一、调度器的定义

 

无论是在单机系统还是分布式系统当中,调度器其实都是非常核心和普遍的组件,其内涵比较宽广,也比较模糊。

 

一般来说,下面提到的几种类型的模块都可以认为是调度器:

 

  • 早期计算机系统当中的批处理调度系统;

  • 现代计算机系统当中的抢占式进程调度系统和内存分配系统;

  • 某些系统或程序提供或实现的,定时激发某些类型操作的工具(如 crontab、Quartz 等);

  • 某些编程语言的 Runtime 提供的线程/纤程/协程调度器(如 Golang 内置的Goroutine 调度器);

  • 分布式系统当中的任务关系管理和调度执行系统,(如 Hadoop YARN, Airflow 等);

  • 分布式系统当中的资源管理和调度系统(如 Mesos、Borg、Kubernetes 的调度器等

 

可以被称为调度器的工具涵盖范围非常广,他们有的提供定时激发任务的能力,有的提供资源管理的能力,有的负责维护任务的依赖关系和执行顺序,甚至有的系统还集成了任务监控和各种指标度量的工具。

 

这篇文章主要涉及的是管理系统资源和调度任务执行相关方面的架构和模型,具体的资源分配策略和任务调度策略不在本文讨论范围内。

 

二、调度器设计概述

 

在系统设计领域研究比较多的朋友可以容易地得出一个结论:那就是我们的系统设计——无论是小到一个嵌入式的系统,还是大到好几百个机器的集群——在设计抽象上都是在不同的层次上重复自己。

 

比如说:

 

  • 如果我们着眼于一个 CPU,它包括计算单元和一系列用来加速数据访问的缓存 L1、L2、L3 等,每种缓存具有不同的访问速度;

  • 当我们的视野扩大到整个机器,CPU 又可以被当成一个单元,我们又有内存和硬盘两个层次的储存系统用于加速数据载入;

  • 而在分布式系统中,如果我们把 HDFS 或 S3 看作硬盘,也存在像 Alluxio 这样发挥着类似内存作用的系统。

 

既然系统在设计上的基本原则都是类似的,那为什么大规模分布式系统的设计这么困难呢?

 

这是因为当问题的规模变化了,原先不显著或者容易解决的问题可能会变得难以解决。

 

举例来说,当我们谈论起进程间通信或者同一个 CPU 不同内核之间的通信时,我们往往不考虑通讯不稳定所带来的问题:我们无法想象如果一个 CPU 内核无法发送消息到另一个内核的状况。

 

然而在通过网络通讯的多机机群当中,这是无法回避的问题。Paxos、Raft、Zab 等算法被设计出来的原因也在于此。

 

我们先看一看单机操作系统调度器的发展路线:

 

  • 最早的调度器是批处理调度器,这种调度器批量调度、执行任务,通过对计算机资源的分时复用来增加资源的利用率,一般具有较高的吞吐量。

  • 后来,某些与外界交互次数频繁的系统对响应时间具有较强的要求,因此发展出了实时操作系统。实时操作系统的调度器具备低延迟相应外部信号的能力。

  • 我们常用的操作系统基本上以批处理的方式调度任务,又通过中断等机制提供实时性的保证,通过提供灵活的调度策略,在吞吐量和延迟时间当中获得平衡。

 

在分布式系统中的调度器的设计也是相同的。从单机调度器这里我们首先可以总结出调度器设计的三个最基本的需求:

 

  • 资源的有效利用

  • 信号的实时响应

  • 调度策略的灵活配置

 

这三个需求在某种程度上来说是相互矛盾的,在面对不同需求的时候需要做出不一样的取舍。

 

在上述三个需求的基础上,分布式的调度器设计还需要克服很多其他的困难。这些困难往往在单机系统当中并不显著。比如说:

 

  • 状态的同步问题

    在单机系统中,我们一般使用常规的同步方法,如:共享内存和锁机制,就可以很好地保证任务协调运行了。这是因为单机系统上的状态同步比较稳定、容易,但在分布式系统中,因为网络通讯的不确定性,使机群中的各个机器对于周围的状态达成一致是非常困难的。现实操作中,甚至无法在分布式系统中通过网络精确同步所有机器的时间!

 

  • 容错性问题

    由于单机系统的处理能力有限,我们运行任务的规模和同时运行任务的数量都比较有限。出错的概率和成本都比较低。但是在分布式系统中,由于任务规模变大、任务依赖关系变得更加复杂,出错的概率大大增加,错误恢复的成本可能也比较高,因此可能需要调度器快速地识别错误并进行恢复操作。

 

  • 可扩展性的问题

    当分布式系统的规模到达一定程度,调度器的可扩展性就可能会成为瓶颈。为了提供高可扩展性,调度器不但要可以应对管理上千台机器的挑战,也要能够处理类似动态增减节点这样的问题。

 

三、分布式调度器的分类

 

现阶段比较流行的分布式调度器可以归纳为三种类型,接下来会结合具体的案例进行介绍:

 

1、集中式调度器
 

 

集中式(Centralized调度器也可以被称为宏(Monolithic调度器,指的是使用中心化的方式管理资源和调度任务。也就是说,调度器本身在系统中只存在单个实例,所有的资源请求和任务调度都通过这一个实例进行。

 

下图展示了集中式调度器的一般模型。可以看到,在这一模型中,资源的使用状态和任务的执行状态都由中央调度器管理。

 

Centralized Scheduler

 

按照上面的思路,可以列出集中式调度器在各个方面的表现状况:

 

  • 适合批处理任务和吞吐量较大、运行时间较长的任务;

  • 调度算法只能全部内置在核心调度器当中,灵活性和策略的可扩展性不高;

  • 状态同步比较容易且稳定,这是因为资源使用和任务执行的状态被统一管理,降低了状态同步和并发控制的难度;

  • 由于存在单点故障的可能性,集中式调度器的容错性一般,有些系统通过热备份 Master 的方式提高可用性;

  • 由于所有的资源和任务请求都要由中央调度器处理,集中式调度器的可扩展性较差,容易成为分布式系统吞吐量的瓶颈;

  • 尽管应用场合比较局限,集中式调度器仍然是普遍使用的调度器,可广泛应用于中小规模数据平台应用。

 

案例1: 单机操作系统的调度器

 

单机操作系统,如 Windows、Linux 和 macOS 的进程调度器是典型的集中式调度器。当用户请求执行应用之后,由操作系统将进程载入内存。计算机硬件的所有资源,包括 CPU、内存和硬盘等都由操作系统集中式管理。当进程需要时,通过系统调用请求操作系统分配资源。如果单机环境中的进程使用了系统级多线程,这些线程的调度也由系统一并控制。

 

案例2: Hadoop YARN

 

对于集中式调度器,我们重点介绍 Hadoop YARN 这个案例。下图是将集中式调度器的一般模型替换成 YARN 当中术语之后的示意图:

 

Hadoop YARN

 

Hadoop YARN 的特点可以总结为:

 

  • 集中式的资源管理和调度器被称为 ResourceManager,所有的资源的空闲和使用情况都由 ResourceManager 管理,ResourceManager 也负责监控任务的执行;

  • 集群当中的每一个节点都运行着一个 NodeManager,这个 NodeManager 管理本地的资源占用和任务执行并将这些状态同步给 ResourceManager;

  • 集群中的任务运行在 Container 当中,YARN 使用 Container 作为资源分配的抽象单位,每个 Container 会被分配一些本地资源和运算资源等。

 

熟悉 YARN 的朋友可能知道 YARN 存在着一个 ApplicationMaster 的概念,也就是当一个应用被启动之后,一个 ApplicationMaster 会先在集群中被启动,随后 ApplicationMaster 会向 ResourceMaster 申请新的资源并调度新的任务。

 

这一模型好像看起来和后面介绍的双层调度器,特别是 Mesos 的设计有点相似,但一般仍认为 YARN 是 Monolithic 设计的调度器。这主要是因为:

 

  • ApplicationMaster 其实也是运行在一个 Container 里的 YARN job;

  • ApplicationMaster 虽然决定 Job 如何被激发,但是仍然需要请求 ResourceMaster 申请资源和启动新的 Job;

  • ApplicationMaster 启动的 Job 也会由 ResourceMaster 进行监控,其启动所需的本地资源和运算资源都由 ResourceMaster 负责分配并通知 NodeManager 具体执行。

 

在 YARN 中,为了防止 ResourceManager 出错退出,可以设计多个 Stand-By Master ,Stand-By Master 一直处于运行状态并和 ResourceManager 注册在同一个 ZooKeeper 集群中。

 

Active 的 ResourceManager 会定期保存自己的状态到 ZooKeeper,当其失败退出后,一个 Stand-By Master 会被选举出来成为新的 Manager。

 

Hadoop YARN:High Availability

 

作为一个分布式资源管理和调度器,YARN 与其竞争对手相比,功能其实比较薄弱。譬如默认情况下,YARN 只能对 Memory 资源施加限制(如果一个 Job 使用了超过许可的 Memory,YARN 会直接杀死进程

 

尽管其调度接口提供了对 CPU Cores 的抽象,但 YARN  默认情况下对任务使用CPU核数并没有任何限制。不过若运行在 Linux 环境下,在较新版本的 YARN 中可以配置 Cgroup 限制资源使用。

 

2、双层调度器
 

 

前面提到,集中式调度器的主要缺点在于单点模型容错性和可扩展性较差,容易成为性能瓶颈。在一般的数据密集型应用当中,解决这一问题的主要方法是分区。下图是双层调度器的一般模型:

 

2-level Scheduler

 

在双层调度器当中,资源的使用状态同时由分区调度器和中央调度器管理,但是中央调度器一般只负责宏观的、大规模的资源分配,业务压力较小。

 

分区调度器负责管理自己分区的所有资源和任务,一般只有当所在分区资源无法满足需求时,才将任务冒泡到中央调度器处理。

 

相比集中式调度器,双层调度器某一分区内的资源分配和工作安排可以由具体的任务本身进行定制,因此大大增强了使用的灵活性,可以同时对高吞吐和低延迟的两种场景提供良好的支持。

 

每个分区可以独立运行,降低了单点故障导致系统崩溃的概率,增加了可用性和可扩展性。但是反过来也导致状态同步和维护变得比较困难。

 

尽管主要思路是一致的,但双层调度器在实现上的变种比较丰富,本文接下来使用案例进行介绍:

 

案例1: 协程调度器

 

单机操作系统的单个进程为了避免系统级多线程上下文切换的成本,可以自行实现进程内的调度器,如 Golang 运行时的 Goroutine 调度器。在这一模型下,一个进程内部的资源就相当于一个分区,分区内的资源由运行时提供的调度器预先申请并自行管理。运行时环境只有当资源耗尽时才会向系统请求新的资源,从而避免频繁的系统调用。

 

提出这个例子,主要目的在于说明类似的优化思路其实也被应用于分布式系统,再次证明了系统设计分层重复的特点!

 

案例2: Mesos

 

Mesos 是和 YARN 几乎同一时间发展起来的任务和资源调度系统。这一调度系统实现了完整的资源调度功能,并使用 Linux Container 技术对资源的使用进行限制。和 YARN 一样,Mesos 系统也包括一个独立的 Mesos Master 和运行在每个节点上的 Mesos Agent,而后者会管理节点上的资源和任务并将状态同步给 Master。在 Mesos 里,任务运行在 Executor 里。下图是 Mesos 的主要架构:

 

Mesos Scheduler

 

值得注意的是,Mesos 分区的单位并不是单个节点,是可以将一个节点当中的资源划分到多个区的。也就是说,在 Mesos 里,分区是逻辑的、动态的。

 

把 Mesos 看作一种双层的资源调度系统设计主要基于以下几点:

 

  • 与一般通过 Master 请求资源不同,Mesos提出了Framework的概念,每个 Framework 相当于一个独立的调度器,可以实现自己的调度策略;

  • Master 掌握对整个集群资源的的状态,通过 Offer (而不是被动请求) 的方式通知每个 Framework 可用的资源有哪些;

  • Framework 根据自己的需求决定要不要占有 Master Offer 的资源,如果占有了资源,这些资源接下来将完全由 Framework 管理;

  • Framework 通过灵活分配自己占有的资源调度任务并执行,并不需要通过 Master 完成这一任务。

 

同样,Mesos 也可以通过 Stand-By Master 的方法提供 Master 节点的高可用性。Mesos 已经被广泛应用于各类集群的管理,但是其 Offer-Accept 的资源申请可能不是特别容易理解。

 

对于想要自行编写调度策略的人,Frameworks 的抽象比较并不容易掌握。而且由于 Framework 要先占有了资源才能使用,设计不够良好的 Framework 可能会导致资源浪费和资源竞争/死锁。

 

案例3: Spark 和 Spark Drizzle

 

Spark 为了调度和执行自己基于 DAG 模型的计算,自己实现了一个集中式的调度器,这个调度器的 Master 被称为 Driver。当 Driver 运行起来的之后,会向上层的 Scheduler 申请资源调度起 Executor 进程。Executor 将会一直保持待机,等候 Driver 分配任务并执行,直到任务结束为止。

 

Spark 传统的调度模型

 

Spark 和 YARN 这样的集中式调度器放在一起可以认为是通过迂回的方式实现了双层调度器。就好像单机进程自己实现协程调度器一样,Spark Driver 预先申请的资源可以认为是在申请分区资源,申请到的资源将由 Driver 自行管理和使用。

 

有趣的是,在 2017 年的 SOSP 上,Spark 为了解决流处理计算当中调度延迟较大的问题,提出了一种新的调度模型 Drizzle,在原来调度模型的基础上,又再次实现了双层调度。下图是 Spark Drizzle 的设计模型:

 

Spark Drizzle 的调度模型

 

Drizzle 使得调度 Spark Streaming 任务的延迟由最低500ms降低到200ms 左右,让 Spark Streaming 在低延迟处理的问题上获得了突破性的进展。要搞清楚 Drizzle 提出的目的和解决的问题,首先要理解以下几点:

 

  • Spark Streaming 的实现方式实际上是 Micro Batch,也就是说流式输入的数据在这里仍然被切分成一个一个 Batch 进行处理;

  • 传统的 Spark 调度器会在前序任务完成之后,根据之前任务输出的规模和分布,通过一定的算法有策略地调度新的任务,以便于获得更好的处理速度、降低资源浪费;

  • 在这一过程中,Exector 需要在前续任务完成后通知 Scheduler,之后由 Scheduler 调度新的任务。在传统 Batch 处理模式下,这种模型效果很好,但是在 Streaming 的场景下存在很多问题;

  • 在 Streaming 场景下,每个 Batch 的数据量较小,因此任务可能会需要频繁与 Scheduler 交互,因为存在这一交互过程的 Overhead,Streaming 处理的过程中最低的延迟也要 500ms 以上。

 

为了得到更低的延迟性且保留 Micro Batch 容错性强且易于执行 Checkpoint 的优点,Drizzle 在原来的模型上做了一些优化:

 

  • 在每个节点运行一个 LocalScheduler;

  • 中央调度器 Driver 在执行 Streaming 处理任务时,根据计算的 DAG 图模型,预先调度某一个 Job 的后序 Job,后序 Job 会被放置在 LocalScheduler 上;

  • 后序 Job 默认在 LocalScheduler 上是沉睡状态,但是前面的 Job 可以知道后序  Job 在哪个节点上,因此当前面的任务完成后,可以直接激活后序任务;

  • 当后序任务被激活之后,前序任务和后序任务可以直接通过网络请求串流结果。

 

可以看到 Drizzle 的主要思路就是根据用户程序生成的图模型,预先 Schedule 一些任务,使得前序任务知道后序任务的位置,在调度时避免再请求中央调度器 Driver。同时 Drizzle 也采取了其他一些方法:比如将多个 Micro Batch 打包在一起,借由 LocalScheduler 自行本地调度等方式减少延迟。

 

Drizzle 模型可以说是双层模型的又一种另类体现。然而这种模型主要的缺点是必须要预先知道计算任务的图模型和依赖关系,否则就无法发挥作用。

 

3、共享状态调度器
 

 

通过前面两种模型的介绍,可以发现集群中需要管理的状态主要包括以下两种:

 

  • 系统中资源分配和使用的状态

  • 系统中任务调度和执行的状态

 

在集中式调度器里,这两个状态都由中心调度器管理,并且一并集成了调度等功能;双层调度器模式里,这两个状态分别由中央调度器和次级调度器管理。

 

集中式调度器可以容易地保证全局状态的一致性,但是可扩展性不够;双层调度器对共享状态的管理较难达到好的一致性保证,也不容易检测资源竞争和死锁。

 

为了解决这些问题,一种新的调度器架构被设计出来。这种架构基本上沿袭了集中式调度器的模式,通过将中央调度器肢解为多个服务以提供更好的伸缩性。这种调度器的核心是共享的集群状态,因此可以被称为共享状态调度器。

 

共享状态调度器

 

共享状态调度架构为了提供高可用性和可扩展性,将除共享状态之外的功能剥离出来成为独立的服务。这种设计可以类比为单机操作系统的微内核设计。

 

在这种设计中,内核只负责提供最核心的资源管理接口,其他的内核功能都被实现为独立的服务,通过调用内核提供的 API 完成工作。

 

共享状态调度器的设计近些年来越来越受欢迎,这两年炙手可热的 Kubernetes 和它的原型 Borg 都是采用这种架构。最近由加州大学伯克利分校知名实验室 RISELab 提出的、号称要取代 Spark 分布式计算系统 Ray 也是如此。

 

下面将对这些案例进行介绍:

 

案例1: Borg / Kubernetes

 

根据相关论文,Borg 在初期开发的时候使用的是集中式调度器的设计,所有功能都被集中在 BorgMaster 当中,之后随着对灵活性和可扩展性的要求,逐步切换到共享状态模型或者说微内核模型上面去。Google 的工程师们总结了 Borg 的经验教训,将这些概念集合在 Kubernetes 当中开源出来,成为了近些年来最炙手可热的资源管理框架。

 

在这里我们依然以 Borg 为例进行介绍,Kubernetes 在具体的设计上是与 Borg 基本一致的。下图是 Borg 设计架构示意图:

 

Borg 资源调度架构

 

Borg 资源调度架构的设计可以总结为以下几点:

 

  • 一个数据中心的集群可以被组织成一个 Borg 当中的 Cell;

  • 在一个 Borg 的 Cell 当中,资源的管理类似于集中式调度器的设计——集群资源由 BorgMaster 统一管理,每一个节点上运行着Borglet定时将本机器的状态与 BorgMaster 同步;

  • 为了增加可用性,BorgMaster 使用了Stand-By Master的模式。也就是说同时运行着 BorgMaster 的多个热备份,当 Active 的 BorgMaster 出现失败,新的 Master 会被选取出来;

  • 为了增加可扩展性和灵活性,BorgMaster 的大部分功能被剥离出来成为独立的服务。最终,BorgMaster 只剩下维护集群资源和任务状态这唯一一个功能,包括 Scheduler 在内的所有其他服务都独立运行;

  • 独立运行的每个 Scheduler 可以运行自己的调度策略,它们定时从 BorgMaster  同步集群资源状态,根据自己的需要做出修改,然后通过 API 同步回  BorgMaster,从而实现调度功能。

 

可以看到,Borg 的共享状态调度架构其实是集中式调度的改进。由于承载调度逻辑的调度器都运行在独立的服务里,对于 BorgMaster 的请求压力得到了某种程度的缓解。使用微内核设计模式,BorgMaster 自己包含的逻辑就比较简单了,系统的鲁棒性、灵活性和可扩展性得到了增强。

 

在 Borg 中,任务的隔离和资源限制使用了 Linux 的 cgroup 机制。在 Kubernetes 当中,这一机制被 Container 技术替代,实际上的功能是等价的。

 

Borg 的共享状态设计看似简单,其实具体实现仍然比较复杂。事实上,集中式的状态管理仍然会成为瓶颈。随着集群规模的扩展和状态的规模扩大,State Storage 必须使用分布式数据储存机制来保证可用性和低延迟。

 

一些文章认为 Borg 属于集中式调度器,但笔者认为,随着时间的推移,Borg / Kubernetes 已经将诸多调度器的功能剥离为独立的服务,因此更接近共享状态调度器。

 

共享状态架构的设计和双层设计的最大区别是,共享状态被抽取出来由一个统一的组件管理。从其他的各种服务的角度来看,共享状态提供的调用接口和集中式调度的状态管理是一样的。这种设计通过封装内部细节的方式,降低了外部服务编写的复杂度,体现了系统设计里封装复杂模块的思想。

 

案例2: Omega

 

上面介绍的 Borg 是共享状态最典型的一个示例。尽管 BorgMaster 已经为其他服务的编程提供了简单的接口,但是仍然没有降低状态一致性同步的难度——BorgMaster 和服务的编写仍然需要考虑很多并发控制的方法,防止对共享状态的修改出现 Race Condition 或死锁的现象。

 

如何为其他服务和调度策略提供一层简单的抽象,使得任务的调度能兼顾吞吐量、延迟和并发安全呢?

 

Omega 使用事务(Transaction解决共享状态一致性管理的问题。这一思路非常直观——如果将数据库储存的数据看作共享状态,那么数据库就是是共享状态管理的最成熟、最通用的解决方案!事务更是早已被开发者们熟悉且证明了的非常成熟、好用的并发抽象。

 

事务调度策略

 

Omega 将集群中资源的使用和任务的调度看作数据库中的条目,在一个应用执行的过程当中,调度器可以分步请求多种资源,当所有资源依次被占用并使任务执行完成,这个 Transaction 就会被成功 Commit 。

 

Omega 的设计借鉴了很多数据库设计的思路,比如:

 

  • Transaction设计保留了一般事务的诸多特性:如嵌套Transaction或者 Checkpoint。当资源无法获取或任务执行失败,事务将会被回滚到上一个 Checkpoint 那里;

  • Omega 可以实现传统数据库的死锁检测机制,如果检测到死锁,可以安全地撤销一个任务或其中的一些步骤;

  • Omega 使用了乐观锁,也就是说申请的资源不会立刻被加上排他锁,只有需要真正分配资源或进行事务提交的时候,才会检查锁的状态,如果发现出现了 Race Condition 或其他错误,相关事务可以被回滚;

  • Omega 可以像主流数据库一样定义 Procedure ,这些 Procedure 可以实现一些简单的逻辑,用于对用户的资源请求进行合法性的验证(如优先级保证、一致性校验、资源请求权限管理等)。

 

Omega 使用事务管理状态的想法非常新颖,这一设计随着分布式数据库以及分布式事务的逐渐发展、成熟而逐渐变得可行,它一度被认为将成为 Google 的下一代调度系统。

 

然而近期的一些消息表明,为了达到设计目标,Omega 的实现逻辑变得越来越复杂。在原有的 Borg 共享状态模型已经能满足绝大部分需要的情况下,Omega 的前景似乎没有那么乐观。

 

四、总结

 

这篇文章介绍了多种调度器结构设计的模型,并讨论了在相关模型下进行任务调度的一些特点。通过这些模型的对比,我想提出自己对调度系统设计的几点看法:

 

  • 在小规模的应用和需要自己设计调度器的场景,我们应该尽量采取中心化的调度模型。这是因为这种模型设计和使用都比较简单,调度器容易对整个系统的状态有全面的把握,状态同步的困难也不高;

 

  • 在机群和应用规模继续扩大或者对调度算法有定制要求的情况下,可以考虑使用双层调度器设计。双层调度器调度策略的编写较为复杂,随着新一代共享状态调度器的发展,在未来可能会慢慢退出主流;

 

  • 共享状态调度器因为其较为简单的编程接口以及适应多种需要的特点,正随着 Kubernetes 的流行而渐渐变成主流。如果应用规模比较大或需要在一个集群上运行多种定制调度策略,这种调度器架构设计是最有前景的。

 

最后,通过学习和亲自设计一套调度系统,我深刻地领会到一些个人在编程的时候非常重要的经验:

 

  • Keep things simple. 在实现任何程序的时候,简单的设计往往比复杂的设计更好。比如说尽量减少系统中相互独立的各种模块,尽量统一编程语言,尽量减少相互隔离的系统状态。这样的设计可以减少 Bug 出现的概率,降低维护状态同步的难度;

 

  • Move fast. 在设计复杂系统的时候很容易陷入对细节的不必要追究上,从而导致需要管理的细节越来越多,增加了很多心智压力,最后系统完成的进度也是难上加难。更好的办法是先从宏观上进行大概设计,在进行实现的时候忽略具体的细节(比如代码如何组织、函数如何相互调用、代码如何写得好看等),快速迭代并实现功能。当然,在这个过程中也仍然要把握好功能和质量的平衡;

     

  • 技术发展的循环上升轨迹。回忆起当初 Linux 和 Minix 在宏内核和微内核之间的世纪论战,尽管以 Linux 这种 Monolithic 内核设计的胜出而告终,但是 Minix 的作者在其著述的《Modern Operating System》教科书上指出了这种循环上升的轨迹,预言了微内核设计的归来。看一看共享状态调度系统的设计就会发现,这一预言已经应验在了分布式系统上。

 

五、展望

 

在本文中,并没有特别涉及到任务调度的具体算法,比如如何准确地定时激发任务、如何更高效地分配资源等等。调度算法所要解决的问题本质上只有两个:

 

  • 全面掌握当前系统的状态

  • 准确预测未来的任务需求

 

很多调度器模型在设计上已经对这两方面有所考量,但调度器算法本身可以说又是一个巨大的主题,笔者本身对其了解也非常有限,因此不敢在这篇文章中继续展开。从直觉上讲,上述需求二可能是一个和 AI 技术相结合很好的切入点,在未来可能会有很多研究。

 

在前文还提到了很多调度器也会附带管理本地文件资源的分发,比如像 Kubernetes 启动任务的时候需要将 Docker 镜像分发到各个宿主机上。

 

作为其原型,Borg 在这一过程中甚至利用了 P2P 技术加快分发速度和充分利用带宽。在开源世界中似乎还没有类似的解决方案。当然,这一需求也只有在机群规模非常大的时候才有价值,但未来仍可能成为一个不错的发展方向。

最新评论
访客 2023年08月20日

230721

访客 2023年08月16日

1、导入Mongo Monitor监控工具表结构(mongo_monitor…

访客 2023年08月04日

上面提到: 在问题描述的架构图中我们可以看到,Click…

访客 2023年07月19日

PMM不香吗?

访客 2023年06月20日

如今看都很棒

活动预告