Unit 1: 进程管理 | Process Management¶
约 7283 个字 60 行代码 预计阅读时间 37 分钟
进程¶
一段本质上程序是静态的、存储在硬盘上的指令数据,而当它附带运行程序所需要的必要信息进入内存,得到相关资源后,它成为一个动态的、与计算机资源互动的实体,这个实体就是进程(process)。
进程是是操作系统进行资源分配和调度的一个独立单位,它以特定形式存在于内存中,具有一定的封闭性,是多道技术的重要基础。
进程的形式¶
前面我们提到,进程动态地存在于内存中,因此除了命令以外,还包括其运行时的动态信息。抽象来说,主要包含这三个维度:① 用来跑的代码;② 跑的过程中,不断会被更新的数据;③ 用来维护、控制进程的控制信息。
进程在内存中存在需要一块虚拟的地址空间以存储上述这些内容。其包含两个部分,即虚拟地址空间中的用户部分和虚拟地址空间的内核部分。
虚拟地址空间将会在后面的章节中详细讲解,读者可以考虑访问链接简单瞥一眼留个印象。
下图是进程在虚拟地址空间中用户部分的组成:
用户部分
- Text section:
- 存储代码;
- Data section:
- 存储代码中的全局变量、静态变量;
- Heap section:
- 常说的“堆”,被动态分配的内存;
- Stack section:
- 常说的“栈”,存储一些暂时性的数据,如函数传参、返回值、局部变量等;
可以发现,text 和 data 部分所需要的空间在一开始就被确定,而 heap 和 stack 都可能动态的扩展和收缩。观察右图,heap 和 stack 是相向扩展的,于是整一块的大小能够固定下来,而在内部进行有限制的动态分配。当然,heap 和 stack 的区域并不会交叉。
memory layout of a C program
之所以把有初始值的静态变量和没初始值的静态变量分开来,是因为我们可以在一开始只存储没初始值的静态变量的大小,而在真正第一次访问的时候才分配内存,以此来实现减少内存占用。
通常来说,未初始化的静态变量一般都被放在 .bss
段,而在被初始化的时候移动到 .data
段。1
而放在内核部分的内容,则更侧重于进程的控制信息,具体来说就是进程控制块(process control block, PCB)。
内核部分
进程控制块(process control block, PCB)是操作系统中用来描述进程的一种数据结构,它包含了进程的所有信息,是操作系统中最重要的数据结构之一。可以说,PCB 是进程存在的唯一标志。
通常来说,PCB 可能包含这些内容:
- Process state:
- Program counter:
- 标识该进程跑到了哪里,由于进程是动态的,每一被切换都需要保证下一次能无缝衔接之前的进度,所以需要存储每次的工作状态;
- CPU registers:
- 保存进程相关的寄存器信息;
- CPU-scheduling information:
- CPU 调度参考的信息,包括优先级、调度队列的指针、调度参数等;
- Memory-management information:
- 包括页表、段表等信息,具体与实现的内存系统有关;
- Accounting information:
- 一些关于进程的动态数据的统计和记录,比如总共已经跑了多久、时间限制、进程号等;
- I/O status information:
- 被分配给进程的 I/O 设备列表、打开的文件列表等;
两个部分在逻辑上的关系是,用户部分划分并实际存储进程所需要的数据资源(包括程序运行的代码),而内核部分存储进程的元数据,包括控制信息与用户部分中各个部分内存的分配和使用情况。
进程的状态¶
在单机语境下,进程调度一个比较核心的部分就是将 CPU 资源给哪个任务用。而并不是任何进程在任何时刻都可以直接获得 CPU 资源并直接开始使用的,因此我们需要对进程的状态进行建模。
new
:- 进程正在创建过程中,包括申请 PCB,分配初始资源等;
running
:- 进程正在运行,即正在使用 CPU 资源;
- 有几个核就最多有几个进程处于
running
状态;
ready
:- 进程已经准备好了,只差 CPU 资源,一旦有 CPU 资源待分配,就会有就绪态的进程变为运行态;
- 如果有进程处于就绪态,就一定有进程处于运行态;
- CPU 调度实际上指的就是若干进程在就绪态和运行态之间的切换;
waiting
:- 进程正在等待某个事件的发生,比如等待 I/O 完成、等待某个信号量等;
- 此时即使有空余的 CPU 资源,该进程也无法继续;
- 一般进程从运行态进入阻塞态是主动的,离开阻塞态进入就绪态是被动的;
terminated
:- 进程因为某些原因终止,结束运行,需要释放资源;
进程在就绪态需要等待 CPU 资源的派发(dispatch),接受调度;在阻塞态需要等待对应的 I/O 完成或事件完成,因而存在一种结构需要去维护这些“相对静止”的进程。通常使用就绪队列(ready queue)和等待队列(wait queue)来实现,其基本结构如下:
实际实现中,由于等待的 I/O 或事件不同,可能维护多个等待队列,于是实际过程中的情况可能如下:
进程管理¶
现在我们已经讨论了进程的形式和一个个离散的状态,现在我们来讲讲进程在几个阶段的动态过程。
用户进程在操作系统中,总体上来讲遵循一个树状的组织形式,每一个进程都有一个唯一标识符进程号(通常被称为 pid,但在特定语境下可能有不同的含义)。如下图是 Linux 的一个进程树。
你也可以在 Linux 中使用 pstree
来查看进程树。
言下之意就是进程之间存在一种父子关系,即 child 进程是由 parent 进程创建的,因此进程除了自己的 pid
还有 ppid
来标识它的 parent 进程。
进程的创建¶
child 进程的资源可能直接来自操作系统的分配,也可能来自 parent 进程的分配,限制使用后者的好处是能够避免因为创建太多子进程而导致资源不够用。特别的,我们观察到这棵树的根是 systemd
,历史上也曾叫过 init
,它是操作系统启动后运行的第一个用户进程,至少在 Linux 中,它的 pid
被分配为 1,而它的 ppid
是 0,可以理解为这个进程的 parent 是 scheduler 而非一个进程2。
在 Linux 中,我们可以使用 fork
来创建一个 child 进程,在这里先引入如何实现是为了引入一个可以借来描述过程的语言,我们以下面的 C 程序为例展开之后的讨论。
关于带 fork
的程序分析是一个比较重要的点,请确保自己能比较流畅地分析相关程序。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
|
第 10 行高亮的 fork()
语句创建了一个进程,该进程只有进程号与 parent 进程不一样,同时通过检查返回值 pid
来判断属于 parent 还是 child。
如果第 18 行仍然被注释,那么 parent 进程和 child 进程将并发执行,即完成 fork()
后两个进程都从 11 行开始继续向下并发的执行,互不阻塞;如果 18 行的注释被取消,那么 parent 进程将等待 child 进程结束后再继续。读者可以尝试排列组合两个注释来观察程序运行的结果会如何变化。
逻辑上创建的新进程有两种情况:
- 复制 parent 进程的代码数据;
- 载入新的程序并继续执行;
而实际在 Linux 中,第一种通过 fork()
实现,第二种通过 fork()
后 execXX()
实现,execXX()
会覆盖那个进程的地址空间,以实现执行其他程序。3,4
copy on write
可以发现,fork 的复制操作可能会带来较大的开销。所以有一种技术称为 copy on write,也就是只有当需要发生内容修改的时候,才真正去复制父进程的内容,也就是一种 “lazy copy”。
本块内容于虚拟内存相关的内容有关,如果读者想不明白具体实现,可以先了解功能,在之后学习相关内容后我会再次提醒读者回顾该部分内容。
virtual memory fork
一些 UNIX 系统提供了 vfork()
这个创建进程的方法。为了减小复制带来的开销,vfork()
干脆就不复制了,直接把父进程给阻塞掉,然后自己用父进程的内存空间,于是子进程在地址空间内做的修改对父进程是可见的,所以,使用 vfork()
时需要对此特别留心。
换句话说,在上面这种语境下,可以把 vfork()
当作创建了一个对当前进程的 reference,vfork
出来的子进程运行的时候,父进程其实也在“同步”地运行。
可是这有啥用呢?我创建一个 reference 做的事情和我直接做的事情没啥区别啊?
是的,所以 vfork()
压根不是这么用的。实际上,由 vfork()
创建出来的子进程一般马上就会调用 execXX()
族的接口(这里当然不会把父进程的地址空间 overwrite 了,而是直接替换当前进程)。
头脑风暴
请读者思考,既然一般 vfork()
完了马上就 execXX()
然后替换当前进程了,那为什么 vfork()
的进程会使用父进程的地址空间,而不是比如说随便指向哪里,就像野指针一样呢?
提示
这个被创建出来的进程要怎么知道接下来它要 execXX()
呢?
本块内容于虚拟内存相关的内容有关,如果读者想不明白具体实现,可以先了解功能,在之后学习相关内容后我会再次提醒读者回顾该部分内容。
进程的终止¶
当进程调用 exit()
这个系统调用时,这个进程将被终止,这意味着这个进程将不再执行,其资源将被释放,同时返回状态值,而这个状态值将被 parent 进程的 wait()
接收。特别的,如果 parent 进程尚未调用 wait()
,则这个 child 进程还不会完全消失,因为要返回的东西还没返回(child 并不知道 parent 会不会、什么时候来回收它)。这种逻辑上已经终止,但仍然占有一部分资源,等待 parent 进程调用 wait()
的进程,我们称之为僵尸进程(zombie)。一个进程变成僵尸进程是很常见的。关键在于,如果 parent 进程不调用 wait()
,那等 parent 终止后,这个僵尸进程可能仍然一直存在。此时这个僵尸进程同时是一个孤儿进程(orphan),即没有 parent 进程的进程。这是不合理的。UNIX 的解决办法是,让所有孤儿进程都成为 init
/systemd
的 child 进程,由 init
/systemd
来 wait()
它们。
在某些系统里,操作系统通过级联终止(cascading termination)来避免孤儿进程的出现,即当一个进程被终止时,它的 child 也应当被递归地终止。
daemon
守护进程Wiki是一种特殊的进程,它们在“后台”长期运行,例如某些数据库服务、反代理服务等,而非像普通的用户程序一样依赖于用户交互。
为了实现“长期运行”,我们需要让它以 init
/systemd
为 parent,因为任何其它进程都有可能在操作系统运行的时候终止。
那么一种办法就是我们递归地 fork()
两次,然后终止第一个进程,即终止第二个进程的 parent,这样它就能成为一个孤儿进程,进而被 init
/systemd
接管。
进程间通信¶
如果一个进程受到其它进程的影响,或会影响其它进程,那么我们称之为协作进程(cooperation process),而进程间通信(inter-process communication, IPC)支持了进程协作,以实现进程间的数据交换。
- 信号量(semaphores):
- 我们将在进程同步这一章中重点讲解信号量;
- 共享内存(shared memory):
- 相比下面几种更快,需要用到 system call 的地方只有建立共享内存的时候;
- 消息传递(message passing):
- 在分布式系统中更容易实现,对于少量数据通信很有用(因为不需要处理冲突问题);
- 文件 / 管道(pipe):
- 管道本质上也是一种文件,但一个管道只支持单向传输,即只能 A 写 B 读,如果要实现双向需要两个管道;
进程调度¶
多道技术引入后,内存中同时存在多个进程,进程的数量我们称之为多道的度(degree of multiprogramming)。一段时间内若干进程并发执行,因此调度问题(scheduling)——CPU scheduler 将决定在何时将 CPU 资源分配给哪一个就绪进程,使之进入运行态——这个问题就很重要了。总体来讲,我们需要实现一个高效、公平的的调度,以此保证 CPU 利用率足够高,同时又保证计算机功能正常运作。
调度的时机¶
我们再次审视进程状态的 FSM,发现所有状态都是围绕着 ready
/running
展开的,而 CPU 具体资源分配的过程也正是通过这两个状态的转化体现的。而 ❶ 当运行态的进程由于某些原因需要主动离开运行态时,或 ❷ 当就绪态的某个进程需要立刻得到 CPU 资源时,scheduler 会进行调度。上面这句话反应在 FSM 上,就是 ❶ 进程从运行态转化为其它状态,即箭头从 running
出发向外;❷ 进程从其它状态转化为就绪态,即箭头从外指向 ready
,这里其实还暗含了一个 ready
指向 ready
的箭头,在例如 priority aging 的情况下,ready
中可能突然有一个优先级足够大了就会发生抢占式调度。上面描述的这两种时机下产生的调度,就分别定义为非抢占式调度(non-preemptive scheduling)和抢占式调度(preemptive scheduling)。
两者本质上的区别就是,非抢占式调度是由已经拥有资源的进程主动释放 CPU 资源引起的,而抢占式调度则是不占有资源的进程索取 CPU 资源成功引起的。
调度的过程¶
由 CPU scheduler 选择哪一个就绪态的将要被执行后,由 dispatcher 来完成具体的切换工作包括:
- 在两个进程间进行上下文切换;
- 切换到用户态;
- 跳转到用户程序中合适的位置以继续进程执行;
而从 dispatcher 停止上一个运行时的进程,完成上下文切换,并启动下一个进程的延时,称为 dispatch latency。
上下文切换
切换进程的时候需要保存“现场”,并在下一次拿出这个进程准备执行之前恢复“现场”,以此来保证进程执行的一致性。这里提到的“现场”被称为上下文(context),表示一种“语境”;而保护-恢复的过程,就是上面提到的上下文切换(context switch)。
其中,上下文可能包括 ① CPU 寄存器中的值,② 进程状态,③ 内存的管理信息等。
上下文切换的相关内容在 lab1 里有所涉及,需要实现一个简单的上下文切换。
调度算法¶
在讨论有哪些调度算法之前,我们首先需要知道怎样算一个好的调度算法。类似于操作系统的评价,调度算法的评价标准也不是单一的;对应的,不同调度算法有各自的优缺点,需要根据实际情况和需求有所选择。通常来说有这些调度算法的指标(scheduling criteria):
- CPU 使用率(CPU utilization):
- CPU 使用时间 / 总时间,从 CPU 是否足够忙碌来看硬件性能是否充分发挥;
- 吞吐量(throughput):
- 单位时间内完成的进程数,从结果来看任务完成是否足够高效;
- 周转时间(turnaround time):
- 从进程开始建立到进程完成的时间,即包括等待进入内存、在各种 queue 中的等待时间、在 CPU 中的运行时间、I/O 时间等,通过观察最大周转时间,能反映调度的效率和“公平性”;
- 等待时间(waiting time):
- 进程在 ready queue 中等待的时间的总和,由于任务所需要的 CPU 时间、I/O 时间不受调度算法影响,所以抛开这些只看在 ready queue 中的等待时间,能反映调度算法的效率;
- 容易发现,等待时间 = 周转时间 - 运行时间;
- 响应时间(response time):
- 进程从发出请求到第一次响应的时间,能反应交互式系统中调度算法的“及时性”;
上面五个里,前两个越大越好,后三个越小越好。
接下来我们开始介绍各种调度算法,需要注意的是,如下调度算法中存在一些理想化的建模(例如假设我们知道进程需要使用多久 CPU),而我们重点需要掌握它的思路,做到能画甘特图、能算时间。此外,这里我们以“多道”为语境,即如果不是特别说明,不考虑分时技术。
算法 | First-Come, First-Serve (FCFS)¶
FCFS 是最基本的非抢占式调度方法就是按照进程先来后到的顺序进行调度,可以很简单地通过一个 FIFO 的队列实现。FCFS 最大的优点就是实现简单。
算法 | Shortest-Job-First (SJF) / Shortest-Remaining-Time-First (SRTF)¶
SJF 的思路是,当有多个进程处于就绪态时,选择需要运行时间最短的进程先运行。这种算法的优点是,能够保证平均等待时间最小;但是缺点是,如果有一个进程需要运行时间很长,那么它可能会一直被推迟,从而导致“饥饿”现象,此外,我们并不知道进程运行时间有多久。
🌰
这种做法又被称为 Shortest-Next-CPU-Burst,它是一种非抢占式调度算法,但假设我们在执行一个进程的过程中,有一个新的进程加入了 ready queue,而且这个进程的执行时间比正在运行的进程的剩余时间还要短,我们仍然需要继续执行完当前的进程才行——因为它是非抢占式的。而显然这个过程是可以通过抢占式调度来优化的,于是我们引入了 Shortest-Remaining-Time-First, SRTF,其表述是:总是执行剩余运行时间最短的进程。其优缺点与 SJF 一致。
我们只需要考虑所有抢占式调度和非抢占式调度时机,并选择此时的剩余运行时间最短的进程进行调度即可。
如何得到剩余时间
我们知道,一个程序运行所需要的时间是一个无法在运行结束前得到的数据,因此使用这个东西进行调度就显得十分不合理。但我们可以通过预测的方法估计运行的剩余时间,但是既然是预测就会有不准确,所以 SJF/SRTF 并不能实现理论上平均等待时间最优。至于如何预测,书上提供了一个叫 exponential average 的方法,我们在这里不展开。
🌰
现在有三个进程,它们将要执行的时间分别如下:
- P1: 8
- P2: 4
- P3: 9
- P4: 5
它们到达 ready queue 的时间分别如下:
- P1: 0
- P2: 1
- P3: 2
- P4: 3
请分别计算 SJF 下和 SRTF 下的平均等待时间。
对于 SJF 来说,在第 0 时刻,只有 P1 可用,所以只能执行 P1;P1 执行结束后所有其它进程都可用了,此时按照正常的 SJF 即可得到结果。
gantt
title SJF
dateFormat ss
axisFormat %S
section P1
run: a, 00, 08
section P2
ready: b, 01, 08
run: e, 08, 12
section P3
ready: c, 02, 17
run: 17, 26
section P4
ready: d, 03, 12
run: f, 12, 17
此时平均等待时间为 \((0 + 7 + 15 + 9) / 4 = 7.75\)。
对于 SRFT 来说,同样从 P1 开始执行,但是第一秒 P2 进入,发现此时 P1 还剩下 7,而 P2 只需要 4,于是 P2 需要抢占 P1 的资源;之后的过程类似
gantt
dateFormat ss
axisFormat %S
section P1
run: a, 00, 01
ready(rest 7): e, 01, 10
run: g, 10, 17
section P2
run: b, 01, 05
section P3
ready(rest 9): c, 02, 17
run: h, 17, 26
section P4
ready(rest 5): d, 03, 05
run: f, 05, 10
此时平均等待时间为 \(((0+9) + 0 + 15 + 2) / 4 = 6.5\)。
可以发现 SRTF 能够提升 SJF 的效率。
算法 | Round-Robin (RR)¶
RR 调度是使用分时技术的调度算法。由于时间片到期后,操作系统会强制停止进程,因此它是抢占式的。每一个进程最多连续执行一个时间片的长度,完成后被插入到 FIFO ready queue 的末尾,并取出 FIFO ready queue 的队首进行执行。
我们之前提到分时的时候也说过,分时技术通过优化响应时间解决了用户交互问题,RR 调度虽然相比 SJF 有了更长的等待时间,但是有了更短的响应时间,而实际直接影响用户交互问题的应该是响应时间。
一个需要注意的是,RR 调度有一个“超参数”,即时间片的长度。理论上,时间片约短,响应时间越短;但更短的时间片将带来更频繁的进程切换,从而带来更多的 dispatch latency。
算法 | Priority Scheduling¶
优先级调度的思路是,每个进程都有一个优先级,当有多个进程处于就绪态时,选择优先级最高的进程先运行。这种算法的优点是,能够保证优先级高的进程优先运行;但是缺点是,如果有一个进程的优先级很低,那么它可能会一直被推迟,从而导致“饥饿”现象。
你可能发现了,如果把上面这句话的“优先级最高”改成“运行时间最短”/“剩余运行时间最短”,那就和 SJF/SRTF 一模一样了,SJF/SRTF 实际上就是优先级调度的一个特例,因而优先级调度当然是可以实现抢占式和非抢占式两种的。
此外,优先级的分配可以根据使用需求进行设计,它可能是一些测量数据,也可能具有一些被赋予的意义,甚至可以是一些复合的值;优先级也并不一定是静态的,先前我们提到过的饥饿问题,就可以通过动态的优先级来解决:优先级随着等待时间增加不断增长,等待过久的任务就会被赋予较高的优先级,以此避免饥饿的发生,这种策略叫 priority aging。
设计 | Multilevel Queue Scheduling¶
既然调度算法多种多样,他们适配不同的需求,那能否只在特定情况下使用特定算法呢?答案是肯定的,我们可以将 ready queue 分成多个队列,每个队列使用不同的调度算法,然后再进行队列间调度,这种方法被称为多级队列调度(multilevel queue scheduling)。
🌰
一个操作系统按照优先级先后,可能有这么些队列:
- Real-time processes
- System processes
- Interactive processes
- Batch processes
它们的优先级随着 1 -> 4 递减,而当优先级更高的队列中存在任务时,优先级低的队列便不会参与调度。不仅如此,高优先级的队列中出现新的任务时,也会抢占正在运行的低优先级队列的任务。
🌰
又比如,一个操作系统可能分前台(foreground)程序队列和后台(background)程序队列,而我们使用时间片来进行队列间调度,但前台占用 80% 的时间,而后台占用 20% 的时间。
而在队列内部,我们也可以根据需求使用不同的队列内调度算法。在这个例子中,由于前台程序往往要求更好的响应时间表现,所以我们可以使用 RR 调度;而在后台使用 FCFS 调度。
Windows XP Scheduling
设计 | Multilevel Feedback Queue Scheduling¶
更进一步,Multilevel Feedback Queue Scheduling 在 Multilevel Queue Scheduling 的基础上,允许进程在队列间转移,以此实现更灵活更科学的调度。例如,一个进程如果使用了过长的 CPU 时间,它可能被移动到优先级更低的队列;相反,如果一个进程等待了太久,它可能被移动到优先级更高的队列。
当然,相对应的,算法复杂度也会提高不少。
线程¶
线程是一种轻量级的进程,它在进程的基础上进行划分,是进程内的一个可调度的执行单元,以减小进程 folk 和切换的开销为目的。
同一进程的若干线程共享代码、数据等“相对静态”的资源,而各自维护寄存器、栈、PC 等“相对动态”的资源;或者说线程只拥有一些运行中必不可省的资源,而所有其它资源都属于进程,线程与进程中的其它线程共享这些资源,以此来减少进程创建过程中复制代码段等资源时带来的不小开销。
线程天生和同一进程内的其它线程共享资源,因此同进程内线程天生就有线程间通信的能力。同时,由于将进程进行了再划分,一方面在硬件支持的情况下能更好地适配并行,另一方面也能(代价更小地)让任务的粒度变小,此时可以将整个进程的阻塞转移到单个线程的阻塞上,进一步减少响应时间。
当然,由于这里存在一个部分整体的关系,即存在一个“将若干鸡蛋放在同一个篮子里”的问题,虽然将若干任务都放到一个进程的多线程可以提高效率,但是一旦“篮子”坏了,那所有“鸡蛋”都无法幸免;其次,虽然天然的共享属性让线程能更方便地进行线程间通信,但也带来了内存保护的问题。
多线程模型¶
按照线程划分的实现位置,多线程模型分为用户级多线程(user threads)和内核级多线程(kernel threads)。
用户级多线程在用户空间实现多线程,即使用线程库(thread library)利用单个进程的资源,在用户空间维护多个线程;而内核级多线程则是由内核支持多线程操作。两者各有优缺点:
- 用户级多线程 > 内核级多线程
- 用户级多线程不需要内核支持多线程,不需要进入内核态实现多线程,也不需要占用线程 ID,因此理论上可以比内核级支持更多的线程数;
- 由于其划分是针对进程的,而不同进程之间的线程实现没有直接关系,而且由于是在用户空间实现算法,所以能够更容易的对单个进程内的多个线程的调度算法进行自定义;
- 用户级多线程 < 内核级多线程
- 由于对内核来说,用户级多线程仍然是一个普通的进程,所以当用户级的线程出现阻塞时,内核会认为整个进程都被阻塞;内核级线程由于是内核实现,所以单线程的阻塞并不会导致整个进程阻塞;
- 在多核的情况下,用户级多线程没法利用多核进行线程并行;显然内核多级线程是做得到这一点的;
需要注意的是,用户级多线程和内核级多线程并不冲突,因而排列组合后得到多线程主要有如下三种模型:
Linux 线程
创建日期: 2024年1月13日 19:00:24