从今天起将跟随九曲阑干大佬并结合原书学习《深入理解计算机系统》(CSAPP),在此过程中会记录学习笔记用于复习和分享。

计算机系统漫游

Hello World

我们从一个特别简单的程序hello world进入计算机系统的世界

1
2
3
4
5
6
#include <stdio.h>

int main(void) {
printf("Hello World!\n");
return 0;
}

保存为文件hello.c,执行下列命令即可得到可执行文件hello

1
$ gcc -o hello hello.c

这个过程虽然是通过一条命令完成的,在一些集成开发环境中,甚至可以通过点击一个按钮来完成,但是实际上编译系统的处理过程确实非常复杂的。

gcc编译器驱动程序读取源程序文件hello.c,并把它翻译成一个可执行目标文件hello.这个过程是分为四个阶段完成的:

  • 预处理阶段:预处理器根据以字符#开头的命令,修改原始的C程序。例如hello.c中第一行的#include <stdio.h>指令告诉预处理器读取系统头文件stdio.h的内容,并把它直接插入到程序文本中去。结果就得到了另一个C程序,通常是以i作为文件拓展名。
  • 编译阶段:编译器将文本文件hello.i翻译成文本文件hello.s,它包含一个汇编程序,程序中的每条语句都以一种标准的文本格式确切地描述了一条低级机器语言指令。这一阶段包括词法分析、语法分析、语义分析、中间代码优化生成以及优化等一系列中间操作。
  • 汇编阶段:汇编器根据指令集将hello.s翻译成机器指令,并且把这一系列的指令按照固定的规则进行打包,得到可重定位目标文件hello.o,这是一个二进制文件,它的字节编码是机器指令而不是字符,如果我们在文本编辑器中打开它,呈现的将是一堆乱码。
  • 链接阶段:我们的hello程序中调用了printf函数,它是标准C库中的一个函数,每个C编译器都会提供。printf函数存在于一个名为printf.o的单独二进制文件中,链接器就负责把hello.oprintf.o进行合并,这个合并过程是有一定规则的,结果就得到可执行目标文件hello,此时,就可以将hello加载到内存中执行了。

了解编译系统是如何工作的益处

  1. 优化程序性能

  2. 理解链接时出现的错误

  3. 避免安全漏洞

hello程序执行的过程

系统的硬件组成

CPU

  • PC(Program Count):直译为程序计数器,实质上为大小为一个字的存储区域,存放着某一条指令的地址,从系统上电的那一瞬间,知道系统断电,处理器就在不断的执行PC指向的指令,然后不断的更新PC,使其指向下一条要执行的指令。下一条指令与当前执行的指令并不一定是相邻的。

  • 寄存器文件(Register file):它就是CPU内部的一个存储设备,寄存器文件是由一些单字长的寄存器构成,每个寄存器都有自己唯一的名字,可以理解为临时存放数据的空间。

  • ALU:算术逻辑单元,进行整数运算的结构。

主存

  • 处理器在执行程序时,内存主要存放程序指令以及数据。
  • 从物理上讲,内存是由随机动态存储器芯片组成的;从逻辑上讲,内存可以看成一个从零开始的大数组,每个字节都有对应的地址。

总线

  • 内存和处理器之间通过总线来进行数据传递。
  • 总线贯穿了整个计算机系统,它负责将信息从一个部件传递到另一个部件。通常,总线被设计成传送定长的字节块,也就是字。

I/O设备

  • 各种输入输出设备,包括键盘、鼠标、显示器及磁盘等等。
  • 每一个输入输出设备都通过一个控制器或者适配器与I/O总线相连。控制器和适配器之间的区别主要在于它们的组成方式。

执行hello程序

  1. 首先,我们通过键盘输入./helloshell程序会把输入的字符逐一读入寄存器,处理器会把这个字符串放入内存中。

  2. 当我们完成输入,按下回车键时,shell程序就知道我们已经结束了命令的输入。然后执行一系列的指令来加载可执行文件hello,这些指令将hello中的数据和代码从磁盘拷贝到内存,数据包括最终会被输出的字符串Hello World!\n。这个拷贝过程将利用DMA(Direct Memory Access)技术,数据可以不通过处理器而直接从磁盘到达主存。

  3. 当可执行文件中的代码和数据被加载到内存中,处理器就开始执行hello程序中的机器指令。CPU会将Hello World!\n这个字符串从内存复制到寄存器文件,再从寄存器文件拷贝到显示设备,最终显示在屏幕上。

高速缓存

对于处理器而言,从磁盘上读取一个字所花费的时间开销比在内存中读取的开销大1000万倍,处理器从寄存器文件中读数据比从主存中读取要快100倍。随着这些年半导体技术的进步,这种处理器与主存之间的差距还在持续增大。加快处理器的运行速度比加快主存的速度要容易和便宜很多。针对这种处理器与主存之间的差异,系统设计者采用了更小更快的存储设备,称为高速缓存存储器,它们被用来作为暂时的集结区域,存放处理器在不久的将来可能会需要的信息。

  • L1 cache:访问速度几乎和寄存器文件一样快;
  • L2 cache:访问开销是L1的5倍,是主存的5-10倍;
  • L3 cache:容量相较L2更大,访问速度更慢。

深入理解计算机系统中高速缓存,可以利用存储器的层次结构来提高程序的性能。

操作系统管理硬件

在上一节中,屏幕输出了一个字符串,在这个过程中,无论是shell程序还是hello程序都没有直接访问键盘、显示器、磁盘这些硬件设备,真正操控硬件的操作系统。

在应用程序和硬件之间插入一层操作系统,这样设计的目的主要有两个:

  1. 防止硬件被失控的应用程序滥用;
  2. 操作系统提供统一的机制来控制复杂的底层硬件。

为了实现上述功能,操作系统引入了几个抽象的概念

进程

上下文(Context):操作系统保存进程运行所需的所有状态信息。例如当前PC和寄存器的值,以及内存中的内容等。

线程

每个线程都运行在进程的上下文中,并共享同样的代码和全局数据。由于网络服务器中对并行处理的要求,线程成为越来越重要的编程模型。

虚拟存储器

虚拟存储器是一个抽象概念,它为每个进程提供了一个假象,好像每个进程都在独占地使用内存。

文件

Linux系统的设计哲学:万物皆文件。每个I/O设备,包括磁盘、键盘、显示器,甚至于网络,都可以被看成是文件, 系统中所有的输入输出都可以通过读写文件来完成。当程序员需要读写磁盘上的文件时,他们不需要了解具体的磁盘技术,同一个程序可以在使用不同磁盘技术的不同系统上运行。

利用网络系统和其他系统通信

我们一直把系统视为一个孤立的硬件和软件的集合体。实际上,现代系统经常通过网络和其他系统连接到一起。从一个单独的系统来看,网络可以视为一个I/O设备。

通过网络在远程主机上运行hello程序

系统优化

获得更高的计算能力的途径

  1. 线程级并发:
    • 有了进程的抽象,可以设计出同时执行多个程序的系统,这也就导致了并发。
      从出现分时(time-sharing)以来,计算机系统就有了对并发执行的支持。这种并发执行只是模拟出来的,是通过使一台计算机在它正在执行的进程间快速切换的方式实现的。这样即使处理器必须在多个任务间切换,大多数也是由一个处理器完成的。这个叫做单处理器系统。
    • 随着近来多核处理器和超线程(hyperthreading)的出现,导致了多处理器系统的存在。
      使用线程,可以在一个进程中执行多个控制流。
      多核处理器是将多个CPU(”核“)集成到一个集成电路芯片上。有一个微处理器芯片有4个CPU核,每个核都有自己的L1和L2的高速缓存,但是它们共享一个更高层次的高速缓存L3,以及到主存的接口。
    • 超线程,有时候称为同时多线程(simultaneous multi-threading),是一项允许一个CPU执行多个控制流的技术。它涉及到CPU某些硬件有多个备份,比如程序计数器和寄存器文件;而其他的硬件部分只有一份,比如执行浮点运算的单元。常规的处理器需要大约20000个时钟周期做不同线程间的转换,而超线程的处理器可以再单个周期的基础上决定要执行哪一个线程。这样使得CPU可以更好地利用它的处理资源。
  2. 指令级并行:现代处理器可以同时执行多条指令的属性称为指令级并行。每条指令从开始到结束大概需要20个时钟周期或者更多,但是处理器采用了非常多的技巧可以同时处理多达100条指令,因此,近几年的处理器可以保持每个周期2-4条指令的执行速率。
  3. 单指令、多数据并行: 现代处理器拥有特殊的硬件部件,允许一条指令产生多个并行的操作,这种方式称为单指令多数据。