服务器虚拟化概述公海赌船网址,服务器虚拟化概述

Technorati 标签:
云计算,虚拟化

Technorati 标签:
云计算,虚拟化

本文基于网上的材料整理而成。

本文基于网上的资料整理而成。

第一章 服务器虚拟化概述

第一章 服务器虚拟化概述

1.1 为何需要服务器虚拟化

假使物理机上只布置一种工作,资源利用率太低,不便于节约成本。假如说生产区域需要动用物理机来保证安居,对于开发测试区使用虚拟机不但可以节约有限的物理机资源,还可以够高效上线。

1.1 为啥需要服务器虚拟化

固然物理机上只布置一种业务,资源利用率太低,不便利节省成本。假若说生产区域需要动用物理机来保证安居,对于开发测试区使用虚拟机不但可以节省有限的物理机资源,还足以敏捷上线。

1.2 虚拟化发展历史

  • 提议概念:1959年7月指出,在列国音信处理大会上登载的《大型高速统计机中的时间共享》杂谈中指出
  • 开发技术:20世纪60年间先导,IBM操作系统虚拟化技术使用在了大型机和袖珍机上
  • 蓬勃发展:20世纪90年间,VMware集团首先实现了X86架构上的虚拟化,于1999年出产了x86平台上的首先款虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多的厂商投入了虚拟化技术的人马

第二章 服务器虚拟化

服务器虚拟化首要有两种艺术:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出的吩咐经过处理后传到大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是在情理服务器和操作系统中间运行的软件层,可以对模拟硬件系统,将先后对那么些硬件系统CPU发送的下令经过处理未来,加以虚拟传到物理CPU上。同时它能够协调访问服务器上的大体设备和虚拟机,也叫虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出利用运行时的条件,是相比轻量的虚拟化,层次相比浅。

1.2 虚拟化发展历史

  • 指出概念:1959年十月提议,在列国消息处理大会上发布的《大型高速统计机中的时间共享》随想中指出
  • 开发技术:20世纪60年间开端,IBM操作系统虚拟化技术使用在了大型机和袖珍机上
  • 蓬勃发展:20世纪90年份,VMware公司先是落实了X86架构上的虚拟化,于1999年出产了x86平台上的率先款虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多的厂商参加了虚拟化技术的大军

第二章 服务器虚拟化

服务器虚拟化紧要有两种格局:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出的授命经过处理后传到大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是在大体服务器和操作系统中间运行的软件层,可以对模拟硬件系统,将顺序对这多少个硬件系统CPU发送的一声令下经过处理未来,加以虚拟传到物理CPU上。同时它可以协调访问服务器上的物理设备和虚拟机,也叫虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出利用运行时的环境,是相比轻量的虚拟化,层次相比较浅。

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行在硬件系统上。典型例子是KVM。KVM其实就是Linux内核提供的虚拟化架构,可将根本直接担任Hypervisor,KVM一般需要处理器本身扶助虚拟化扩张技术,如AMDVT等。KVM使用内核模块kvm.ko来促成基本虚拟化功用,然而只提供了CPU和内存的虚拟化,必须结合QEMU才能结成完整的虚拟化技术。

公海赌船网址 1

  • 宿主架构:典型的就是QEMU,它可以通过二进制转换来效仿CPU,使Guest
    OS认为自己再与硬件打交道。
    公海赌船网址 2

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行在硬件系统上。典型例证是KVM。KVM其实就是Linux内核提供的虚拟化架构,可将基本直接充当Hypervisor,KVM一般需要处理器本身援助虚拟化扩大技术,如AMDVT等。KVM使用内核模块kvm.ko来落实焦点虚拟化功效,不过只提供了CPU和内存的虚拟化,必须结合QEMU才能结合完整的虚拟化技术。

公海赌船网址 3

  • 宿主架构:典型的就是QEMU,它可以因此二进制转换到模拟CPU,使Guest
    OS认为自己再与硬件打交道。
    公海赌船网址 4

2.2 CPU虚拟化

过程的执行有二种情状

  • 内核态:首要用以硬件访问,修改紧要参数,
  • 用户态:用户运行应用程序。

二种情景的权柄不同,对硬件的访问必须在内核态,可以保证系统的可靠性,只给接纳人员开放用户态,不会对OS的运转带来大的熏陶。避免系统被人为攻击。

OS内核数据和代码区应该与用户区完全隔绝,也就是说程序可以看来的地址都是用户态地址,当程序执行系统调用的时候,进程会切入内核态进行基础访问,此时页表也急需切换来内核态的页表,带来的题材是性质比较差。因为页表在内存中,切换会带来性能的低落。

为此目前主流的OS的做法是将基本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也放在高位。这样带来的益处是,进程空间的内核区也被映射到大体内存区,进程的切换不会导致TLB中在此以前缓存的对准内核区页表失效,保证了性能。

实际进程是不能访问内核区,因为强行访问的话,页表条目有权限位(进程如今权限保存在寄存器的CPL字段,为Ring3,而根本页表的权力为Ring0,所以CPU会禁止访问。)

总结一下就是x86 架构提供多少个特权级别给操作系统和应用程序来做客硬件。
Ring 是指 CPU 的运作级别,Ring 0是最高级别,Ring1次之,Ring2更次之……

  • 基础需要直接访问硬件和内存,因此它的代码需要周转在最高运行级别
    Ring0上,这样它可以行使特权指令比如控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低于运行级别上Ring3上,怎么样要拜访磁盘,这就需要实践系统调用,此时CPU的运转级别会暴发从ring3到ring0的切换,并跳转到系统调用对应的水源代码地方执行,这样基本就为您做到了设施访问,完成将来再从ring0重回ring3。以此历程也称功用户态和内核态的切换。

公海赌船网址 5

对此非虚拟化操作系统而言,应用程序和系统发出的家常指令都运作在用户级别指令中,只有特权指令运行在主导级别中,那样操作系统与利用解耦合。

那么,虚拟化在这里就遭受了一个难题,因为物理机OS是做事在 Ring0
的,虚拟机的操作系统就不可以也在 Ring0
了,所以有的特权指令是绝非实施权限的

CPU虚拟化的法子就是

  • 特权解除:让Guest
    OS运行在用户级别,让hypervisor运行在基本级别,这样就撤废了Guest
    OS的特权级别。
  • 深陷模拟:运作在Guest
    OS的普通指令像过去相同运行,当运行到特权指令时,会生出非凡并被hypervisor捕获。
    公海赌船网址 6

这就是说困难在于:

  • 什么样模拟x86保护形式
  • 怎么堵住并执行虚拟机的Ring0指令。
    缓解形式如下

2.2 CPU虚拟化

进程的推行有二种处境

  • 内核态:重要用来硬件访问,修改重点参数,
  • 用户态:用户运行应用程序。

二种情状的权杖不同,对硬件的拜访必须在内核态,能够保证系统的可靠性,只给选拔人员开放用户态,不会对OS的周转带来大的影响。防止系统被人工攻击。

OS内核数据和代码区应该与用户区完全割裂,也就是说程序可以观望的地方都是用户态地址,当程序执行系统调用的时候,进程会切入内核态举办基本访问,此刻页表也亟需切换来内核态的页表,带来的题材是性质相比差。因为页表在内存中,切换会带来性能的低落。

由此目前主流的OS的做法是将根本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也坐落高位。这样带来的便宜是,进程空间的内核区也被映射到大体内存区,进程的切换不会招致TLB中此前缓存的针对性内核区页表失效,保证了性能。

实则进程是无法访问内核区,因为强行访问的话,页表条目有权限位(进程如今权限保存在寄存器的CPL字段,为Ring3,而基本页表的权限为Ring0,所以CPU会禁止访问。)

总计一下就是x86 架构提供五个特权级别给操作系统和应用程序来拜会硬件。
Ring 是指 CPU 的运转级别,Ring 0是最高级别,Ring1次之,Ring2更次之……

  • 根本需要平昔访问硬件和内存,由此它的代码需要周转在最高运行级别
    Ring0上,这样它可以运用特权指令比如控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低于运行级别上Ring3上,怎么着要拜访磁盘,这就需要实施系统调用,此时CPU的运转级别会暴发从ring3到ring0的切换,并跳转到系统调用对应的水源代码位置执行,这样基本就为您完成了设备访问,完成以后再从ring0重返ring3。本条过程也称效用户态和内核态的切换。

公海赌船网址 7

对此非虚拟化操作系统而言,应用程序和序列发出的平凡指令都运行在用户级别指令中,唯有特权指令运行在基本级别中,这样操作系统与运用解耦合。

那么,虚拟化在此地就碰见了一个难题,因为物理机OS是干活在 Ring0
的,虚拟机的操作系统就无法也在 Ring0
了,所以有的特权指令是未曾执行权限的

CPU虚拟化的点子就是

  • 特权解除:让Guest
    OS运行在用户级别,让hypervisor运行在主导级别,这样就撤消了Guest
    OS的特权级别。
  • 深陷模拟:运作在Guest
    OS的平时指令像过去一律运行,当运行到特权指令时,会发出相当并被hypervisor捕获。
    公海赌船网址 8

那么困难在于:

  • 怎么模拟x86珍爱形式
  • 什么堵住并举办虚拟机的Ring0指令。
    釜底抽薪办法如下
2.2.1 CPU虚拟化技术解决情势
  • 全虚拟化:客户操作系统运行在 Ring
    1,它在推行特权指令时,会接触相当,然后
    hypervisor捕获这些那多少个,在丰裕里面做翻译,最终回来到客户操作系统内,客户操作系统认为自己的特权指令工作健康,继续运行。所以也叫二进制翻译技术(Binary
    Translate)。
    然则这些特性损耗十分的大,简单的一条指令现在却要由此复杂的不得了处理过程
    公海赌船网址 9

    • 优点:不用修改GuestOS内核可以直接动用
    • 缺点:在VMM捕获特权指令和翻译过程会促成性能的暴跌。
      公海赌船网址 10
      从上图可以看出,当虚拟机中的应用要运行在内核态的时候,会因此Hypervisor层的依样画葫芦,通过二进制翻译技术,将下令替换为此外的一声令下。
  • 半虚拟化:修改操作系统内核,替换掉无法虚拟化的通令,通过一级调用(hypercall)直接和底部的虚拟化层hypervisor来报道,
    周旋于完全虚拟化性能更高,因为省去了翻译的进程。不过急需对Guest
    OS举行改动,应用场景不多。
    公海赌船网址 11
  • 硬件辅助虚拟化: 二零零五年后,CPU厂商AMD 和 英特尔 起先帮忙虚拟化了。
    AMD 引入了 AMD-VT (Virtualization Technology)技术
    要害的实现模式是充实了一个VMX
    non-root操作格局,运行VM时,客户机OS运行在non-root情势,仍然有Ring0~ring3等级别
    当运行特权指令时如故爆发中断的时候,通过VM_EXIT就足以切换来root格局,拦截VM对虚拟硬件的拜访。执行完毕,通过VM_ENTRY回到non-root即可。
    公海赌船网址 12
    这种技能首要代表为intel VT-X,AMD的Intel-V
    公海赌船网址 13

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
支援的全虚拟化方案,它需要CPU虚拟化特性的支撑。
总结:
公海赌船网址 14

2.2.1 CPU虚拟化技术解决形式
  • 全虚拟化:客户操作系统运行在 Ring
    1,它在实施特权指令时,会接触相当,然后
    hypervisor捕获那个特别,在特别里面做翻译,最终回来到客户操作系统内,客户操作系统认为自己的特权指令工作正常,继续运行。所以也叫二进制翻译技术(Binary
    Translate)。
    只是这一个特性损耗相当的大,简单的一条指令现在却要透过复杂的要命处理过程
    公海赌船网址 15

    • 可取:不用修改GuestOS内核可以从来动用
    • 缺陷:在VMM捕获特权指令和翻译过程会导致性能的下落。
      公海赌船网址 16
      从上图可以看看,当虚拟机中的应用要运行在内核态的时候,会经过Hypervisor层的效仿,通过二进制翻译技术,将下令替换为此外的命令。
  • 半虚拟化:修改操作系统内核,替换掉无法虚拟化的一声令下,通过一流调用(hypercall)直接和底部的虚拟化层hypervisor来报道,
    相持于完全虚拟化性能更高,因为省去了翻译的历程。可是急需对Guest
    OS进行修改,应用场景不多。
    公海赌船网址 17
  • 硬件援助虚拟化: 二〇〇五年后,CPU厂商Intel 和 英特尔 起始协理虚拟化了。
    Intel 引入了 AMD-VT (Virtualization Technology)技术
    紧要的落实格局是充实了一个VMX
    non-root操作情势,运行VM时,客户机OS运行在non-root格局,依旧有Ring0~ring3等级别
    当运行特权指令时抑或暴发搁浅的时候,通过VM_EXIT就足以切换来root情势,拦截VM对虚拟硬件的造访。执行完毕,通过VM_ENTRY回到non-root即可。
    公海赌船网址 18
    这种技能紧要代表为intel VT-X,AMD的AMD-V
    公海赌船网址 19

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
襄助的全虚拟化方案,它需要CPU虚拟化特性的匡助。
总结:
公海赌船网址 20

2.3 内存虚拟化原理

内存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑类别内存管理的一种技术,目标是让应用程序认为它具有连续的可用的内存(一个连续完整的地方空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了内存调用的底细,对应用程序而言,不需要关怀内存访问的底细,可以把内存当作线性的内存池。

x86 CPU 都席卷了一个号称内存管理的模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的性能。

OS将内存遵照4KB为单位开展分页,形成虚拟地址和物理地址的映射表。倘诺OS在物理机上运行,只要OS提供这多少个页表,MMU会在访存时自动做虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的中转。

可是假使虚拟机上运行OS,Guest
OS经过地点转化到的“物理地址”实际上是QEMU的逻辑地址,由此还亟需拔取软件将其转会为实在物理内存地址

对于OS运行在大体机上的情形

公海赌船网址 21

设若经过访问内存的时候,发现映射表中还尚未物理内存举办相应。如下图

公海赌船网址 22

这儿MMU向CPU发出缺页中断,操作系统会基于页表中的外存地址,在外存中找到所缺的一页,将其调入内存。同时创新页表的投射关系。下两次访问的时候可以直接命中物理内存。

公海赌船网址 23

对此OS在虚拟机中的情形,过程就要复杂很多。

对于虚拟机内的历程的变换,需要举行两次更换。也就是说首先将动用的逻辑地址转换为虚拟机的大体地址,而那事实上是QEMU进程的逻辑地址,所以要映射到实际内存的物理地址还亟需做一回转换。

公海赌船网址 24

  • VA:应用的虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的情理地址

可见,KVM
为了在一台机械上运行两个虚拟机,需要扩充一个新的内存虚拟化层,也就是说,必须虚拟
MMU 来扶助客户OS,实现 VA -> PA -> MA 的翻译。

客户操作系统继续控制虚拟地址到客户内存物理地址的映射 (VA ->
PA),但是客户操作系统不可以直接访问实际机器内存,因而VMM
需要负担映射客户物理内存到实际机器内存 (PA -> MA)。

公海赌船网址 25

VMM 内存虚拟化的落实形式:

  • 软件情势:通过软件实现内存地址的翻译,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的鼎力相助虚拟化效率,比如 英特尔 的 NPT 和 AMD 的 EPT
    技术

2.3 内存虚拟化原理

内存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑类别内存管理的一种技术,目的是让应用程序认为它具有连续的可用的内存(一个老是完整的地址空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了内存调用的细节,对应用程序而言,不需要关注内存访问的细节,可以把内存当作线性的内存池。

x86 CPU 都包括了一个名为内存管理的模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的习性。

OS将内存遵照4KB为单位举行分页,形成虚拟地址和情理地址的映射表。倘诺OS在物理机上运行,只要OS提供这多少个页表,MMU会在访存时自动做虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的转速。

不过如若虚拟机上运行OS,Guest
OS经过地点转化到的“物理地址”实际上是QEMU的逻辑地址,由此还需要使用软件将其转会为真正物理内存地址

对此OS运行在情理机上的动静

公海赌船网址 26

假设经过访问内存的时候,发现映射表中还并未物理内存举行相应。如下图

公海赌船网址 27

这会儿MMU向CPU发出缺页中断,操作系统会遵照页表中的外存地址,在外存中找到所缺的一页,将其调入内存。同时更新页表的照射关系。下两遍访问的时候可以直接命中物理内存。

公海赌船网址 28

对于OS在虚拟机中的情形,过程就要复杂很多。

对此虚拟机内的经过的转换,需要开展两次更换。也就是说首先将利用的逻辑地址转换为虚拟机的大体地址,而这实际上是QEMU进程的逻辑地址,所以要映射到实际内存的大体地址还亟需做一遍转换。

公海赌船网址 29

  • VA:应用的虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的情理地址

看得出,KVM
为了在一台机械上运行四个虚拟机,需要充实一个新的内存虚拟化层,也就是说,必须虚拟
MMU 来帮忙客户OS,实现 VA -> PA -> MA 的翻译。

客户操作系统继续控制虚拟地址到客户内存物理地址的映射 (VA ->
PA),可是客户操作系统不可以向来访问实际机器内存,因而VMM
需要承担映射客户物理内存到实际机器内存 (PA -> MA)。

公海赌船网址 30

VMM 内存虚拟化的实现形式:

  • 软件模式:通过软件实现内存地址的翻译,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的扶持虚拟化效能,比如 英特尔 的 NPT 和 AMD 的 EPT
    技术
2.3.1 软件格局

黑影页表(SPT,shadow page
table):Hypervisor为虚拟机护卫了一个虚拟机的虚拟地址到宿主机大体地址炫耀的的页表。也就是说,在本来的两层地址层次基础上加了一层伪物理地址层次,通过这张表可以将客户机虚拟地址宿主机物理地址里面开展映射。

客户OS创制之后,Hypervisor成立其对应影子页表。刚开端影子页表是空的,此时其他客户OS的访存操作都会暴发缺页中断,然后Hypervisor捕获缺页相当

公海赌船网址 31

经过两回地址映射转换拿到虚拟机虚拟地址物理机物理地址的映射关系,写入阴影页表,渐渐到位具有虚拟地址到宿主机机器地址的映射。
公海赌船网址 32

代价是亟待保障虚拟机的页表和宿主机的影子页表的联手。

2.3.1 软件情势

阴影页表(SPT,shadow page
table):Hypervisor为虚拟机爱戴了一个虚拟机的虚拟地址到宿主机大体地址辉映的的页表。也就是说,在本来的两层地址层次基础上加了一层伪物理地址层次,通过这张表可以将客户机虚拟地址宿主机物理地址里头开展映射。

客户OS创制之后,Hypervisor创立其对应影子页表。刚开首影子页表是空的,此时其他客户OS的访存操作都会时有暴发缺页中断,然后Hypervisor捕获缺页异常

公海赌船网址 33

因而一回地址映射转换拿到虚拟机虚拟地址物理机物理地址的投射关系,写入影子页表,逐渐到位有着虚拟地址到宿主机机器地址的照射。
公海赌船网址 34

代价是亟需保障虚拟机的页表和宿主机的黑影页表的一块。

2.3.2 通过INTEL EPT技术来实现

KVM 中,虚机的情理内存即为 qemu-kvm 进程所占有的内存空间。KVM 使用
CPU 扶助的内存虚拟化模式。在 AMD 和 英特尔平台,其内存虚拟化的落实模式分别为:

  • Intel 平台上的 NPT (Nested Page Tables) 技术
  • AMD 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT接纳类似的法则,都是用作 CPU
    中新的一层,通过硬件用来将客户机的物理地址翻译为主机的情理地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一层转化,硬件同时到位虚拟机物理地址到物理机物理地址这第二层转化。第二层转换对Guest
    OS来说是晶莹剔透的,Guest
    OS访问内存时和在物理机运行时是千篇一律的。这种格局又称作内存协理虚拟化。

据此内存扶助虚拟化就是直接用硬件来落实虚拟机的物理地址到宿主机的大体地址的一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再需要联合四个页表,虚拟机内部的切换也不需要qemu进程切换,所急需的是只是五回页表查找,而且是透过硬件来形成的,性能损耗低。

流程如下:

  • VM中的应用发现页没有分片,MMU发起中断,从虚拟机的情理地址(QEMU的逻辑地址)中分红一页,然后更新页表。
    公海赌船网址 35
  • 这时候虚拟机页的物理地址还没对应物理内存的地点,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并更新页表。
    公海赌船网址 36
  • 下次访问就足以借助EPT来开展,只需要查三遍表即可。

公海赌船网址 37

总结:
公海赌船网址 38

2.3.2 通过INTEL EPT技术来实现

KVM 中,虚机的大体内存即为 qemu-kvm 进程所占用的内存空间。KVM 使用
CPU 扶助的内存虚拟化格局。在 AMD 和 AMD平台,其内存虚拟化的兑现情势分别为:

  • Intel 平台上的 NPT (Nested Page Tables) 技术
  • AMD 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT采取类似的法则,都是作为 CPU
    中新的一层,通过硬件用来将客户机的情理地址翻译为主机的物理地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一层转化,硬件同时形成虚拟机物理地址到物理机物理地址这第二层转化。第二层转换对Guest
    OS来说是透明的,Guest
    OS访问内存时和在物理机运行时是同样的。这种艺术又称作内存襄助虚拟化。

故而内存匡助虚拟化就是一直用硬件来贯彻虚拟机的大体地址到宿主机的大体地址的一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再需要联合几个页表,虚拟机内部的切换也不需要qemu进程切换,所急需的是只是一次页表查找,而且是经过硬件来形成的,性能损耗低。

流程如下:

  • VM中的应用发现页没有分片,MMU发起中断,从虚拟机的大体地址(QEMU的逻辑地址)中分红一页,然后更新页表。
    公海赌船网址 39
  • 这儿虚拟机页的大体地址还没对应物理内存的地点,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并更新页表。
    公海赌船网址 40
  • 下次做客就足以借助EPT来进展,只需要查一次表即可。

公海赌船网址 41

总结:
公海赌船网址 42

2.4 KVM其他内存管理技术

2.4 KVM其他内存管理技术

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是根本中的守护进程(称为
ksmd),它会定期举办页面扫描,将副本页面举办联合,然后释放多余的页面。KVM使用KSM来收缩三个一般的虚拟机的内存占用,升高内存的行使频率,在虚拟机使用相同镜像和操作系统时,效果更是肯定。不过会增多基础开发,所以为了提高效率,可以将此特性关闭。

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是根本中的守护进程(称为
ksmd),它会定期开展页面扫描,将副本页面举行联合,然后释放多余的页面。KVM使用KSM来裁减六个一般的虚拟机的内存占用,提升内存的行使频率,在虚拟机使用相同镜像和操作系统时,效果尤其强烈。但是会增多基础开发,所以为了提高效用,可以将此特性关闭。

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

AMD 的 x86 CPU 平时使用4Kb内存页,当是经过安排,也可以利用巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将运用更少的内存,并且将增进CPU的频率。最高情形下,可以增长20%的效用!

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

Intel 的 x86 CPU 常常拔取4Kb内存页,当是经过安排,也可以运用巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将运用更少的内存,并且将提升CPU的频率。最高意况下,可以增进20%的频率!

2.5 IO虚拟化

  • 依傍(完全虚拟):使用 QEMU 纯软件的办法来效仿 I/O
    设备。使用一个瑟维斯(Service) VM来模拟真实硬件,性能很差。
    客户机的装备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后嵌入IO共享页,同时用户空间的QEMU进程,QEMU模拟出本次IO操作,同样置于共享页中并同时KVM举行结果的取回。

注意:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将不会把结果放进共享页中,而是经过内存映射的艺术将结果直接写到客户机的内存中,然后文告KVM模块告诉客户机DMA操作已经成功。

公海赌船网址 43

  • 半虚拟化: KVM/QEMU就利用这种情势,它在 Guest OS 内核中安装前端驱动
    (Front-end driver)和在 QEMU
    中贯彻后端驱动(Back-end)的不二法门。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这就绕过了经过 KVM
    内核模块的过程,提高了IO性能,相对于完全虚拟的情势,
    省去了纯模仿情势下的要命捕获环节,Guest OS 可以和 QEMU 的 I/O
    模块直接通信。

公海赌船网址 44

  • IO-through:直接把机物理设备分配给虚拟机,不过需要硬件具备IO透传技术;,Intel定义的 I/O 虚拟化技术成为 VT-d,AMD 的称之为 英特尔-V。
    KVM 辅助客户机以垄断形式访问这一个宿主机的 PCI/PCI-E
    设备。通过硬件支撑的 VT-d
    技术将设备分给客户机后,在客户机看来,设备是物理上接连在PCI或者PCI-E总线上的
    差一点所有的 PCI 和 PCI-E
    设备都匡助直接分配,除了显卡以外(显卡的特殊性在此间)。PCI
    Pass-through 需要硬件平台 英特尔 VT-d 或者 AMD IOMMU
    的支撑。这么些特征必须在 BIOS 中被启用
    公海赌船网址 45

    • 利益:收缩了 VM-Exit 陷入到 Hypervisor
      的过程,极大地提升了性能,可以达成几乎和原生系统一样的特性。而且VT-d
      打败了 virtio 兼容性不好和 CPU 使用频率较高的题材。
    • 不足:独占设备的话,不可以实现设备的共享,成本增高。
    • 不足的解决方案:(1)在一台物理宿主机上,仅少数 I/O
      如网络性能要求较高的客户机使用
      VT-d直接分配设备,其他的应用纯模仿或者 virtio
      已达标两个客户机共享同一个设施的目的(2)对于网络I/O的解决办法,可以选取 SR-IOV
      是一个网卡爆发多少个单身的杜撰网卡,将各种虚拟网卡分配个一个客户机使用。

总结
公海赌船网址 46

2.5 IO虚拟化

  • 依傍(完全虚拟):使用 QEMU 纯软件的点子来模拟 I/O
    设备。使用一个Service(Service) VM来模拟真实硬件,性能很差。
    客户机的装备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后嵌入IO共享页,同时用户空间的QEMU进程,QEMU模拟出本次IO操作,同样置于共享页中并同时KVM举行结果的取回。

在意:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将不会把结果放进共享页中,而是经过内存映射的方法将结果直接写到客户机的内存中,然后通告KVM模块告诉客户机DMA操作已经成功。

公海赌船网址 47

  • 半虚拟化: KVM/QEMU就利用那种格局,它在 Guest OS 内核中安装前端驱动
    (Front-end driver)和在 QEMU
    中贯彻后端驱动(Back-end)的方法。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这就绕过了经过 KVM
    内核模块的过程,提升了IO性能,相对于完全虚拟的情势,
    省去了纯模仿形式下的分外捕获环节,Guest OS 可以和 QEMU 的 I/O
    模块间接通信。

公海赌船网址 48

  • IO-through:直接把机物理设备分配给虚拟机,不过需要硬件具备IO透传技术;,Intel定义的 I/O 虚拟化技术变成 VT-d,AMD 的称之为 AMD-V。
    KVM 扶助客户机以垄断格局访问这么些宿主机的 PCI/PCI-E
    设备。通过硬件支撑的 VT-d
    技术将装备分给客户机后,在客户机看来,设备是情理上连年在PCI或者PCI-E总线上的
    几乎所有的 PCI 和 PCI-E
    设备都协理直接分配,除了显卡以外(显卡的特殊性在此间)。PCI
    Pass-through 需要硬件平台 AMD VT-d 或者 Intel IOMMU
    的支撑。这么些特点必须在 BIOS 中被启用
    公海赌船网址 49

    • 便宜:缩短了 VM-Exit 陷入到 Hypervisor
      的长河,极大地提高了性能,可以达成几乎和原生系统一样的特性。而且VT-d
      战胜了 virtio 兼容性糟糕和 CPU 使用频率较高的问题。
    • 相差:独占设备的话,无法落实设备的共享,成本提升。
    • 不足的缓解方案:(1)在一台物理宿主机上,仅少数 I/O
      如网络性能要求较高的客户机使用
      VT-d直接分配设备,其他的使用纯模仿或者 virtio
      已达标四个客户机共享同一个设施的目的(2)对于网络I/O的解决办法,可以挑选 SR-IOV
      是一个网卡爆发六个独立的杜撰网卡,将每个虚拟网卡分配个一个客户机使用。

总结
公海赌船网址 50

2.6 网卡虚拟化

VM发出的流量一般有二种

  • 到物理机外部的装备,
  • 到地头物理服务器上的虚拟机。

故而大家需要保证不同虚拟机流量的并行隔离,同时又要考虑情理设备内虚拟机的互联互通。

缓解方法:
对此对物理机外部的流量,给各种VM分配一个专用通道,共享物理网卡资源。
根本有如下三种格局:

  • Bridge桥接格局:把物理主机上的网卡当交流机,然后虚拟出一个Bridge来接收发往物理机的包。
    公海赌船网址 51
  • isolation mode:仅guest OS之间通信;不与外部网络和宿主机通信。
    公海赌船网址 52
  • routed mode:与外部主机通信,通过静态路由使得各Guest OS
    的流量需通过物理网卡
    公海赌船网址 53
  • nat:地址转换;在虚拟网卡和物理网卡之间创建一个nat转发服务器;对数据包举行源地址转换。
    公海赌船网址 54

对内部流量:

  • 在hypervisor上树立virtual
    switch,可是会损耗CPU资源,而且存在较大安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理部分vswitch的行事,同时用vFW来保障平安)
  • 可以先让流量出服务器通过安全设备区域拓展多少清洗将来再重返。主流情势利用硬件SR-IOV对VM流量举行鉴别和拍卖

总结

公海赌船网址 55

2.6 网卡虚拟化

VM发出的流量一般有二种

  • 到物理机外部的设备,
  • 到地点物理服务器上的虚拟机。

因此大家需要确保不同虚拟机流量的交互隔离,同时又要考虑情理设备内虚拟机的互联互通。

解决办法:
对此对物理机外部的流量,给各类VM分配一个专用通道,共享物理网卡资源。
重大有如下三种情势:

  • Bridge桥接形式:把物理主机上的网卡当互换机,然后虚拟出一个Bridge来接收发往物理机的包。
    公海赌船网址 56
  • isolation mode:仅guest OS之间通信;不与表面网络和宿主机通信。
    公海赌船网址 57
  • routed mode:与表面主机通信,通过静态路由使得各Guest OS
    的流量需经过物理网卡
    公海赌船网址 58
  • nat:地址转换;在编造网卡和物理网卡之间确立一个nat转发服务器;对数码包进行源地址转换。
    公海赌船网址 59

对里面流量:

  • 在hypervisor上创制virtual
    switch,可是会损耗CPU资源,而且存在较大安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理部分vswitch的行事,同时用vFW来保障平安)
  • 可以先让流量出服务器通过安全设备区域开展多少清洗以后再回来。主流模式接纳硬件SR-IOV对VM流量举行甄别和处理

总结

公海赌船网址 60

2.7 Hypervisor层的虚拟化实现

操作系统是用户和物理机的接口,也是使用和大体硬件的接口。要旨功能在于任务调度和硬件抽象。

今非昔比操作系统的最大不同在于内核。

单内核、混合内核、微内核、外内核的分别
公海赌船网址 61

  • 单内核:内核所有的意义代码全部都运作在同一个根本空间内,优点是性质性能很高,缺点是计划性复杂,稳定性不够好;
  • 微内核:类似C/S服务形式,唯有最基础的代码会运行于内核空间,其他的都运作于用户空间,优点是平稳高,缺点性能较低;
  • 掺杂内核:性能与稳定的低头产物,完全由设计者进行用户自定义;
  • 外内核:比微内核更加极端,连硬件抽象工作都付出用户空间,内核只需要确保应用程序访问硬件资源时,硬件是悠闲的

公海赌船网址 62

2.7 Hypervisor层的虚拟化实现

操作系统是用户和物理机的接口,也是运用和大体硬件的接口。主题功效在于任务调度和硬件抽象。

今非昔比操作系统的最大不同在于内核。

单内核、混合内核、微内核、外内核的界别
公海赌船网址 63

  • 单内核:内核所有的法力代码全体都运行在同一个基石空间内,优点是性质性能很高,缺点是统筹复杂,稳定性不够好;
  • 微内核:类似C/S服务形式,只有最基础的代码会运作于内核空间,其他的都运行于用户空间,优点是平安无事高,缺点性能较低;
  • 掺杂内核:性能与平稳的折衷产物,完全由设计者进行用户自定义;
  • 外内核:比微内核更加极端,连硬件抽象工作都提交用户空间,内核只需要保证应用程序访问硬件资源时,硬件是悠闲的

公海赌船网址 64

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

相关文章