kata容器 优缺点 kata容器原理_客户端

本文的所有分析是基于Kata容器1.6.2版本。

在参加了2019年伦敦OpenInfra Days的Kata容器研讨会之后,我们对它们的启动时间印象比较深刻,与Kubernetes集群中的普通runC容器相比仅稍慢一些。我们自然而然的对它们的磁盘I/O绑定性能以及它们是否也符性能要求感到好奇。在本文中,我们将探讨这个主题,以了解在I/O绑定性能和安全性都是关键需求的环境中使用此技术的利弊。

什么是Kata容器?

Kata容器是轻量级vm,旨在与DockerKubernetes等容器编排软件无缝集成。设想的一个用例是运行不受信任的工作负载,利用不与主机共享操作系统内核所获得的额外隔离。然而,在最近一次对虚拟机和容器的调查中,使用宿主机内核导致额外安全性这一毫无疑问的假设受到了挑战。Kata源于Intel Clear ContainersHyper runV技术。gVisor的目标是通过过滤和重定向系统调用到单独的用户空间内核来解决类似的问题。因此,gVisor会受到运行时性能损失。关于gVisor的进一步讨论超出了本博客的范围。

为Kata配置Kubernetes

Kata容器符合OCI,这意味着支持外部运行时类的容器运行时接口(CRI)可以使用Kata来运行工作负载。这些CRI的例子目前包括CRI-Ocontainerd,它们都默认使用runC,但这可以替换为kata qemu运行。从Kubernetes 1.14+开始,RuntimeClass特性标志已升级到beta,因此默认启用。因此,设置相对简单。

目前Kata支持qemufirecracker hypervisor后端,但对后者的支持被认为是初步的,特别是缺乏主机到客户的文件共享。这让我们将kata qemu作为当前的选项,其中virtio-9p提供了基本的共享文件系统功能,这对分析至关重要(测试路径是安装在主机上的网络文件系统)。

没有这些先决条件,Kata启动将无声地失败(我们很难学到了这一点)。

这个示例要点展示了如何在Minikube集群中将runC替换为Kata运行时。注意,在编写本文时,Kata容器有额外的主机要求:

  • Kata将只在配置为支持嵌套虚拟化的计算机上运行。
  • Kata至少需要一个Westmere处理器架构。

如果没有这些先决条件,Kata的将悄无声息地失败(我们是从多次实践中得到的)。

为了进行此分析,部署了一个裸机Kubernetes集群,使用OpenStack Heat通过我们的appliances playbooks配置机器,并使用Kubespray将它们配置为Kubernetes集群。Kubespray支持除Docker之外的其他容器运行时规范,例如CRI-O和 containerd,这是支持Kata运行时所必需的。

设计I/O性能测试方案

为了对Kata容器的I/O性能进行基准测试,我们在裸机和runC容器的情况下提出了等效的场景来进行比较。在所有情况下,我们都使用fio(3.1版)作为I/O基准测试工具,调用方式如下,其中$SCRATCH_DIR是安装在主机上的BeeGFS(本节稍后将详细介绍)网络存储的路径:

fio fio_jobfile.fio --fallocate=none --runtime=30 --directory=$SCRATCH_DIR --output-format=json+ --blocksize=65536 --output=65536.json

fio_jobfile.fio上述引用的文件内容如下:

[global]; Parameters common to all test environments; Ensure that jobs run for a specified time limit, not I/O quantitytime_based=1; To model application load at greater scale, each test client will maintain; a number of concurrent I/Os.ioengine=libaioiodepth=8; Note: these two settings are mutually exclusive; (and may not apply for Windows test clients)direct=1buffered=0; Set a number of workers on this clientthread=0numjobs=4group_reporting=1; Each file for each job thread is this sizefilesize=32gsize=32gfilename_format=$jobnum.dat[fio-job]; FIO_RW is read, write, randread or randwriterw=${FIO_RW}

Scenario

客户端数量

磁盘I/O模式

裸机

1

顺序读取

runC容器

8

随机读取

Kata容器

64

顺序写



随机写

为I/O性能研究探索的参数空间涵盖了36种方案、客户机数量和磁盘I/O模式的组合。

结果

磁盘I/O吞吐量

在这些结果中,我们绘制了所有客户端上的总带宽,展示了单个客户端可以实现的向上扩展带宽以及许多客户端上实现的向外扩展吞吐量。

kata容器 优缺点 kata容器原理_kata容器 优缺点_02

裸机,runCKata之间的磁盘I/O带宽比较。在所有情况下,使用runC容器实现的带宽都略低于裸机。但是,Kata容器的性能通常要差得多,当有64个客户端时,其获得的裸机读取带宽大约为15%,随机写入带宽的比例要小得多。唯一的例外是使用64个客户端的顺序写入情况,其中Kata容器的性能好于裸机方案约25%。

提交延迟累积分布函数(CDF)

在对延迟敏感的工作负载中,I/O延迟可能占主导地位。I/O操作提交延迟按对数比例绘制,以适应非常广泛的数据点。

kata容器 优缺点 kata容器原理_Docker_03

分别针对1、8和64个客户端的裸机,runCKata容器环境之间的提交延迟CDF的比较。与将它们作为runC容器运行相比,在裸机中运行fio作业之间存在微小差异。但是,将裸机与Kata容器进行比较,在所有情况下的开销都非常大。

Number of clients >

 

1

 

8

 

64

 

Mode

Scenario

50%

99%

50%

99%

50%

99%

sequential read

bare

1581

2670

2416

3378

14532

47095

runC

2007

2506

2391

3907

15062

46022


Kata

4112

4620

12648

46464

86409

563806


random read

bare

970

2342

2580

3305

14935

43884

runC

1155

2277

2506

3856

15378

42229


Kata

5472

6586

13517

31080

109805

314277


sequential write

bare

1011

1728

2592

15023

3730

258834

runC

1011

1990

2547

14892

4308

233832


Kata

3948

4882

4102

6160

14821

190742


random write

bare

1269

2023

3698

11616

19722

159285

runC

1286

1957

3928

11796

19374

151756


Kata

4358

5275

4566

14254

1780559

15343845


该表总结了与之前显示的数字相对应的50%和99%的提交延迟(以μs为单位)。*

展望未来

在这种I/O密集型方案中,Kata容器尚未达到传统容器的性能。

从结果可以明显看出,在裸机、runC容器和Kata容器之间进行选择时,需要权衡取舍。尽管runC容器为大多数用例提供了更完善的考量,但它们仍然使主机内核易于受到系统调用接口作为攻击面的利用。Kata容器提供了硬件支持的隔离,但是目前存在巨大的性能开销,尤其是对于磁盘I/O绑定操作。

Kata的发展路线图和发展速度拥有坚实的基础以及乐观的前景。Kata团队已经意识到使用virtio-9p作为存储驱动程序在主机和来宾VM之间共享路径的性能缺陷。

Kata版本1.7(将于2019年5月15日发布)预计将附带virtio fs的实验支持,该版本有望改善I/O性能问题。初步结果令人鼓舞,其他已发布的基准测试报告显示,virtio fs驱动程序的磁盘I/O带宽比virtio-9p提高了2到8倍。当新功能可用时,我们将重复我们的测试以及分析。

原文: https://www.stackhpc.com/kata-io-1.html

kata容器 优缺点 kata容器原理_Docker_04

“混合云”已是大趋所势,Kubernetes作为混合云实施上的重要一环,下面这些落地与实践中,你在是否遇到过难题?

  • OpenStack私有云环境中的使用场景与方式 (存储,网络, ingres, LB等融合)
  • K8S 的业务监控与日志监控的实现
  • K8s 的持续发布的集成(gitlab,jenkins等等)
  • 多家公有云上的自建K8s的 实现高可用的思路(持续实践中)
  • K8s的日常运维