全闪分布式块存储性能实测1000万IOPS!

(查看性能测试视频)

 

性能测试说明

测试数据(简表)

 

测试方法

本次测试采用四台服务器作为存储节点搭建FASS,创建16个100GB双副本存储卷进行测试

8客户端压力读写,每个客户端读写2个存储卷,使用Intel SPDK自带的perf工具进行性能测试

perf工具命令样例:

 

络环境

前端和后端 采用100Gbps IB 交换机,管理 采用10Gbps以太 交换机。

前端 和后端 通过不同 段隔离,与管理 物理隔离。

 

  络拓扑图

服务器环境

服务器配置(四台):

服务器本地硬盘性能测试结果:

测试时间为300s,未到稳态,性能相较于SPEC略有差异,仅供参考

 

客户端环境

客户端配置1(4台):

客户端配置2(4台):

 

性能说明

本次性能测试因为受限于硬件环境瓶颈,未能发挥出FASS完整的性能,主要包括以下几点:

1、PCI-E 3.0 X16接口仅能提供128Gbps的带宽,其上的双口IB 卡的极限性能受到影响,仅能提供16GB/s带宽,加上 络和协议损耗,四个节点 络性能极限带宽为60GB/s左右;

2、且因为PCI-E总线数量不足,5块NVMe硬盘本需20条PCI-E,却仅提供了16条,且5块硬盘无法均匀分布,实际本地硬盘测试中,单节点4K随机读取IOPS仅为300万,FASS已经发挥出了本地硬件90%的IOPS;

3、NVMe SSD本身的SPEC规格(随机读/写IOPS:830K/360K),写入性能相对较低;

4、为保证客户数据安全,FASS默认为双副本卷,本次测试同样采用双副本进行测试,还原实际性能,双副本卷会造成写入IOPS性能损失一倍左右;

5、客户端有一半仅有40Gbps 卡,单节点带宽上限为5GB/s左右,四台客户端仅能提供20GB/s的压力,另外四台100Gbps 卡的客户端可以提供28GB/s的压力,如果均为100Gbps 卡,FASS理应提供56GB/s的带宽,发挥出带宽极限的93%。

文章知识点与官方知识档案匹配,可进一步学习相关知识云原生入门技能树首页概览8960 人正在系统学习中

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2020年10月26日
下一篇 2020年10月26日

相关推荐