(查看性能测试视频)
性能测试说明
测试数据(简表)
测试方法
本次测试采用四台服务器作为存储节点搭建FASS,创建16个100GB双副本存储卷进行测试
8客户端压力读写,每个客户端读写2个存储卷,使用Intel SPDK自带的perf工具进行性能测试
perf工具命令样例:
络环境
前端和后端 采用100Gbps IB 交换机,管理 采用10Gbps以太 交换机。
前端 和后端 通过不同 段隔离,与管理 物理隔离。
络拓扑图
服务器环境
服务器配置(四台):
服务器本地硬盘性能测试结果:
测试时间为300s,未到稳态,性能相较于SPEC略有差异,仅供参考
客户端环境
客户端配置1(4台):
客户端配置2(4台):
性能说明
本次性能测试因为受限于硬件环境瓶颈,未能发挥出FASS完整的性能,主要包括以下几点:
1、PCI-E 3.0 X16接口仅能提供128Gbps的带宽,其上的双口IB 卡的极限性能受到影响,仅能提供16GB/s带宽,加上 络和协议损耗,四个节点 络性能极限带宽为60GB/s左右;
2、且因为PCI-E总线数量不足,5块NVMe硬盘本需20条PCI-E,却仅提供了16条,且5块硬盘无法均匀分布,实际本地硬盘测试中,单节点4K随机读取IOPS仅为300万,FASS已经发挥出了本地硬件90%的IOPS;
3、NVMe SSD本身的SPEC规格(随机读/写IOPS:830K/360K),写入性能相对较低;
4、为保证客户数据安全,FASS默认为双副本卷,本次测试同样采用双副本进行测试,还原实际性能,双副本卷会造成写入IOPS性能损失一倍左右;
5、客户端有一半仅有40Gbps 卡,单节点带宽上限为5GB/s左右,四台客户端仅能提供20GB/s的压力,另外四台100Gbps 卡的客户端可以提供28GB/s的压力,如果均为100Gbps 卡,FASS理应提供56GB/s的带宽,发挥出带宽极限的93%。
文章知识点与官方知识档案匹配,可进一步学习相关知识云原生入门技能树首页概览8960 人正在系统学习中
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!