测试结果分析
我们利用修改得到的一系列测试脚本,在E1和E2之间开启了500条线程,测试结果如下:
Response_Time脚本测试结果 | ||||
Throughput Average | Convert Throughput Average | Transaction Rate Average | Response Time Average | |
64B | 9.259 Mbps | 59.782 Mbps | 58381 | 0.016 s |
128B | 69.786 Mbps | 121.304 Mbps | 59230 | 0.016 s |
256B | 144.201 Mbps | 183.432 Mbps | 44783 | 0.011 s |
512B | 169.463 Mbps | 191.120 Mbps | 23330 | 0.021 s |
1024B | 184.970 Mbps | 195.592 Mbps | 11938 | 0.042 s |
1280B | 185.587 Mbps | 196.526 Mbps | 9596 | 0.052 s |
1514B | 189.439 Mbps | 197.110 Mbps | 8137 | 0.061 s |
SMARTBIT设备的测试结果反映的是设备在理想状态下的工作情况,对于被测的交换机来说,SMARTBIT设备可以提供足够数量的可处理的数据。
我们的测试方法则会受到测试网路处理IP包能力的限制,我们的测试网路每秒钟最多可以产生12万个左右的数据包(这个数量只有百兆交换机可处理包的80%),当MAC帧为64B时,吞吐量受到网路处理能力的制约,此时每个MAC帧内的数据远远小于每个帧内部的其它信息,因此吞吐量远远没有达到百兆以太网的上限。当MAC帧在256B以上时,每帧内的有效数据的比例占据了大部分,我们的测试网络产生的数据包的数量已经足以考量出来交换机两个百兆端口的最大转发能力。Convert Throughput Average就是我们根据测试过程传输的MAC包的数量折算出了交换机两个百兆端口之间实际的数据传输量。最后提醒习惯了阅读SMARTBIT测试结果的读者需要注意到我们的测试结果同其具有不同的含义。
对于两个千兆端口之间的交换能力,我们没有采用上面的方法进行测试,我们这个测试网络最多生成的MAC帧远远不能满足测试千兆设备吞吐量的要求。因此我们换用了High_Performance_Throughtput测试脚本,这个脚本的测试过程是传输10MB的数据,因此消除了我们测试系统传输小数据包时IP包的封装、拆卸的开销。
High_Performance_Throughtput脚本测试结果 | |
Throughput Average | 944.604 Mbps |
Transaction Rate Average | 11.860 |
Response Time Average | 8.432 s |
上面的曲线图是我们在E1和E2之间开启100个线程测试得到的数据,因为这个测试脚本为单向传输数据,因此能够得到944Mbps的平均吞吐量已经是相当的高了。(另外需要提醒读者注意的是,由于设定的传输数据包的大小超过了1460字节,那么则不能把Transaction Rate等同于转发包的数量了,而是每秒钟完成该大小文件的次数)
Response_Time脚本测试结果 | ||||
Throughput Average | Convert Throughput Average | Transaction Rate Average | Response Time Average | |
64B | 22.385 | 145.430 | 142022 | 0.014 |
128B | 161.139 | 283.244 | 138303 | 0.014 |
256B | 427.138 | 544.423 | 132916 | 0.014 |
512B | 948.933 | 1070.694 | 130700 | 0.015 |
1024B | 1875.280 | 1990.737 | 121505 | 0.016 |
1280B | 2331.567 | 2447.667 | 119515 | 0.016 |
1514B | 2780.985 | 2895.058 | 119512 | 0.016 |
我们使用了24台主机(Celeron 1.7、256MB、百兆网卡)连接到7226DNS 24+2G以太网交换机的百兆端口,两台服务器连接到以太网交换机的千兆端口,然后两两主机之间建立起来100条Paris,先后调用64B、128B、256B、512B、1024B、1280B和1514B脚本。
我们单独测试了两台Celeron 1.7主机端口对端口的双向吞吐量可以达到130Mbps,两台双Xeon服务器千兆端口对端口双向吞吐量可以达到1300Mbps,因此我们所搭建的网络环境最高能提供的数据量约为[(130Mbps x 12)+ 1300Mbps ]= 2860 Mbps。上面的测试结果显示,磊科7226DNS交换机完全能够处理我们所构建的测试网络所给予的负载。
在同样的环境下,我们在在两两主机之间开启两个方向不同的线程,然后调用High_Performance_Throughput.scr进行测试。前面已经介绍过,利用这个脚本可以大大降低我们的测试网络在IP包方面的开销,因此可以得到更高的吞吐量。我们在这种测试方案下得到了3153 Mbps的吞吐量。