本文基于多家供应商在相同机房内的跨配置实测,总结了不同CPU、内存、磁盘类型与带宽限制对网络吞吐与延迟的影响。测试使用 香港的VPS 实例通过 iperf3、ping/mtr 与 fio/sysbench 等工具进行,结果显示低配实例在网络与磁盘瓶颈下吞吐受限,而高配并具备10Gb端口的实例能接近线路上限;延迟方面对本地访问影响小,对中国大陆与区域节点差异明显。
测试流程:1)用 iperf3 在本地同机房服务器与公网对测,测单流与多流吞吐;2)用 ping/mtr 测不同目标(香港机房、深圳、北京、东京、新加坡、洛杉矶)得到延迟与丢包分布;3)用 fio 或 sysbench 测磁盘顺序/随机读写性能;4)分别在业务高峰与夜间多时段跑取均值。所有测试均在清空缓存并复跑3次后取中位值。
结论显示,带有1Gb端口且只有1–2vCPU的低价实例,iperf3单流常见峰值在100–200Mbps;2–4vCPU且端口为1Gb或共享带宽的中配,多流能达到400–800Mbps;8vCPU并配备10Gb端口或独享带宽的高配,可稳定接近900–1000Mbps(视对端线路与TCP窗口为准)。磁盘类型影响磁盘相关吞吐,NVMe 顺序读写能达到上千MB/s,而普通SATA/云盘多在数百MB/s。
延迟测试结果(代表值):香港机房内互联平均 1–3ms;到香港边缘/深圳约 8–20ms;到北京/上海区间约 30–60ms;到东京 15–25ms;到新加坡 30–50ms;到美国西岸约 140–180ms。延迟主要受物理距离、出口路由与对端机房质量影响,通常高配实例并不会显著降低往返时延,但能在丢包或拥塞时维持更稳定的吞吐。
原因包括:1)CPU 与网络中断处理能力不足,单核实例在高并发网络包处理上成为瓶颈;2)带宽为共享或限速(例如防止邻居噪声),供应商会对低价机型做流量限速;3)IO 与内存带宽限制会影响TLS/压缩等应用的吞吐。实测中,通过增加并发流(iperf3 -P)可以部分提升多流吞吐,但CPU占用会同步上升。
建议在目标用户分布的网络条件下进行测试:若主要服务香港/粤港澳用户,应重点以香港/深圳节点为对端;若面向中国大陆全网,需测试多地出口并关注运营商回程路由;跨国业务则应测试东京/新加坡/美西等常用节点。此外,在不同时间段(高峰/非高峰)重复测试能反映带宽共享的波动。
选择建议:对延迟敏感的实时业务优先选择低延迟机房与靠近用户的节点;吞吐需求大且希望稳定线速则选带独享带宽或10Gb端口的高配实例;磁盘IO密集型应用选用NVMe或高IOPS云盘;若预算有限,可以通过增加并发流/多实例负载均衡来弥补单实例的吞吐不足。实测能帮助定位瓶颈并指导采购。