转到 400Gb 比您想象的更临近了
数据中心经理展望未来时,基于云的演进无处不在:高性能虚拟服务器、高带宽和低延迟需求,以及高速交换机到服务器连接。无论现阶段运行10Gb还是100Gb,都要尽快向400Gb过渡,时间非常紧迫。
推动向400G/800G及更高速度发展的因素有很多。数据中心逐渐从多个不同的网络转移到虚拟化程度更高的软件驱动环境。与此同时,纷纷部署更多的机器到机器连接,减少机器之间的交换机数量。支持未来云级数据中心的大部分组件早已问世。目前缺少的是创建能够整合所有组件的物理层基础设施的全方位策略。
那么,如何实现这一目标呢?了解您的选择。
收发器
升级到400Gb需要将当前SFP、SFP+或QSFP+收发器的密度加倍。为此,需要采用QSFP-双密度(QSFP-DD)和八路小型可插拔(OSFP)技术。二者均采用八条通道与四条通道,并可在1RU面板中安装32个端口。唯一的显著差异在于向后兼容性和功率处理能力。MSA提到了多个不同的光学连接选项:可根据支持的应用选择LC、mini-LC、MPO 8、12、16、SN、MDC和CS连接器。谈谈连接器
连接器
连接器选项多种多样,为分配更高的八路容量提供了更多的选择。从传统上而言,12芯光纤MPO用于支持六条双光纤通道。MPO16的很多应用(如40GBase-SR4)仅使用四条通道(八根光纤),可能更适合与八路模块搭配使用。SN和MDC是另外两种值得关注的连接器,它们采用1.25mm套管技术,为高速光学模块提供了灵活的分支选项。终极问题在于,未来哪些收发器可以与哪些连接器配合使用?
芯片
当然,带宽需求没有任何限制。目前,限制因素并非交换机正面可以插入多少芯片,而是内部芯片组可以提供多少容量。高基数与高SERDES速度相结合,从而提供更高的容量。2015年左右的典型方法支持100Gb应用使用128-25Gb通道,生成3.2Tb交换机容量。升级到400Gb要求将ASIC增至256个50Gb通道,从而生成12.8Tb交换机容量。下一个发展目标 – 256个100Gb通道 - 容量达到25.6Tb。正在考虑实施未来计划,将通道速度提升至200Gb,这是一项艰巨的任务,需要几年时间才能达成。
深入了解400G/800G(第 1 部分)
显而易见,当数据中心经理思考400G/800G迁移策略和计划时,我们几乎没有想过这个问题,只不过认为这是数据中心经理需要考虑的问题。关于技术发展方向和目标,还有很多方面需要指出。为深入了解现状,我们建议您查看关于本主题的资料文件。请务必与康普保持联系,密切关注事态发展。