InfiniBand(IB)“无限带宽”
InfiniBand(直译为“无限带宽”技术,缩写为IB)是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。
截至2014年,它是超级计算机最常用的互连技术。Mellanox和英特尔制造InfiniBand主机总线适配器和网络交换器,并根据2016年2月的报道,甲骨文公司已经设计了自己的Infiniband交换机单元和服务器适配芯片,用于自己的产品线和第三方。Mellanox IB卡可用于Solaris、RHEL、SLES、Windows、HP-UX、VMware ESX、AIX。它被设计为可扩展和使用交换结构的网络拓扑。
作为互连技术,IB与以太网、光纤通道和其他专有技术(例如克雷公司的SeaStar)竞争。该技术由InfiniBand贸易联盟推动。
链路可以聚合:大多数系统使用一个4X聚合。12X链路通常用于计算机集群和超级计算机互连,以及用于内部网络交换器连接。
InfiniBand也提供远程直接内存访问(RDMA)能力以降低CPU负载。
拓扑
InfiniBand使用一个交换结构拓扑,不同于早期的共享介质以太网。所有传输开始或结束于通道适配器。每个处理器包含一个主机通道适配器(HCA),每个外设具有一个目标通道适配器(TCA)。这些适配器也可以交换安全性或QoS信息。
消息
InfiniBand以最高4 KB的数据包发送消息数据。一条消息可以为:
一个直接存储器访问的读取或写入,对于一个远程节点(RDMA)。
一个信道发送或接收
一个基于事务的操作(可以逆向)
一个多播传输。
一个原子操作
物理互连
除了板式连接,它还支持有源和无源铜缆(最多30米)和光缆(最多10公里)。使用QSFP连接器。
Inifiniband Association也指定了CXP铜连接器系统,用于通过铜缆或有源光缆达到高达120 Gbit/s的能力。
在如今AI高速发展的今天,本地化部署LLM模型,使用一般的以太网因数据传输的速度而影响AI的反馈,所以需要用到IB这样的网络架构。对于自建AI大模型,支出的费用不仅仅在GPU算力、存储,还需要高速网络的加持。