Next Generation IPU
Systems

IPU-M2000和IPU-POD4

用于大规模AI基础设施的核心构建单元块
IPU M2000 Server

Next Generation IPU Systems

IPU-M2000和IPU-POD4

用于大规模AI基础设施的核心构建单元块

IPU-Machine: IPU-M2000

IPU-M2000是用于基于IPU的机器智能的基本计算引擎,它使用专为AI设计的、强大的Colossus MK2 IPU。它在纤薄的1U刀片服务器中集成了1petaFLOP的AI计算和最高可达526GB的Exchange-Memory™。IPU-M2000具有灵活的模块化设计,因此您可以从IPU-POD平台上的一个IPU-M2000开始,然后逐渐扩展到许多。

将一台IPU-M2000直接连接到由我们OEM合作伙伴提供的主机服务器上,构建入门级IPU-POD4,即可开始您的IPU之旅。

Graphcore IPU-POD4

从入门级AI计算引擎IPU-POD4入手,开启您的IPU之旅,在2U预认证系统中结合直接连接到主机服务器的单个IPU-M2000。

性能

作为所有IPU-POD平台的基本计算引擎,IPU-M2000与DGX平台中的A100 GPU相比,具有真正的性能优势。

通过使用马尔可夫链蒙特卡洛(MCMC)模型,金融公司将寻求alpha的速度提高了19倍。

搜索引擎使用诸如BERT-Large的自然语言处理模型,为其用户更快地获得结果。

 

MCMC
BERT-Large

IPU-M2000内部

Dell_Front

IPU-POD16

IPU-POD16预先配置了4 PetaFLOP的AI系统,您可以在其中体验大型IPU系统的强大算力和灵活性。

gc_POD64

IPU-POD64

IPU-POD64所能提供的16 petaFLOPS的AI计算能力可用于训练和推理工作负载,专为大规模AI设计。

IPU-POD128

当您准备进行扩展时,可选择在企业数据中心、私有云或公有云部署IPU-POD128。

IPU-POD256

当您准备探索AI超级计算时,可选择在企业数据中心、私有云或公有云部署IPU-POD256。

准备好开启IPU之旅了?

与我们的专家联系,评估您的AI基础设施需求和解决方案适合性。

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新: