部署与扩展:IPU-POD64

借助大规模AI开拓新视野

部署与扩展:IPU-POD64

借助大规模AI开拓新视野

运维和规模化

IPU-POD系统使您能够突破障碍,实现具有真正业务影响的机器智能的全新突破。为使用IPU-POD64进行生产做好准备,并充分利用新方法来运作您的AI项目。

IPU-POD64提供极致的灵活性,最大程度利用您数据中心中的所有可用空间和算力,无论其如何配置。用于训练和推理的16 petaFLOPS的AI计算可以在同一个强大系统上进行开发和部署。

前所未有的可扩展性

通过预先配置、预先批准的IPU-POD参考设计令AI数据中心的横向扩展更加简单和简化

强大的AI计算

通过选择强大的并行AI计算来挑战现状,并通过新的AI突破实现您业务的差异化。

为大规模AI设计的软件

Poplar可以灵活、简单地在任意数量的IPU之间编译AI模型,从而为您节省宝贵的开发时间

简单、强大的内置网络

IPU-Fabric专为AI而从零设计,可提供近乎恒定的通信时延,为近乎无限的规模扩展准备就绪

IPIU-POD64入门

借助灵活的、预先配置的参考设计和经许可的技术生态系统合作伙伴,您可以先从一个开始,然后扩展到AI超级计算机的规模。充分利用我们精英合作伙伴网络中的系统集成技能,构建您的基于IPU的专用AI基础设施。

选择行业

AI开发者正在寻求新的突破、发现更高的效率并进行创新。IPU-POD是您体验AI执行的全新方法的完美平台。在底层,IPU-POD是一种完全不同的AI计算方法。作为开发者,您仍然可以使用如Tensorflow和PyTorch这类的当今所有的标准框架和工具。Poplar SDK提供了一整套软件和库来支持您的AI开发工作。

性能

无论您是想探索创新的模型和新的可能性,还是实现更快的训练速度、更高的吞吐量,或是获取更优的每单位TCO性能,您都将获得世界一流的结果。

更快的自然语言处理

BERT MLPerf

更优的计算机视觉

ResNet-50 v1.5 MLPerf

技术深度分析

IPU(智能处理器)是专门为AI从零设计的,它是一种细粒度的大规模并行处理器。每个GC200 Mk2 IPU都有1472个独立的核,配有900MB本地处理器内存储。IPU-POD64具有64个Mk2 IPU,集合了功能强大的16 petaFLOPS的AI计算,从而提供了一种全新的机器智能计算方法。

IPU-M2000

AI基础设施的核心构建块。IPU-M2000在纤薄的1U刀片中集成了1 petaFLOP的AI计算能力。
Dell_Front

IPU-POD16

IPU-POD16预先配置了4 PetaFLOP的AI系统,您可以在其中体验大型IPU系统的强大算力和灵活性。

gc_POD64

IPU-POD64

IPU-POD64所能提供的16 petaFLOPS的AI计算能力可用于训练和推理工作负载,专为大规模AI设计。

Graphcloud

一种安全的IPU云服务,可按需添加最先进的AI计算,无需部署本地基础设施。

准备好开启IPU之旅了

与我们的专家联系,评估您的AI基础设施需求和解决方案适合性。

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新: