IPU Server16

用于AI训练和推理的IPU服务器

通过戴尔和浪潮提供的行业标准OEM系统中以高速IPU-Links™实现互连的8个Graphcore IPU C2 PCIe卡,在机器智能方面取得新的突破

IPU Server16

用于AI训练和推理的IPU服务器

通过戴尔和浪潮提供的行业标准OEM系统中以高速IPU-Links™实现互连的8个Graphcore IPU C2 PCIe卡,在机器智能方面取得新的突破

DSS8440 IPU Server

Dell DSS8440 IPU服务器

Dell DSS8440 IPU服务器是个4U机架安装式机箱,搭载有8个通过高速IPU-Links™完全互连的C2 PCIe卡。

该IPU服务器专为训练和推理设计,是实验、预生产试点和商业部署的理想选择。

浪潮NF5568M5 IPU服务器

浪潮NF5568M5 IPU服务器可应对用于训练和推理的最具挑战性的机器学习工作负载。

浪潮NF5568M5 IPU服务器是-个搭载有8个通过高速IPU-Links™实现互连的C2卡的行业标准5U机箱。该服务器拥有16个Colossus™ Mk1 GC2 IPU,可提供1.6 PetaFlops AI计算,可用于实验和研究、试点和全面生产部署。该产品现已开放购买。

Inspur NF 5568M5 IPU Server

IPU云端和服务器解决方案

Microsoft Azure

微软Azure IPU预览版

微软Azure上的Graphcore IPU预览版已面向致力于实现机器智能新突破的客户开放。

DSS8440

OEM IPU服务器

企业客户可以通过戴尔或浪潮的IPU Server16使用Colossus MK1 IPU构建本地AI计算。

IPU开发者云

先试后买。我们的MK1 IPU开发者云使客户可以免费评估IPU。IPU开发者云(IPU DevCloud)

先进的性能

BERT-Base:训练
Bert

自然语言处理-BERT

IPU可以将BERT语言模型的训练时间缩短25%以上。在-个使用了7个C2卡、每个卡内有两个IPU的IPU服务器系统中,BERT-Base训练可以在36.3小时内完成。在BERT推理方面,在最低时延的情况下,吞吐量提高了2倍以上,从而实现了空前的加速。

图像分类-ResNeXt

与领先的其它处理器相比,C2卡以24倍的低时延实现了7倍吞吐量的提升。在当今许多重要的用例中,以尽可能低的时延实现高吞吐量是非常关键的-点。

ResNeXt-101:推理
ResNext

更快获得结果

在每个单独的IPU上的数千个独立处理线程中提供新级别的细粒度并行处理。通过处理器内存储,整个机器智能模型被保留在IPU中,以实现存储带宽的最大化并提供高吞吐量,从而缩短训练时间并尽可能降低时延。

支持创新实现

查看现代高精度计算机视觉模型(如ResNeXt和EfficientNet)上破纪录的训练时间。探索可充分利用IPU本机稀疏性支持的新的大型自然语言处理模型。

支持训练&推理

在同-硬件上的高性能训练和低时延推理功能可以提高云和本地部署的利用率和灵活性,从而显著改善总体拥有成本。

面向未来设计

IPU为扩展而设计。模型变得越来越大,对AI计算的需求呈指数增长。高带宽IPU-Links™可以实现在服务器中紧密集成16个IPU,而Infiniband支持则允许IPU服务器在数据中心中协同工作。

我们的技术

了解更多其运行原理

GC200_KL-2

IPU智能处理器

Poplar

Poplar®软件栈

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新: