IPU-POD系统助您破除障碍,在机器智能领域实现全新突破,带来真正的商业影响。即刻使用IPU-POD64,以全新的方法实施AI项目。
IPU-POD64提供极致的灵活性,最大限度地利用数据中心的所有可用空间和能源。16 petaFLOPS的AI训练和推理算力,可在同一个强大的系统进行开发和部署。

我们对Graphcore在节能建造和执行大型下一代机器学习模型方面的技术印象深刻。我们预计在医疗成像和心脏模拟方面的几个AI研究项目将获得显著的性能提升。
语言
如今,自然语言处理(NLP)为金融公司和生物技术领导者提供了商业价值,为纵向扩展以及超大规模计算企业提供了商业价值,改善了互联网搜索情感分析、欺诈检测、聊天机器人、药物发现等等。无论您是在生产中运行大型BERT模型还是开始研究GPT类模型或GNN(图神经网络),都可以选择IPU-POD64。
视觉
先进的计算机视觉技术正在推动医学成像、索赔处理、宇宙学、智慧城市、自动驾驶等领域的突破。ResNet50等传统网络领先世界的性能,以及EfficientNet等新兴高精度模型已经可以在IPU-POD64上运行
科学研究
世界各地的国家实验室、大学、研究机构和超级计算中心都借助IPU-POD64取得了科学突破,将IPU的细粒度计算最大化,以部署图神经网络(GNN)和概率模型等新兴模型,探索稀疏,使HPV和AIa的融合成为现实。
性能
无论您想探索创新模型和新的可能性,缩短训练时间,还是获得更高的吞吐量或性价比,IPU-POD64都能满足您的需求。
自然语言处理速度更快

更适合计算机视觉

广泛的生态体系
软件工具和集成可为从开发到部署的整个AI生命周期提供支持,有效提高了生产率和AI基础设施效率,且更加简单易用

IPU | 64个GC200 IPU |
IPU-M2000 | 16台IPU-M2000 |
Exchange-Memory | 4.15TB(包括57.6GB处理器内存储和4.1TB流存储) |
性能 | 16 petaFLOPS FP16.16 4 petaFLOPS FP32 |
IPU核 | 94,208 |
线程 | 565,248 |
IPU-Fabric | 2.8Tbps |
Host-Link | 100 GE RoCEv2 |
软件 | Poplar TensorFlow, PyTorch, PyTorch Lightning, Keras, Paddle Paddle, Hugging Face, ONNX, HALO OpenBMC, Redfish DTMF, IPMI over LAN, Prometheus以及Grafana Slurm, Kubernetes OpenStack, VMware ESG |
系统重量 | 450kg+主机服务器和交换机 |
系统尺寸 | 16U + 主机服务器和交换机 |
主机服务器 | 从Graphcore合作伙伴选择获批准的主机服务器 |
散热 | 风冷 |
可选切换版本 | 请联系Graphcore销售人员 |
MLPERF结果
Division | Model | MLPerf Quality Target | Platform | SDK Version | Framework | MLPerf ID | Dataset | Precision | Time to Train (mins) |
---|---|---|---|---|---|---|---|---|---|
Closed | ResNet50 v1.5 | 75.90% classification | IPU-POD64 | SDK 2.3.0 | TensorFlow | 1.1-2042 | ImageNet2012 | 16.16 | 8.50 |
Closed | BERT | 0.72 Mask-LM accuracy | IPU-POD64 | SDK 2.3.0 | PopART | 1.1-2041 | Wikipedia | 16.16 | 10.56 |
Open | BERT | 0.72 Mask-LM accuracy | IPU-POD64 | SDK 2.3.0 | PopART | 1.1-2089 | Wikipedia | 16.16 | 8.25 |
MLPerf名称和标识是MLCommons协会在美国和其他国家的商标。保留所有权利。
严禁未经授权使用。更多信息请参见www.mlperf.org。
SDK BENCHMARK
Model | Variant | Platform | SDK Version | Framework | Dataset | Batch Size | Precision | Throughput (items/sec) |
---|---|---|---|---|---|---|---|---|
BERT Large | Ph1 Pre-Training (SL128) | IPU-POD64 | SDK 2.4.0 | PopART | Wikipedia | 65,536 | 16.16 | 14189 |
BERT Large | Ph1 Pre-Training (SL128) | IPU-POD64 | SDK 2.4.0 | TensorFlow1 | Wikipedia | 66,560 | 16.16 | 13917 |
BERT Large | Ph1 Pre-Training (SL128) | IPU-POD64 | SDK 2.4.0 | PyTorch | Wikipedia | 65,536 | 16.16 | 12251 |
BERT Large | Ph2 Pre-Training (SL384) | IPU-POD64 | SDK 2.4.0 | PopART | Wikipedia | 16,384 | 16.16 | 4003 |
BERT Large | Ph2 Pre-Training (SL384) | IPU-POD64 | SDK 2.4.0 | TensorFlow1 | Wikipedia | 16,640 | 16.16 | 3938 |
BERT Large | Ph2 Pre-Training (SL384) | IPU-POD64 | SDK 2.4.0 | PyTorch | Wikipedia | 16,384 | 16.16 | 3611 |
GPT2 | GPT2-medium | IPU-POD64 | SDK 2.3.0 | PyTorch | Wikipedia | 65,536 | 16.16 | 9870 |
ResNet-50 v1.5 | IPU-POD64 | SDK 2.4.0 | TensorFlow1 | ImageNet2012 | 2,560 | 16.16 | 108566 | |
EfficientNet-B4 | G16-EfficientNet | IPU-POD64 | SDK 2.4.0 | TensorFlow1 | ImageNet2012 | 6,144 | 16.16 | 24946 |
ViT | Vision Transformer | IPU-POD64 | SDK 2.3.0 | PyTorch | ImageNet1k | 65,536 | 16.16 | 25080 |
要了解更多性能结果,请访问我们的性能结果页面

IPU-POD16
探索 IPU-POD16 作为探索AI的理想选择,IPU-POD16提供强大的算力、性能和灵活性,可满足您从试验到投产整个过程中对快速跟踪IPU原型和速度的各种要求。无论您是探索语言和视觉的GNN(图神经网络)和LSTM(长短期记忆人工神经网络),还是开拓全新的领域,简单易用的IPU-POD16都是您借助IPU构建更富创新的优秀AI解决方案的不二之选。 快速高效的稠密矩阵模型 擅长稀疏和细粒度计算

IPU-POD128
扩展 IPU-POD128 当您准备进行扩展时,可选择在企业数据中心、私有云或公有云部署IPU-POD128。IPU-POD128把完成大型语言训练所需的时间从数月到数周缩短至数小时或几分钟,为您带来效率和生产力的巨大提升。IPU-POD128可大规模用于AI。 出色的扩展性和超高速性能 提供综合全面的系统集成支持以实现在数据中心的安装。

IPU-POD256
扩展 IPU-POD256 当您准备探索AI超级计算时,可选择在企业数据中心、私有云或公有云部署IPU-POD256。IPU-POD256把完成大型语言训练所需的时间从数月到数周缩短至数小时或几分钟,为您带来效率和生产力的巨大提升。IPU-POD256可大规模用于AI。 超级计算规模的IPU 以全球领先的语言和视觉性能实现新型和新兴模型