Bow Pod系统助您破除障碍,在机器智能领域实现全新突破,带来真正的商业影响。即刻使用Bow Pod64,以全新的方法实施AI项目。
Bow Pod64提供极致的灵活性,最大限度地利用数据中心的所有可用空间和能源。22.4 petaFLOPS的AI训练和推理算力,可在同一个强大的系统进行开发和部署。

我们正在推进机器学习和图神经网络的界限,以解决现有技术难以解决的科学问题。Graphcore系统使我们能够将这些应用程序的训练和推理时间从几天缩短到几小时。
语言
如今,自然语言处理(NLP)为金融公司和生物技术领导者提供了商业价值,为纵向扩展以及超大规模计算企业提供了商业价值,改善了互联网搜索情感分析、欺诈检测、聊天机器人、药物发现等等。无论您是在生产中运行大型BERT模型还是开始研究GPT类模型或GNN(图神经网络),都可以选择Bow Pod64。
视觉
先进的计算机视觉技术正在推动医学成像、索赔处理、宇宙学、智慧城市、自动驾驶等领域的突破。ResNet50等传统网络领先世界的性能,以及EfficientNet等新兴高精度模型已经可以在Bow Pod64上运行
科学研究
世界各地的国家实验室、大学、研究机构和超级计算中心都借助Bow Pod64取得了科学突破,将IPU的细粒度计算最大化,以部署图神经网络(GNN)和概率模型等新兴模型,探索稀疏,使HPV和AIa的融合成为现实。
性能
无论您想探索创新模型和新的可能性,缩短训练时间,还是获得更高的吞吐量或性价比,IPU-POD64都能满足您的需求。
自然语言处理速度更快

广泛的生态体系
软件工具和集成可为从开发到部署的整个AI生命周期提供支持,有效提高了生产率和AI基础设施效率,且更加简单易用

Processors | 64个Bow IPUs |
1U blade units | 16台Bow-2000 |
Memory | 57.6GB In-Processor-Memory™ Up to 4.1TB Streaming Memory™ |
性能 | 22.4 petaFLOPS FP16.16 5.6 petaFLOPS FP32 |
IPU核 | 94,208 |
线程 | 565,248 |
IPU-Fabric™ | 2.8Tbps |
Host-Link | 100 GE RoCEv2 |
软件 | Poplar TensorFlow, PyTorch, PyTorch Lightning, Keras, Paddle Paddle, Hugging Face, ONNX, HALO OpenBMC, Redfish DTMF, IPMI over LAN, Prometheus以及Grafana Slurm, Kubernetes OpenStack, VMware ESG |
系统重量 | 450kg+主机服务器和交换机 |
系统尺寸 | 16U + 主机服务器和交换机 |
主机服务器 | 从Graphcore合作伙伴选择获批准的主机服务器 |
散热 | 风冷 |
SDK BENCHMARKS
Model | Variant | Platform | SDK Version | Framework | Dataset | Batch Size | Precision | Throughput (items/sec) |
---|---|---|---|---|---|---|---|---|
ResNet-50 v1.5 | Bow Pod64 | Pre-SDK2.5 | TensorFlow1 | ImageNet2012 | 2,560 | 16.16 | 145287 | |
EfficientNet-B4 | G16-EfficientNet | Bow Pod64 | Pre-SDK2.5 | TensorFlow1 | ImageNet2012 | 6,144 | 16.16 | 34943 |
ViT | Vision Transformer | Bow Pod64 | Pre-SDK2.5 | PyTorch | ImageNet1k | 65,536 | 16.16 | 31200 |
BERT Large | Ph1 Pre-Training (SL128) | Bow Pod64 | Pre-SDK2.5 | PopART | Wikipedia | 65,536 | 16.16 | 19353 |
BERT Large | Ph1 Pre-Training (SL128) | Bow Pod64 | Pre-SDK2.5 | TensorFlow1 | Wikipedia | 66,560 | 16.16 | 18907 |
BERT Large | Ph2 Pre-Training (SL384) | Bow Pod64 | Pre-SDK2.5 | PopART | Wikipedia | 16,384 | 16.16 | 5444 |
BERT Large | Ph2 Pre-Training (SL384) | Bow Pod64 | Pre-SDK2.5 | TensorFlow1 | Wikipedia | 16,400 | 16.16 | 5340 |
GPT2 | GPT2-Large | Bow Pod64 | Pre-SDK2.5 | PyTorch | Wikipedia | 1316 | ||
GPT2 | GPT2-Medium (SL1024) | Bow Pod64 | Pre-SDK2.5 | PyTorch | Wikipedia | 65,536 | 16.16 | 347 |
Conformer-Large | Bow Pod64 | Pre-SDK2.5 | PyTorch | AiShell1 | 16.16 | 8157 |
要了解更多性能结果,请访问我们的性能结果页面

Bow Pod256
发展 Bow Pod256 当您准备好在超级计算规模上提升您的AI算力时,请选择Bow Pod256,该系统专为在企业数据中心、私有云或公有云中进行生产部署而设计。当大型语言训练无需数月和数周,而是在数小时或数分钟内完成时,您可以体验到效率和生产力的大幅提升。

Bow Pod16
探索 Bow Pod16 作为探索AI的理想选择,Bow Pod16提供强大的算力、性能和灵活性,可满足您从试验到投产整个过程中对快速跟踪IPU原型和速度的各种要求。无论您是探索语言和视觉的GNN(图神经网络)和LSTM(长短期记忆人工神经网络),还是开拓全新的领域,简单易用的Bow

Bow Pod256
发展 Bow Pod256 当您准备好在超级计算规模上提升您的AI算力时,请选择Bow Pod256,该系统专为在企业数据中心、私有云或公有云中进行生产部署而设计。当大型语言训练无需数月和数周,而是在数小时或数分钟内完成时,您可以体验到效率和生产力的大幅提升。

Bow Pod16
探索 Bow Pod16 作为探索AI的理想选择,Bow Pod16提供强大的算力、性能和灵活性,可满足您从试验到投产整个过程中对快速跟踪IPU原型和速度的各种要求。无论您是探索语言和视觉的GNN(图神经网络)和LSTM(长短期记忆人工神经网络),还是开拓全新的领域,简单易用的Bow