扩展

IPU-POD128

当您准备进行扩展时,可选择在企业数据中心、私有云或公有云部署IPU-POD128。IPU-POD128把完成大型语言训练所需的时间从数月到数周缩短至数小时或几分钟,为您带来效率和生产力的巨大提升。IPU-POD128可大规模用于AI。
  • 出色的扩展性和超高速性能
  • 提供综合全面的系统集成支持以实现在数据中心的安装。
  • 为大规模的模型开发和部署提供AI专家支持

开始使用IPU-POD128增加云端或数据中心的AI计算能力。

IPU-POD128在设计上可以直接部署并与标准数据中心基础架构有效集成,包括VMWare虚拟化平台、OpenStack。由于带有Slurm和Kubernetes支持,因此可以轻松实现应用部署、扩展和管理的自动化。Virtual-IPU™技术提供安全多租户配置。开发者可以在多个IPU-POD内/跨多个IPU-POD建立模型副本,并在多个IPU-POD上为超大模型配置IPU。

为了持续支持日益增长的超大规模AI HPC环境市场需求,我们正在与Graphcore合作,将我们的IPU-POD64升级为IPU-POD128,这将增加我们为客户提供的“超大规模AI服务”。通过这次升级,我们预计我们的AI计算规模将增加至32 petaFLOPS的AI计算,使更多不同的客户能够使用KT最先进的AI计算进行大规模AI模型的训练和推理。

Mihee Lee,云/数字体验业务高级副总裁 - 韩国电信

语言

如今,自然语言处理(NLP)为金融公司和生物技术领导者提供了商业价值,为纵向扩展以及超大规模计算企业提供了商业价值,改善了互联网搜索情感分析、欺诈检测、聊天机器人、药物发现等等。无论您是在生产中运行大型BERT模型还是开始研究GPT类模型或GNN(图神经网络),您都可以选择IPU-POD128。

视觉

先进的计算机视觉技术正在推动医学成像、索赔处理、宇宙学、智慧城市、自动驾驶等领域的突破。ResNet50等传统网络领先世界的性能,以及EfficientNet等新兴高精度模型已经可以在IPU-POD128上大规模运行。

科学研究

国家实验室、大学和研究机构正在使用IPU-POD128解决物理学、天气预报、计算流体动力学、蛋白质折叠、石油和天然气勘探等方面的问题。您可以充分利用IPU的大规模精细计算构建新兴计算图神经网络(GNN)和概率模型、探索稀疏性并实现HPC和AI的融合。

性能

无论您是想探索创新模型和新的可能性,还是想加快训练时间或者提高吞吐量或性价比,您都能获得全球领先的结果。

广泛的生态体系

从开发到部署,各种软件工具和集成支持AI生命周期的每一个环节,提高生产力和AI基础架构效率,并使AI变得更容易使用

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新: