Next Generation IPU Systems IPU-M2000和IPU-POD4 用于大规模AI基础设施的核心构建单元块 立即购买 Next Generation IPU Systems IPU-M2000和IPU-POD4 用于大规模AI基础设施的核心构建单元块 立即购买 IPU-Machine: IPU-M2000 IPU-M2000是用于基于IPU的机器智能的基本计算引擎,它使用专为AI设计的、强大的Colossus MK2 IPU。它在纤薄的1U刀片服务器中集成了1petaFLOP的AI计算和最高可达526GB的Exchange-Memory™。IPU-M2000具有灵活的模块化设计,因此您可以从IPU-POD平台上的一个IPU-M2000开始,然后逐渐扩展到许多。将一台IPU-M2000直接连接到由我们OEM合作伙伴提供的主机服务器上,构建入门级IPU-POD4,即可开始您的IPU之旅。 阅读分析师报告 IPU-M2000 产品简介 IPU-M2000 数据手册 IPU-POD4产品简介 IPU-POD4入门指南 Graphcore IPU-POD4 从入门级AI计算引擎IPU-POD4入手,开启您的IPU之旅,在2U预认证系统中结合直接连接到主机服务器的单个IPU-M2000。 观看视频 性能 作为所有IPU-POD平台的基本计算引擎,IPU-M2000与DGX平台中的A100 GPU相比,具有真正的性能优势。通过使用马尔可夫链蒙特卡洛(MCMC)模型,金融公司将寻求alpha的速度提高了19倍。搜索引擎使用诸如BERT-Large的自然语言处理模型,为其用户更快地获得结果。 IPU-M2000内部 IPU-POD16 IPU-POD16预先配置了4 PetaFLOP的AI系统,您可以在其中体验大型IPU系统的强大算力和灵活性。 了解更多 IPU-POD64 IPU-POD64所能提供的16 petaFLOPS的AI计算能力可用于训练和推理工作负载,专为大规模AI设计。 了解更多 IPU-POD128 当您准备进行扩展时,可选择在企业数据中心、私有云或公有云部署IPU-POD128。 了解更多 IPU-POD256 当您准备探索AI超级计算时,可选择在企业数据中心、私有云或公有云部署IPU-POD256。 了解更多 准备好开启IPU之旅了? 与我们的专家联系,评估您的AI基础设施需求和解决方案适合性。 开始使用 获取最新的GRAPHCORE资讯 在下方注册以获取最新的资讯和更新: 您的邮箱* 提交 提交