\

Graphcore与Cirrascale联合推出基于第二代IPU的IPU-POD人工智能云服务Graphcloud

作者:

分享  

Share on weixin
Share on weibo
Share on linkedin

订阅

今天,Graphcore非常自豪地宣布,我们在帮助客户加速创新和大规模利用人工智能技术上,又迈出了新的一步。

Graphcore与Cirrascale Cloud Services(以下简称Cirrascale)携手,为云上人工智能带来全新内容:通过首个公开发行的、基于第二代IPU的IPU-POD(MK2 IPU-POD)横向扩展集群,不需要拥有和运营数据中心,我们提供了一种简单方法来实现按需增加计算容量。

Graphcore认识到,人工智能技术为市场带来巨大的机遇,同时也带来了一系列独特的计算挑战:模型的尺寸正在迅速增加,精度的标准也在不断提高。如果客户想要充分利用最新创新,他们就需要一个紧密集成的、专门为人工智能构建的硬件和软件系统。

Graphcloud是一项安全可靠的IPU-POD系列云服务。让客户在从实验、概念验证和试点项目扩展到更大的生产系统时,能够获取Graphcore IPU的强大功能。

首发时,Graphcore提供两款可用产品。在未来数月,Graphcore将提供更大的横向扩展系统:

  • IPU-POD16 – 提供4 PetaFLOPS的人工智能计算(4个IPU-M2000,即16个Colossus MK2 GC200 IPU)
  • IPU-POD64 – 提供16 PetaFLOPS的人工智能计算(16个IPU-M2000,即64个Colossus MK2 GC200 IPU)

与最新的GPU系统相比,IPU-POD系统可降低训练总成本,并缩短解决时间。

Graphcloud系统实例已预装了Poplar和系统软件。示例代码和应用示例可在本地获得,并可用于那些在Graphcore基准测试中使用的先进模型,包括BERT和EfficientNet。用户还可以访问全面的文档,这些文档可帮助他们快速启用包括PyTorch和TensorFlow在内的多个框架。

总部位于英国的Healx是最早使用Graphcloud的Graphcore客户之一,该公司的人工智能药物研发平台正在寻找罕见疾病的新疗法。该公司在2019年人工智能大奖中获得“健康和医学领域的最佳AI应用奖”(Best Use of AI in Health and Medicine)。

Healx机器学习工程技术负责人Dan O’Donovan 表示:“我们从2020年12月下旬开始在Graphcloud上使用IPU-POD16,将我们现有的MK1 IPU代码移植到MK2系统上运行。这一过程毫无障碍,并且带来巨大的性能优势。为模型提供更多的存储意味着我们不再需要切分模型,而只需专注切分数据即可。这使得代码更为简单,模型训练更加高效。”

他还指出:“在与Graphcore的合作中,Graphcore始终为我们开放最新硬件、SDK和工具的访问权限。此外,我们还可以通过直接会议和支持服务部门与Graphcore的硬件和软件专业工程师持续进行对话沟通。”

定价与规格

可用系统类型

  • IPU-POD16: 4个IPU-M2000系统
  • IPU-POD64: 16个IPU-M2000系统

定价

规格

  • 两个系统都利用了我们独特的IPU-Fabric™互连架构。IPU-Fabric™专为消除通信瓶颈设计,并允许成千上万个IPU作为单个高性能、超快速凝聚单元在机器智能工作负载上运行。
  • 每个IPU-POD64实例均由4台Dell R6525主机服务器支持,并配有最强大的本地人工智能数据中心系统使用的双插槽AMD EPYC2 CPU,而每个IPU-POD16均有一台相同规格的专用服务器。
  • 为IPU-POD64和IPU-POD16分别提供16TB和4TB的安全本地NVMe存储。
  • 每个IPU-POD64提供57.6GB的处理器内存储和2048GB的流存储(32 x 64GB DIMM)。每个IPU-POD16提供14.4GB处理器内存储和512GB流存储(8 x 64GB DIMM)。

利用Graphcloud加速您的创新

Graphcloud现已可用。如何获取访问权限等更多有关Graphcloud的信息,敬请访问:graphcore.ai/graphcloud。

More Posts

ChatGPT开源平替:OpenAssistant OASST1微调版Pythia-12B

Flan-T5:用更小且更高效的LLM实现出色效果

详细攻略:在IPU上以float16精度运行FLAN-T5-XL推理

较小模型,超高性能:DeBERTa和自然语言理解的未来

PackedBert:如何用打包的方式加速Transformer的自然语言处理任务

Pienso为企业提供由云上IPU支持的高效大型语言模型访问

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新:




    获取最新的GRAPHCORE资讯

    在下方注册以获取最新的资讯和更新: