\

Poplar SDK 2.4现已推出

作者:

SHARE

Share on weixin
Share on weibo
Share on linkedin

SUBSCRIBE

我们很高兴地宣布Poplar SDK 2.4正式发布,现在可以从我们的支持门户和Docker Hub下载。

这一年我们有着非常成功的软件发布、优化和新生态系统合作伙伴关系,而Poplar SDK 2.4是这成功一年的高潮,展示了我们的参考应用程序和MLPerf提交的持续进步、软件成熟度、易用性、横向扩展功能和高性能基准测试。

Poplar SDK 2.4的新功能

新版本提供了大量的改进以进一步提高易用性和性能,并帮助开发人员更快地运行机器学习模型,以及用于添加到GitHub上公开示例的新应用程序的代码。 

  • 新的公开示例,包括ViT,UNet,GPT,RNN-T,FastSpeech2和TGN。
  • 编译时优化
  • 运行时在TensorFlow里配置的梯度累积动态计数
  • IPU TensorFlow插件包
  • 用于分布式TensorFlow2(预览)的PopRun/PopDist:易于使用的分布式多主机横向扩展支持
  • 用于PopART和PyTorch的重叠I/O和计算
  • 针对PopVision系统分析工具的增强IPU利用率报告
  • 全面支持Debian 10.7

如欲了解更多有关这些新功能的信息,请参阅SDK 2.4.0 发行说明

改善开发人员体验

Poplar SDK 2.4 提供了许多改进,帮助您在IPU系统上轻松加速AI应用程序。

我们不断发展的模型花园(Model Garden)现已更新,包括为AI从业者提供更多应用程序,在涵盖计算机视觉、自然语言处理、语音处理和GNN的多个机器学习领域提供更大的模型覆盖范围。这些新模型包括Vision Transformer、UNet、GPT、RNN-T、FastSpeech2、Temporal Graph Networks(TGN)等。这些可以直接从GitHub访问,也可以通过我们在Graphcore网站上的开发人员门户模型花园访问。

编译时间已经过优化,可在开发模型时缩短迭代时间,改进幅度最高可达28%。

TensorFlow的功能

现在在TensorFlow中可以在运行时为流水线化模型指定梯度累积计数。这意味着可以动态定义全局批量大小,并在调查或调整此超参数时实现更快速的实验。新的IPU TensorFlow插件包含了由Graphcore的应用团队开发的IPU特定Keras优化器(用于TensorFlow 2),包括Adam、随机梯度下降和LAMB。

重叠的I/O

我们还为Poplar高级运行时(PopART)和PyTorch框架引入了重叠I/O和计算的能力,这将提高计算效率并有助于显著加速在IPU硬件上运行的程序。

PopVision工具

我们的PopVision分析工具继续让开发人员更深入地了解他们的应用程序的执行方式,并在此版本中添加了面向PopVision系统分析工具的增强IPU利用率报告。您可以从我们的网站直接下载PopVision

支持Debian 10.7

继Poplar SDK 2.3对Debian 10.7的预览支持之后,这一最新版本包括对这一操作系统的全面支持。

更多开发人员资源

面向开发人员的新文档存储和性能优化指南现已发布在我们的文档门户上,提供面向IPU的模型移植和优化的详细指南。新示例(TensorFlow 2PyTorch)可用于演示如何使用PopRun/PopDist进行分布式训练。

如欲访问IPU编程的所有最新文档、教程、代码示例、网络研讨会、视频、研究论文和更多资源,请查看我们的开发人员门户

More Posts

百度提交基于IPU系统的MLPerf结果 获得巨大增益

从楔形文字到0和1:谱写超级智能计算路线图

Graphcore IPU赋能近畿大学由大脑启发的深度学习

G-Core Labs的IPU云服务现已推出

IPU生态又添新成员,OpenMMLab宣布支持Graphcore IPU作为训练芯片

在Graphcore IPU上加速并扩展时间图网络

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新:




    获取最新的GRAPHCORE资讯

    在下方注册以获取最新的资讯和更新: