HOW-TO系列视频

面向IPU的PyTorch入门

运行用于训练和推理的基本模型

AI客户工程师Chris Bogdiukiewicz在本视频中介绍了面向IPU的PyTorch。 借助PopTorch™(用于PyTorch程序的简单Python包装层),只需几行额外的代码,开发人员便可以轻松地在Graphcore IPU上运行模型。

 

在此视频中,Chris使用基于MNIST的示例做了运行用于训练和推理的基本模型的演示。

在IPU上使用数据馈送和训练循环

在TensorFlow中优化IPU训练性能

Graphcore IPU对TensorFlow的支持提供了三种提高训练性能的机制:训练循环,数据集馈送和复制计算图。 在本视频中,Helen Byrne解释了将训练操作放置在循环内的技术,因此这些操作可以执行多次而无需将控制权交还给主机。

BSP(批量同步并行执行)的基本知识

并行算法的编程方法

Alex Titterton解释了在Graphcore的IPU上进行BSP的原理和实施。

 

该技术通常用于大型计算集群,但IPU是第一个基于BSP的单一处理器。BSP包含三个阶段:计算,同步和交换。BSP应用在IPU之间和IPU内部,从而可以在Graphcore系统上进行大规模AI模型分布式计算。

评估用于IPU的批尺寸

在缩小的批尺寸上训练模型

Graphcore AI工程师Jose Solomon检验了批尺寸对在IPU上训练模型的影响。

 

在本视频中Jose展示了Graphcore技术如何使用简化的优化器以较小的批尺寸执行任务,而较大的批尺寸将需要更复杂的优化器。

在IPU上运行PyTorch:计算机视觉

ResNeXt-101推理演示

Graphcore AI工程师Kate Hodesdon演示了如何使用Graphcore的Poplar软件和开放神经网络交换(ONNX)在Graphcore的IPU上运行PyTorch模型。

 

通过使用ResNeXt-101计算机视觉模型的示例,Kate演示了将已有模型移植到IPU是多么简单。演示参考了欧洲搜索引擎Qwant所做的工作。Qwant在IPU上使用ResNeXt-101,与GPU相比,实现了巨大的吞吐量提升和时延改善。

PopVision™入门

PopVision™ Graph Analyser简介

Graphcore客户工程师Marie-Anne Le Menn介绍了PopVision™ Graph Analyser,包括代码演练。

 

PopVision™用于分析为Graphcore的IPU系统构建并在系统上执行的程序。它可以用于分析和优化程序的存储使用和性能。

IPU和Poplar®的基本知识

使用基础加法示例的Poplar®演示

Graphcore FAE Alex Titterton快速介绍了Graphcore的Poplar®软件。

 

本演示从软件角度介绍了IPU架构的关键要点,并演示了使用Poplar C ++框架在IPU上运行简单加法示例。

PopART™入门

Graphcore的机器学习框架

Graphcore AI工程师Kate Hodesdon介绍了PopART™。Poplar高级运行时(PopART)是Poplar SDK的一部分,用于在Graphcore IPU处理器的网络上实施和运行算法。

 

它使您可以使用开放神经网络交换(ONNX)导入模型,并使用Poplar工具运行它们。ONNX是神经网络系统的序列化格式,可以由包括Caffe2、PyTorch和MXNet在内的多个框架创建和读取。

在IPU上运行TensorFlow:概率建模

马尔可夫链蒙特卡洛(MCMC)模型演示

Graphcore高级AI工程师Alex Tsyplikhin演示了将最初设计为在GPU上运行的TensorFlow模型移动到Graphcore的IPU处理器上的简便性。

 

在本演示中,Alex使用了金融服务行业中常见的马尔可夫链蒙特卡洛(MCMC)方法,该方法用于风险估计和期权定价等任务。

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新: