HOW-TO系列视频 面向IPU的PyTorch入门 运行用于训练和推理的基本模型 AI客户工程师Chris Bogdiukiewicz在本视频中介绍了面向IPU的PyTorch。 借助PopTorch™(用于PyTorch程序的简单Python包装层),只需几行额外的代码,开发人员便可以轻松地在Graphcore IPU上运行模型。 在此视频中,Chris使用基于MNIST的示例做了运行用于训练和推理的基本模型的演示。 获取代码 阅览指南 在IPU上使用数据馈送和训练循环 在TensorFlow中优化IPU训练性能 Graphcore IPU对TensorFlow的支持提供了三种提高训练性能的机制:训练循环,数据集馈送和复制计算图。 在本视频中,Helen Byrne解释了将训练操作放置在循环内的技术,因此这些操作可以执行多次而无需将控制权交还给主机。 阅览指南 BSP(批量同步并行执行)的基本知识 并行算法的编程方法 Alex Titterton解释了在Graphcore的IPU上进行BSP的原理和实施。 该技术通常用于大型计算集群,但IPU是第一个基于BSP的单一处理器。BSP包含三个阶段:计算,同步和交换。BSP应用在IPU之间和IPU内部,从而可以在Graphcore系统上进行大规模AI模型分布式计算。 阅览指南 评估用于IPU的批尺寸 在缩小的批尺寸上训练模型 Graphcore AI工程师Jose Solomon检验了批尺寸对在IPU上训练模型的影响。 在本视频中Jose展示了Graphcore技术如何使用简化的优化器以较小的批尺寸执行任务,而较大的批尺寸将需要更复杂的优化器。 获取代码 在IPU上运行PyTorch:计算机视觉 ResNeXt-101推理演示 Graphcore AI工程师Kate Hodesdon演示了如何使用Graphcore的Poplar软件和开放神经网络交换(ONNX)在Graphcore的IPU上运行PyTorch模型。 通过使用ResNeXt-101计算机视觉模型的示例,Kate演示了将已有模型移植到IPU是多么简单。演示参考了欧洲搜索引擎Qwant所做的工作。Qwant在IPU上使用ResNeXt-101,与GPU相比,实现了巨大的吞吐量提升和时延改善。 获取代码 阅览指南 PopVision™入门 PopVision™ Graph Analyser简介 Graphcore客户工程师Marie-Anne Le Menn介绍了PopVision™ Graph Analyser,包括代码演练。 PopVision™用于分析为Graphcore的IPU系统构建并在系统上执行的程序。它可以用于分析和优化程序的存储使用和性能。 阅览指南 IPU和Poplar®的基本知识 使用基础加法示例的Poplar®演示 Graphcore FAE Alex Titterton快速介绍了Graphcore的Poplar®软件。 本演示从软件角度介绍了IPU架构的关键要点,并演示了使用Poplar C ++框架在IPU上运行简单加法示例。 获取代码 阅览指南 PopART™入门 Graphcore的机器学习框架 Graphcore AI工程师Kate Hodesdon介绍了PopART™。Poplar高级运行时(PopART)是Poplar SDK的一部分,用于在Graphcore IPU处理器的网络上实施和运行算法。 它使您可以使用开放神经网络交换(ONNX)导入模型,并使用Poplar工具运行它们。ONNX是神经网络系统的序列化格式,可以由包括Caffe2、PyTorch和MXNet在内的多个框架创建和读取。 获取代码 阅览指南 在IPU上运行TensorFlow:概率建模 马尔可夫链蒙特卡洛(MCMC)模型演示 Graphcore高级AI工程师Alex Tsyplikhin演示了将最初设计为在GPU上运行的TensorFlow模型移动到Graphcore的IPU处理器上的简便性。 在本演示中,Alex使用了金融服务行业中常见的马尔可夫链蒙特卡洛(MCMC)方法,该方法用于风险估计和期权定价等任务。 获取代码 阅览指南 获取最新的GRAPHCORE资讯 在下方注册以获取最新的资讯和更新: 您的邮箱* 提交 提交