在2021 AI Hardware Summit(人工智能硬件峰会)上,Hugging Face宣布推出全新硬件合作伙伴计划(Hardware Partner Program),包括设备优化模型和软件集成。Graphcore是智能处理器(IPU)的创建者和该计划的创始成员。在本文中,我们解释了我们与Hugging Face的合作将如何使开发人员能够轻松加速使用最先进的Transformer模型。
Graphcore和Hugging Face是两家有着共同目标的公司,即让创新者更轻松地借助机器智能的力量。
Hugging Face的硬件合作伙伴计划将允许那些使用Graphcore系统的开发人员在生产规模级别上、以最低的编码复杂性,部署最先进的Transformer模型,这些模型针对我们的智能处理器(IPU)进行了优化。
什么是智能处理器?
IPU是为Graphcore的IPU-POD数据中心计算系统提供动力的处理器。这种新型处理器旨在支持人工智能和机器学习的极其具体的计算要求。我们的芯片内置了诸如细粒度并行性、低精度计算和处理稀疏性的能力等特性。
Graphcore的IPU没有采用像GPU那样的SIMD/SIMT架构,而是使用大规模并行MIMD架构,超高带宽内存放置在处理器内核附近,即在硅片上。
无论是运行当今最流行的模型(例如BERT和EfficientNet),抑或是探索下一代人工智能应用程序,这种设计都能提供高性能和更高的效率水平。
软件在释放IPU能力方面发挥着至关重要的作用。自Graphcore成立伊始,我们的Poplar SDK就与处理器协同设计。如今,它与包括PyTorch和TensorFlow在内的标准机器学习框架以及诸如Docker和Kubernetes等编排和部署工具完全集成。
通过使Poplar与这些广泛使用的第三方系统兼容,开发人员可以轻松地从其他计算平台移植自己的模型,并开始利用IPU的高级人工智能功能的优势。
优化用于生产的Transformer
Transformer彻底改变了人工智能领域。像BERT这样的模型已被Graphcore的客户广泛用于自然语言处理及其他领域的大量应用程序中。这些多才多艺的模型可以执行特征提取、文本生成、情感分析、翻译和更多功能。
Hugging Face已经托管了数百个Transformer,从法语CamemBERT到ViT,它将从自然语言处理中学到的经验应用于计算机视觉。Transformer库每月平均下载200万次,且需求还在不断增长。
Hugging Face的用户群拥有超过50000名开发人员,是有史以来被采用速度最快的开源项目。
现在,通过其硬件合作伙伴计划,Hugging Face将终极Transformer工具集与当今最先进的人工智能硬件连接起来。
通过使用新的开源库和工具包Optimum,开发人员将能够访问经Hugging Face认证的硬件优化模型。
这些是由Graphcore和Hugging Face合作开发的,第一个IPU优化的模型将于今年晚些时候出现在Optimum上。最终,这些模型将涵盖从视觉和语音到翻译和文本生成等更广泛的应用。
Hugging Face首席执行官Clément Delangue表示:“开发人员都希望使用最新最好的硬件——正如Graphcore的IPU,但他们是否需要学习新代码或新流程的问题始终存在。Optimum和Hugging Face硬件计划让这些不再是个问题。本质上讲,它是即插即用的”。
SOTA模型遇上SOTA硬件
在宣布与Hugging Face的合作前,我们已经证明了IPU通过使用PyTorch的 Hugging Face BERT的特殊Graphcore优化实现,来加速最先进的Transformer模型的能力。
本例的详细信息请见《在IPU上训练BERT-Large详述》。
与基于GPU的类似系统相比,在Graphcore系统上运行BERT的基准测试结果非常显著,对于目前在IPU以外的其他设备上运行流行的自然语言处理模型的任何人来说,都无疑是一个令人激动的前景。

此类加速可以为机器学习研究人员和工程师改变游戏规则,为他们赢得宝贵的训练时间,并允许他们在开发新模型时进行更多迭代。
现在,Graphcore用户将能够通过Hugging Face平台及其典雅的简洁性和最高级的模型范围来释放这些性能优势。
Hugging Face和Graphcore共同帮助更多人获得Transformer的功能并加速人工智能革命。
如欲了解更多详情,请访问Hugging Face硬件合作伙伴门户。