我们的博客

选择分类

ChatGPT开源平替:OpenAssistant OASST1微调版Pythia-12B

Flan-T5:用更小且更高效的LLM实现出色效果

详细攻略:在IPU上以float16精度运行FLAN-T5-XL推理

较小模型,超高性能:DeBERTa和自然语言理解的未来

PackedBert:如何用打包的方式加速Transformer的自然语言处理任务

Pienso为企业提供由云上IPU支持的高效大型语言模型访问

盘点当前已部署在Graphcore IPU上的AI大模型

阿贡国家实验室向全球研究人员提供Graphcore Bow IPU

强力“推背”,ChatGLM-6B在IPU上跑出3.5ms/token速度

类ChatGPT交互性:IPU现已支持Dolly 2.0开源语言模型