\

Pienso为企业提供由云上IPU支持的高效大型语言模型访问

作者:

分享  

Share on weixin
Share on weibo
Share on linkedin

订阅

Pienso是一家旨在帮助非开发人员从业务数据中提取洞见的人工智能软件制造商,该软件现在可以在欧洲和美国的Graphcore(拟未) IPU上运行。

Pienso决定在Gcore云上使用Graphcore计算作为其商业服务的一部分,这反映了越来越多的人工智能即服务企业希望充分利用IPU出色的速度、效率和成本优势。

Graphcore计算使Pienso能够显著加快其交互式人工智能平台的性能,提供更快的客户洞察、文件智能和内容审核。

Pienso发现,与A100 GPU相比,使用IPU的性能提高了35倍,而且时延极低。

“云上的Graphcore IPU为Pienso提供了重要的支持。其中最重要的就是更好的用户体验。如果人工智能模型返回结果的时间太长,使用体验就会‘劝退’用户。为此,我们开发了由IPU提供支持的效率技术,极大地提高了训练和推理的性能。就每美元的性能而言,基于IPU的系统具有出色的经济效益,我们可以将其传递给终端用户。”Pienso联合创始人兼首席技术官Karthik Dinakar表示,“通过使用Graphcore IPU,我们为用户提供了快速的使用体验,而且计算效率高,这使得那些在快速发展的环境中运营,且需要人工智能来实现投资回报率的客户可以获得关键的实时洞察。”

人人可用的尖端LLM

Pienso正在开辟新的领域,向几乎没有编程或人工智能经验的用户提供最先进的大型语言模型(LLM)。

Karthik表示:“Pienso的用户都是主题专家和决策者。他们是最有能力将人工智能引向特定用途,并根据其提供的洞察采取行动的人。”

Pienso的客户可以使用简单的可视化界面来开发定制的语言模型,他们在自己的数据上进行训练,同时建立在各种流行的开源模型(如BERT)的功能之上。

与一些商业的大型语言模型产品不同,Pienso保证用户数据仅对拥有它的客户可用,不会用于训练其他人的模型或填充后续的基础模型。

云原生

Pienso的服务可在Gcore上的Graphcore IPU上运行,使用位于欧洲大陆的数据中心,这是需要确保数据隐私和主权的客户需求。

Gcore在提供超低时延服务方面的声誉使其成为支持Pienso服务的理想选择。

IPU带来的性能提升和Gcore提供的低云时延相结合,使Pienso能够为越来越多需要近乎实时洞察的客户提供服务,例如希望监测大量入站通信中出现的问题和潜在机会的客户联络中心。

想要试用在Graphcore IPU上运行的Pienso,请联系我们

了解更多关于在Graphcore云技术栈上构建和运行人工智能即服务平台的信息。

More Posts

ChatGPT开源平替:OpenAssistant OASST1微调版Pythia-12B

Flan-T5:用更小且更高效的LLM实现出色效果

详细攻略:在IPU上以float16精度运行FLAN-T5-XL推理

较小模型,超高性能:DeBERTa和自然语言理解的未来

PackedBert:如何用打包的方式加速Transformer的自然语言处理任务

盘点当前已部署在Graphcore IPU上的AI大模型

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新:




    获取最新的GRAPHCORE资讯

    在下方注册以获取最新的资讯和更新: