英特尔开源 NPU 加速库,方便使开发人员优化其 AI 应用

1个月前 (03-14) 0 点赞 0 收藏 0 评论 1 已阅读

3 月 3 日消息,@Tony Mongkolsmai 发现,英特尔已经在 GitHub 上开源了其 NPU 加速库,支持 Windows 和 Linux。

开发人员可以按照相应文档对其软件进行优化,从而适配新一代 AI 模型,包括 TinyLlama 和 Gemma-2b-it。

根据官方描述:英特尔 NPU 加速库是一个 Python 库,旨在利用英特尔神经处理单元 (NPU) 的强大性能在兼容硬件上执行高速计算,从而提高应用的效率。

英特尔还表示其 NPU 加速库目前不断开发中,后续将推出各种能显著提高性能的功能,截至发稿已经实现了 8bit 量化、Float16 支持、torch.compile 支持等,后续还将支持 NPU / GPU 异构计算等功能。


本文收录在
Array
0评论

登录

忘记密码 ?

切换登录

注册