Opera 成为首个集成本地 LLM 的浏览器

2周前 (04-29) 0 点赞 0 收藏 0 评论 7 已阅读

4 月 3 日消息,Opera 今天宣布推出最新的 Opera One 版本,试行支持 150 种本地大语言模型(LLM),这意味着 Opera 成为了第一个内置本地 AI 模型的主流浏览器。

与云端 AI 相比,这类本地 AI 模型能提供更强的隐私性和处理速度,但相比参数量更大的云端 AI 处理效果可能会打折扣。

Opera 集成了多种流行 LLM,例如 Meta 的 Llama 和 Vicuna、谷歌的 Gemma、Mistral AI 的 Mixtral 等知名模型。

提醒,感兴趣的用户现可通过 Opera 开发者网站下载 Opera One Developer 版本,该版本支持选择下载多种本地 LLM,每个模型需要 2-10 GB 存储空间。


本文收录在
0评论

登录

忘记密码 ?

切换登录

注册