千家信息网

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

发表于:2024-11-27 作者:千家信息网编辑
千家信息网最后更新 2024年11月27日,CTOnews.com 9 月 25 日消息,阿里云今日宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型 Qwen-14B-Chat,免费可商用。CTOnews.com注:阿里云此
千家信息网最后更新 2024年11月27日阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

CTOnews.com 9 月 25 日消息,阿里云今日宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型 Qwen-14B-Chat,免费可商用。

CTOnews.com注:阿里云此前已经开源了 70 亿参数模型 Qwen-7B,一个多月下载量破 100 万。

通过阿里云给出的数据来看,Qwen-14B 在多个权威评测中超越同等规模模型,部分指标甚至接近 Llama2-70B。

据介绍,Qwen-14B 是一款支持多种语言的高性能开源模型,整体训练数据超过 3 万亿 Token,具备更强的推理、认知、规划和记忆能力,最大支持 8k 的上下文窗口长度。

相对的,Qwen-14B-Chat 则是在基座模型上经过精细 SFT 得到的对话模型,可带来更准确的内容,也更符合人类偏好,而且在内容创作的想象力和丰富度方面也有扩展。

今日起,用户可从阿里魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用 Qwen-14B 和 Qwen-14B-Chat。

阿里云 CTO 周靖人表示,阿里云将持续拥抱开源开放,推动中国大模型生态建设。阿里云笃信开源开放的力量,率先开源自研大模型,希望让大模型技术更快触达中小企业和个人开发者。

模型零代码创空间体验地址:

https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo

环境配置与安装

  • python 3.8 及以上版本

  • pytorch 1.12 及以上版本,推荐 2.0 及以上版本

  • 建议使用 CUDA 11.4 及以上(GPU 用户需考虑此选项)

使用步骤

注:PAI-DSW 的环境配置下运行 (可单卡运行, 显存最低要求 11G)。

  • Qwen-14B-Chat 模型链接:

  • https://modelscope.cn/models/qwen/Qwen-14B-Chat
  • Qwen-14B 模型链接:

  • https://modelscope.cn/models/qwen/Qwen-14B
  • Qwen-14B-Chat-Int4 模型链接:

  • https://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4

社区支持直接下载模型的 repo:

from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')
0