支持 100 万 Tokens 上下文,阿里通义千问推出 Qwen2.5-1M 开源模型

发布时间:2025-01-29 14:53:55 来源:互联网

感谢本站网友 Skyraver 的线索投递!

本站 1 月 27 日消息,阿里通义千问今日宣布,正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。

本站从官方介绍获悉,通义千问本次发布了两个新的开源模型,分别是Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M,这是通义千问首次将开源的 Qwen 模型的上下文扩展到 1M 长度。

为了帮助开发者更高效地部署 Qwen2.5-1M 系列模型,Qwen 团队完全开源了基于 vLLM 的推理框架,并集成了稀疏注意力方法,使得该框架在处理 1M 标记输入时的速度提升了 3 倍到 7 倍。

    长上下文任务

    在上下文长度为 100 万 Tokens 的大海捞针(Passkey Retrieval)任务中,Qwen2.5-1M 系列模型能够准确地从 1M 长度的文档中检索出隐藏信息,其中仅有 7B 模型出现了少量错误。

    对于更复杂的长上下文理解任务,选择了 RULER、LV-Eval 和 LongbenchChat 测试集。

    从这些结果中,Qwen 得出以下几点关键结论:

    显著超越 128K 版本:Qwen2.5-1M 系列模型在大多数长上下文任务中显著优于之前的 128K 版本,特别是在处理超过 64K 长度的任务时表现出色。

    性能优势明显:Qwen2.5-14B-Instruct-1M 模型不仅击败了 Qwen2.5-Turbo,还在多个数据集上稳定超越 GPT-4o-mini,为长上下文任务提供了开源模型的选择。

      短序列任务

      可以发现:

      Qwen2.5-7B-Instruct-1M 和 Qwen2.5-14B-Instruct-1M 在短文本任务上的表现与其 128K 版本相当,确保了基本能力没有因为增加了长序列处理能力而受到影响。

      与 GPT-4o-mini 相比,Qwen2.5-14B-Instruct-1M 和 Qwen2.5-Turbo 在短文本任务上实现了相近的性能,同时上下文长度是 GPT-4o-mini 的八倍。

      • 模型链接:https://www.modelscope.cn/collections/Qwen25-1M-d6cf9fd33f0a40

      • 技术报告:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2.5-1M/Qwen2_5_1M_Technical_Report.pdf

      • 体验链接:https://modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo

本周热门攻略

1
欧洲尺码与日本尺码专线对照,为何流畅不卡顿?

欧洲尺码与日本尺码专线对照,为何流畅不卡顿?

2024/12/10

2
18岁女性流白浆的不同类型及其健康隐患,如何判断是否需要就医?

18岁女性流白浆的不同类型及其健康隐患,如何判断是否需要就医?

2025/01/19

3
爆喷水洗澡91:怎样的沐浴体验能让你放松又舒适?

爆喷水洗澡91:怎样的沐浴体验能让你放松又舒适?

2025/01/19

4
如何通过77777免费观看最新热门电视剧?有哪些值得推荐的剧集?

如何通过77777免费观看最新热门电视剧?有哪些值得推荐的剧集?

2024/12/02

5
羞羞视频的流行背后原因:为什么它会成为年轻人最爱?

羞羞视频的流行背后原因:为什么它会成为年轻人最爱?

2025/01/28

6
混合交换5HD:全新升级的金融投资工具,助力资产配置与风险管理

混合交换5HD:全新升级的金融投资工具,助力资产配置与风险管理

2025/01/19

7
91看片浏览器为什么成为网友观看视频的首选工具?

91看片浏览器为什么成为网友观看视频的首选工具?

2025/01/26

8
如何理解NP文〈重口〉H的创作模式与社会争议?其对读者和社会的影响如何评估?

如何理解NP文〈重口〉H的创作模式与社会争议?其对读者和社会的影响如何评估?

2024/11/20

9
为什么宝宝睡前C1V1好满会影响宝宝的睡眠质量?如何改善宝宝睡眠?

为什么宝宝睡前C1V1好满会影响宝宝的睡眠质量?如何改善宝宝睡眠?

2024/12/07

10
校园绑定系统升级后,如何高效利用jy收集系统hpc海棠功能?

校园绑定系统升级后,如何高效利用jy收集系统hpc海棠功能?

2024/12/09