您现在的位置是:网站首页>体育体育

皇海电玩城官方版本下载

任映之 2025-05-13 体育 9687 人已围观

上个月⑧,阿里巴巴旗下的通义平台正式推出了新一代模型Qwen3❸,登顶全球最强开源模型榜单②。

值得注意的是⑨,Qwen3系列模型共包含8款不同尺寸⑮,除了两个参数为30B和235B的MoE大模型外⑫,阿里本次推出了6款Dense模型⑤,6个是稠密模型⑦,参数从0.6B到32B不等⑥。

阿里一向非常重视小尺寸模型❸,这也算不上新闻了⑬,不过其中最小的0.6B模型参数量仅为6亿②,作为对比⑭,2019年2月发布的GPT-2参数量都有15亿⑬。这个模型的实际表现如何⑯,让人相当好奇⑮。

为此⑪,我们请教了一些专业开发者❸,并且自己也进行了测试⑩,发现即使10年前的手机芯片都足以支持这款模型的推理运算⑲,实际回答效果也能够差强人意⑮。而4B⑧、8B等参数量的模型则有着更好的表现⑪。

对于一次性更新八个开源模型的原因⑬,阿里云CTO周靖人表示:不同模型其实就是尽量满足从个人到企业的不同开发者的需求③。比如手机端侧可以用4B⑫,电脑或汽车端侧推荐8B⑳,32B是企业最喜欢的尺寸⑳,能商用大规模部署②。

除了尺寸之外❷,有开发者指出③,采用稠密架构的小模型⑮,也比MoE的稀疏架构更适合企业的实际业务场景③。在可以预见的未来⑳,B端市场还是大模型变现的最重要场景⑫,凭借快人一步的小尺寸模型布局⑱,阿里正在这场竞争中抢占先机⑪。

什么是稠密模型⑮?

所谓稠密模型⑧,是指神经网络中层内神经元之间通过全连接方式连接▓,且所有参数对所有输入样本全局共享的模型⑫。

相比使用稀疏模型MoE架构只会调用部分的参数资料⑤,Dense模型对于任意输入⑦,模型的所有参数都会被激活并参与计算⑬。

早期人们熟悉的大模型⑥,都是以稠密架构为主⑱。

以OpenAI为例⑨,其GPT系列在GPT3前均使用了Dense模型③,而后续GPT版本由于其闭源的特性⑳,我们暂时不得而知其采用了哪类架构⑭。

作为深度学习的 “基石”⑮,稠密模型其核心价值在于简单性⑧、高效性和普适性⑭,适用于大多数标准化⑬、实时性或资源受限的场景⑥。

但是随着Scaling Law之下⑧,大模型训练所需的参数量呈几何增长⑬,稠密模型的训练成本逐渐让人难以承受④,并且能力提升幅度也逐渐遭遇瓶颈⑰,暴露了较难适应多样化场景的问题①。为此③,MoE模型作为解决方案应运而生④。

相比于参数愈发膨胀的稠密模型②,MoE架构是节约资源的一种设计⑥,通过引入稀疏门控机制❸,每次执行任务时只需要激活少数相关的子模型⑫,从而降低训练和推理成本⑤。DeepSeek V3就是凭借MoE架构⑤,实现了惊人的成本下降⑰。

但是MoE架构也有缺点▓,如增加通信成本⑬、微调中容易出现过拟合等⑪。而稠密模型由于推理时计算路径固定②,无动态路由开销⑯,反而相比Moe架构更加适合实时在线客服⑦、商品推荐⑥、金融风控等需要低延迟响应的场景⑰。

稠密模型除了有更加合适的匹配场景⑦,对于个人开发者而言⑮,Pytorch▓、TensorFlow等深度学习工具链对稠密模型的优化已非常成熟❸,从分布式训练到量化压缩③,形成了完整的技术栈⑩。而MoE模型的工程实现由于还处在技术迭代阶段⑫,相比Dense模型没有一套完整成熟的方案③,对于个人开发者落地成本较高⑬。

小模型能跑成啥样⑫?

那么作为小而美的模型⑤,其运行门槛到底有多低③?又会不会存在小而弱的情况呢⑤?

在运行门槛层面⑮,有开发者对观察者网表示⑱,其成功将Qwen3 0.6B模型安装在一款搭载4核2.4G的CPU的设备中并成功运行⑧。

开发者将Qwen 0.6B植入应用生成回答

如果要用手机芯片对比该CPU⑫,最为接近的是发售于2014年的骁龙801芯片⑨。该芯片为28nm制程④,搭载4核2.5G CPU⑫,并搭载了一颗Adreno 330的GPU①,当年发售的小米4⑮、三星Galaxy S5⑧、OPPO Find7等手机均采用了该款芯片①。

而这款当年的旗舰芯片放到2025年是妥妥的过时硬件⑧,以小天才电话手表Z10为例④,其搭载的高通W5芯片采用4nm架构③,四核Cortex-A53的CPU⑯,在Geekbench5单核跑分约500分⑭,碾压了骁龙801的200分⑯。也就是说单核角度⑩,现在小天才电话手表的CPU都是骁龙801的两倍⑯。

更值得注意的是⑧,该开发者表示⑱,其采用的设备只有CPU❶,没有GPU④。也就是说无论是10年前的小米手机❷,还是如今的小天才电话手表⑩,都硬件性能都能支持顺利运行Qwen3 0.6B的模型⑥。

观察者网也在iPhone 16 Pro Max和索尼Xperia Z5上进行了测试⑰。

在没有任何优化的情况下⑱,两款手机均能运行Qwen3 0.6B参数的Dense模型⑬。不过在响应速度上⑧,在关闭推理模式时②,苹果手机可以做到实时响应⑪,索尼手机可以做到延迟1秒左右响应⑤,而在开启了推理模式后③,苹果手机则依然能迅速响应⑳,索尼手机则需要接近10秒的时间才能响应❶,出现了显着的延迟情况❸。

而在具体的问答环节④,在没有任何优化和适配的情况下⑩,对其提问“天空为何是蓝色的”和“生蚝是生的还是熟的”❶,Qwen3 0.6B没能丝滑应对脑筋急转弯⑲,但也给出了勉强可用的回答⑰。

Qwen3 0.6B回答生蚝问题

相比之下②,4B的模型性能又有显着提升④,同样询问其“生蚝是生的还是熟的”问题后②,它能够准确回答出“生蚝”是名字⑫,不是状态⑲,可以是生的⑫,也可以是熟的⑳。

Qwen3-4B模型能够详细回答生蚝问题的答案

根据阿里官方的描述⑫,Qwen3-4B性能可与Qwen2.5-72B-Instruct媲美⑤,而Qwen考虑到目前智能手机基本均可以流畅本地运行Qwen3-4B模型⑦,主流电脑基本均可以本地运行Qwen3-8B模型⑩,这也代表着Qwen3小模型也可以完全胜任普通人需要的设备智能化的任务⑯,相比满血MoE大模型并不存在极其巨大的使用差距⑦。

Qwen3发布后⑦,上下游供应链第一时间进行适配和调用④,尤其是强调了对小尺寸模型的适配⑬,体现了业内对其能力的认可❶。

英特尔官方网站显示⑩,英特尔在车端舱内和AI PC上都对新发布的Qwen3系列模型完成匹配④,使得搭载小模型的AI PC也能成为用户助手⑥。

英特尔官方展示Qwen3-0.6B模型优化效果

国产芯片厂商海光信息也宣布其DCU完成对Qwen3全部8款模型的适配+调优⑦,覆盖235B⑦、32B❷、30B③、14B⑫、8B⑱、4B⑤、1.7B⑨、0.6B各种参数⑧。

抢占AI应用爆发窗口期⑬、如果说阿里更新的32B以上模型是为了对标乃至超越DeepSeek-R1⑤,那么在小模型的技术线上⑲,阿里又意欲何为呢⑤?

我们在解释Dense模型的特性时就提到⑪,相比MoE模型①,Dense模型更加适合一些需要准确性和实时反馈的业务场景❸,而阿里所在的电商⑪、物流⑬、金融科技等领域⑲,天然就对大模型幻觉存在较低的容忍度⑤。Dense模型相比MoE模型⑭,会更加容易适配诸如商品智能推荐▓、智能客服❸、智能家居⑭、智能眼镜⑥、自动驾驶⑥、机器人等领域领域③,与阿里自身的业务板块和未来的发力方向较为契合⑭。

而且⑳,相比上一代模型支持29种语言⑳,本次阿里开源大模型支持119种语言▓。对于阿里国际站⑦、速卖通等平台覆盖的全球 200 多个国家和地区▓,多语言尤其是小语种支持可直接降低语言壁垒⑲,提升用户体验⑮,属于AI赋能自身业务的直观体现⑬。

而119种语言的背后也代表着阿里在持续加码建设自己的开源生态⑳。Qwen3系列模型依旧采用宽松的Apache2.0协议开源⑩,全球开发者⑩、研究机构和企业均可免费在魔搭社区⑲、HuggingFace等平台下载模型并商用②,也可以通过阿里云百炼调用Qwen3的API服务⑧。

具体到小模型在第三方的应用⑨,多位AI开发者对观察者网表示⑩,在很多场景⑧,小模型才是真正能干活的模型⑨。

有人解释道:“很多业务QPS都是以万为数量级⑭,而业务链路对于延迟的要求又极为严格⑲,这种场景根本没法塞一个大模型进去⑩,哪怕是用7B级别的模型⑨,对于显存都是巨大的负担⑧。对于绝大部分无法承担高额预算的企业❶,0.6B⑳、1.7B的小模型有着巨大的应用价值⑧,不仅能少吃资源⑫,还能支持高并发①。”

其补充表示:对于一些轻量的任务❸,不需要模型懂很多道理⑤,只要能够对输入有感知❶,能够识别信号输出⑲,就是合格的模型了❷。Qwen小模型的出现取代了TinyBERT⑭,只要能够实现快速⑦、轻量❷、稳定⑧,那么这个模型在工业界就有很大的应用潜力⑩。

另一位开发者则对观察者网表示:“Qwen3-0.6B具有参数少❷、本地跑的特性⑲,非常适合微调成匹配单一小任务的模型⑮,比如文章提取⑤、样式整理⑮、数据转化⑳,相比大模型存在巨大的性价比优势⑫。”

据了解②,目前已有企业使用Qwen3的0.6B模型在边缘设备部署⑨,实时分析传感器数据⑤。

除了赋能自身业务和吸引开发者生态⑳,阿里也希望通过更加先进和适配的大模型抢占更多的C端入口⑯。

2024年底至2025年初⑨,阿里通过一系列组织架构调整和人才布局推进AI To C战略⑤,将AI应用“通义”并入智能信息事业群⑤,整合天猫精灵与夸克团队①,并聘请顶尖AI科学家许主洪负责AI To C业务研发⑫。

有市场人士认为⑥,此轮调整的背景是阿里通义APP的普及率不及预期①。

通义千问凭借在多模态处理和复杂任务推理方面的技术优势⑲,曾为阿里的B端企业服务及开发者生态提供了有力支撑⑦。诸如飞猪旅行借助通义千问多模态模型⑰,实现了用户方言语音规划行程的功能❶;Rokid AR眼镜搭载其技术后⑤,能够进行实时翻译⑬。通义千问在大模型开源上跑得很快⑤,但是⑧,其“通义”App在C端应用上并没有使出“撒手锏”⑯。

AI市场竞争激烈⑫,的混元大模型依托微信庞大的用户基础和生态优势⑱,在微信多个入口为元宝争取亮相的机会⑯,对C端用户形成“茧房式包裹”②。字节跳动旗下的豆包借助抖音的推流优势⑤,在2024年11月MAU飙升至5998万⑥,长期霸榜AI应用下载量榜单前三⑥。

不过阿里在C端依然有潜力应用夸克⑩。第三方数据显示①,2025年3月⑤,夸克的MAU达到1.48亿⑳,登上国内AI应用榜首⑬。

当前阿里的整体AI战略布局❸,愈发强化通义千问与夸克的“双子星”格局⑮。通义千问专注于支撑云上智能①,夸克则着力打造端侧入口⑬,协同推动阿里AI To C战略的落地⑧。

随着C端渗透率不断提升⑮,算力成本会成为大模型企业不可承受之重⑱,DeepSeek就曾经在爆火出圈时遭遇算力崩溃⑪。如果能够用小尺寸模型承接更多C端用户需求⑮,对于阿里自身成本控制和用户体验⑮,都会有潜在的重要意义⑬。

很赞哦⑧!

随机图文