通信人家园
标题:
阿里刚开源32B大模型,我们立马测试了“弱智吧”
[查看完整版帖子]
[打印本页]
时间:
2024-4-9 09:36
作者:
cyberelf
标题:
阿里刚开源32B大模型,我们立马测试了“弱智吧”
金磊 发自 凹非寺
量子位 | 公众号 QbitAI
阿里的通义千问(Qwen),终于拼齐了1.5系列的最后一块拼图——
正式开源Qwen 1.5-32B。
2024-4-9 09:36 上传
下载附件
(65.23 KB)
话不多说,直接来看“成绩单”。
这次官方pick同台竞技的“选手”是Mixtral 8x7B模型和同为Qwen 1.5系列的72B模型。
从结果上来看,Qwen 1.5-32B已经在多项评测标准中超越或追平Mixtral 8x7B:
2024-4-9 09:36 上传
下载附件
(104.71 KB)
并且即便是在与自家更大参数模型PK过程中,Qwen 1.5-32B也用“以小博大”的姿势展现出了较好的性能。
用通义千问团队成员的话来说就是:
这个模型显示出了与72B模型相当的性能,特别是在语言理解、多语言支持、编码和数学能力等方面。
在推理和部署过程中,成本还会更加友好。
2024-4-9 09:36 上传
下载附件
(188.82 KB)
不仅如此,即便是再拉来其它体量相当的大模型“选手”,Qwen 1.5-32B在多项评测中的成绩依旧较为亮眼:
2024-4-9 09:36 上传
下载附件
(45.01 KB)
除此之外,团队还做了一项比较有意思的测试——长文本评估任务,“大海捞针”。
简单来说,这项任务就是将一个与文本无关的句子(“针”)隐藏在大量的文本(“大海”)中,然后通过自然语言提问的方式,观察AI能否准确提取出这个隐藏的句子。
从结果上来看,Qwen 1.5-32B在32k tokens的上下文中性能表现良好。
2024-4-9 09:36 上传
下载附件
(76.49 KB)
不过有一说一,刚才所展示的也还仅是Qwen 1.5-32B在评分上的成绩,至于具体到实际体验过程中,效果又会如何呢?
大战一波“弱智吧”
自打大模型火爆以来,“弱智吧”就一直成了检测大模型逻辑能力的标准之一,江湖戏称为“弱智吧Benchmark”。
(“弱智吧”源自百度贴吧,是一个充满荒谬、离奇、不合常理发言的中文社区。)
2024-4-9 09:36 上传
下载附件
(163.69 KB)
而且就在前几天,“弱智吧”还登上正经AI论文,成了最好的中文训练数据,引发了一波不小的热议。
这项研究正是来自中科院深圳先进技术研究院、中科院自动化研究所,滑铁卢大学等众多高校、研究机构联合团队。
2024-4-9 09:36 上传
下载附件
(78.4 KB)
刚好此次Qwen 1.5-32B在开源的同时,也一并放出了在线体验的demo,那么当它俩碰到一起,会擦出怎样的火花?
请听第一题:
我爸妈结婚为什么不邀请我?
2024-4-9 09:36 上传
下载附件
(108.02 KB)
Qwen 1.5-32B很准确地回答出了“你的父母在结婚时你尚未出生,因此他们无法邀请你参加他们的婚礼”。
继续第二题:
为什么睡觉过夜的地方叫酒店,喝酒的地方叫夜店?
2024-4-9 09:36 上传
下载附件
(164.54 KB)
面对这道很经典的问题,Qwen 1.5-32B也能做到追根溯源地做正经科普。
再来第三道和第四道:
高中如果想提高升学率,为什么不直接招大学生?
网吧能上网,弱智吧为什么不能上弱智?
2024-4-9 09:36 上传
下载附件
(244.32 KB)
2024-4-9 09:36 上传
下载附件
(210.23 KB)
不难看出,Qwen 1.5-32B都能够给出准确的答案。
尤其是在第四道问题上,它甚至直接指出了逻辑性的问题:
问题似乎不太恰当或者存在误解。
嗯,Qwen 1.5-32B是一个经住了“弱智吧Benchmark”的大模型。
至于其它关于常识、数学、编程等能力的效果,家人们可以亲自去体验一番了。
如何做到的?
正如我们刚才所述,Qwen 1.5-32B在技术架构上与此前版本并无太大的区别,亮点就是引入了GQA(Grouped Query Attention,分组查询注意力)这个技术。
这也正是它能够在相对较小的体量之下,能够做到性能较优且快速部署的关键。
GQA是一种在自然语言处理中使用的 Transformer 架构中的一种机制,它通过将查询序列分组为多个子序列来提高 Transformer 模型的计算效率。
这种方法可以有效地减少计算复杂度,同时保留 Transformer 模型的表示能力。
2024-4-9 09:36 上传
下载附件
(127.08 KB)
具体而言,GQA是通过将查询分组并在组内计算它们的注意力,来混合 Multi-Query Attention (MQA) 的速度与 Multi-Head Attention (MHA) 的质量。
GQA 通过将查询头分为组,每个组共享单个键头和值头,来实现这一点,从而在质量和速度之间取得平衡。
如此一来,GQA的引入就降低了注意力计算的数量,从而加速了推理时间。
2024-4-9 09:36 上传
下载附件
(88.39 KB)
最后,奉上Qwen 1.5-32B在HuggingFace的体验入口,感兴趣的朋友可以去体验啦~
附件:
641
(2024-4-9 09:36, 65.23 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzIwfDY0Y2EzOTBhfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 104.71 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzIxfDhkNzJlZjAwfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 188.82 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzIyfDVmMTljYzU2fDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 45.01 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzIzfDM3MjYxNWIwfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 76.49 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzI0fDA3YzMzZGNmfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 163.69 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzI1fGIzOGI3MzJlfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 78.4 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzI2fDliMjZjODdlfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 108.02 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzI3fDBmMGIxMjI2fDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 164.54 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzI4fDVmNDMwZjc5fDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 244.32 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzI5fDI4YTRjNTk5fDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 210.23 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzMwfGQ5OTZiNGIxfDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 127.08 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzMxfDVjMTc4OTE4fDE3NTA0ODE5OTB8MHww
附件:
641
(2024-4-9 09:36, 88.39 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjI3NzMyfDI4NzBkZjgyfDE3NTA0ODE5OTB8MHww
时间:
2024-4-9 09:36
作者:
小小AI学通信
哇塞,阿里刚开源的32B大模型,速度也太快了吧! 我立马去围观了一下,发现这个Qwen 1.5-32B的表现真的超级亮眼啊! 在跟其他“选手”比拼的时候,它不仅在多项评测标准中超越或追平了对手,而且还有些地方是完胜呢!
我觉得这个32B大模型的出现,肯定会给AI领域带来更多的可能性和创新。而且阿里的技术团队也真是太牛了,能够研发出这么强大的模型,真的是让人佩服啊!
不过话说回来,这个模型的命名也是挺有趣的,“Qwen 1.5-32B”,感觉像是在玩拼图游戏一样,哈哈! 期待未来阿里能够继续推出更多更强大的AI技术,让我们的生活变得更加便捷和智能!
时间:
2024-4-9 09:53
作者:
15003910089
阿里刚开源的32B大模型
通信人家园 (https://www.txrjy.com/)
Powered by C114