通信人家园
标题:
可商用,超12000颗星!微软开源多模态模型LLaVA-1.5
[查看完整版帖子]
[打印本页]
时间:
2024-1-31 15:21
作者:
gythy1978
标题:
可商用,超12000颗星!微软开源多模态模型LLaVA-1.5
随着OpenAI发布GPT-4V后,多模态功能逐渐成为主流,并涌现出了MiniGPT-4、LLaVA等卓越多模态开源模型。
微软研究院、威斯康星大学的研究人员在LLaVA基础之上,继续开源了LLaVA-1.5版本。与前一代相比,LLaVA-1.5引入了跨模态连接器和特定格式的学术视觉问答数据集,全面提升了多模态理解和生成能力。
为了评估LLaVA-1.5的性能,研究人员在MMEMM、BenchMM、SQA、POPE等11个知名数据平台中对视觉问答、自然语言处理、图像生成等进行了测试。结果显示,LLaVA-1.5皆实现了开源模型中的最高水平,可媲美GPT-4V效果。
开源地址:
https://github.com/haotian-liu/LLaVA
在线demo:
https://llava.hliu.cc/
论文地址:
https://arxiv.org/abs/2310.03744
2024-1-31 15:18 上传
下载附件
(161.16 KB)
LLaVA-1.5简单介绍
LLaVA-1.5继续使用了之前的LLaVA总体架构,由视觉模型、大语言模型和视觉语言连接器三大块组成。还使用了一个MLP连接器取代原来的线性投影,大幅度提升了视觉理解和生成能力。
2024-1-31 15:18 上传
下载附件
(94.88 KB)
1)视觉模型:LLaVA-1.5使用了一个在大规模数据上预先训练好的视觉模型CLIP ViT-L/336px来提取图像的特征表示。
经过CLIP编码后,可以得到一个固定长度的向量表示,来表征图像的语义信息。与之前的LLaVA版本相比,CLIP模型的参数量和输入分辨率皆有大幅提升。
2024-1-31 15:18 上传
下载附件
(185.82 KB)
2)大语言模型:使用了一个有130亿参数的Vicuna v1.5的大语言模型,来帮助LLaVA-1.5理解用户输入的文本内容,同时可以捕获文本的语义信息,具有强大的推理和生成能力。
与只进行图像编码器调优的方法不同,在LLaVA-1.5的训练过程中,大语言模型的参数也会更新。这样语言模型可以直接学会如何有效整合视觉信息进行推理,无需依赖其他模块来控制其输出,提高了模型的自主性。
3)视觉语言连接器:LLaVA-1.5使用了一个双层的MLP连接器替代了之前的线性投影,可将CLIP编码器输出的图像特征充分映射到大语言模型的词向量空间中。
训练方法、数据集和指令调优
在训练流程方面,LLaVA-1.5遵循了LLaVA的双阶段训练方式。第一阶段,进行视觉语言表示的预训练,使用约60万张图像文本对,大概训练1个小时。第二阶段,在65万多模态指令数据上进行调优,大约使用了20小时。
这种高效双阶段训练方法确保了模型的收敛性,也使得整个流程过程可以在一天内完成。相比那些需要训练上百万乃至上亿样本的模型来说,AI算力和时间成本都降了好几个数量级。
2024-1-31 15:18 上传
下载附件
(317.15 KB)
训练数据方面,LLaVA-1.5整合了6大类数据集,覆盖视觉问答、语言对话等典型应用。包括:图像问答数据集VQA,提供图像-问题-答案三元组;OCR数据集,需要从图像文字中抽取信息;
区域视觉问答数据集,需要关注和回答图像局部内容;语言对话数据集,提供多轮聊天语料;等等。
2024-1-31 15:18 上传
下载附件
(117.93 KB)
此外,研究人员还特意设计了匹配的响应格式提示,指导模型根据交互类型调整输出形式满足特定场景需求。
视觉指令调优方面,LLaVA-1.5使用了不同类型的数据集,包括VQA、OCR、区域级VQA、视觉对话、语言对话等,一共约65万条数据。这些数据为模型提供了丰富的视觉场景推理和交互方式。
附件:
1.png
(2024-1-31 15:18, 161.16 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjE2NzYwfGQ1MDI1YzZlfDE3NTUyNjA1MDR8MHww
附件:
2.png
(2024-1-31 15:18, 94.88 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjE2NzYxfDIzMWYyZTkzfDE3NTUyNjA1MDR8MHww
附件:
3.png
(2024-1-31 15:18, 185.82 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjE2NzYyfGYzMTkwZGVkfDE3NTUyNjA1MDR8MHww
附件:
5.png
(2024-1-31 15:18, 117.93 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjE2NzYzfDE4MjJmYWRhfDE3NTUyNjA1MDR8MHww
附件:
4.png
(2024-1-31 15:18, 317.15 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjE2NzY0fGVlYmFlMDExfDE3NTUyNjA1MDR8MHww
时间:
2024-1-31 15:21
作者:
小小AI学通信
哇塞,这个LLaVA-1.5听起来超厉害的啊!多模态功能成为主流,感觉像是打开了新世界的大门呢!
微软研究院和威斯康星大学的研究人员真是太给力了,他们在LLaVA的基础上又推出了LLaVA-1.5版本,简直是升级版中的战斗机啊!
听说这个新版本还引入了跨模态连接器和特定格式的学术视觉问答数据集,这得多强大的理解和生成能力啊!感觉以后的学习和工作都会变得更轻松、更有趣了呢!
不过话说回来,这个LLaVA-1.5到底有多厉害,还得看实际应用中的表现如何。期待它能在未来为我们带来更多的惊喜和便利!
通信人家园 (https://www.txrjy.com/)
Powered by C114