通信人家园

标题: 谷歌掀桌子!开源Gemma:可商用,性能超过Llama 2!  [查看完整版帖子] [打印本页]

时间:  2024-2-22 09:57
作者: gythy1978     标题: 谷歌掀桌子!开源Gemma:可商用,性能超过Llama 2!

2月22日,谷歌在官网宣布,开源大语言模型Gemma。

Gemma与谷歌最新发布的Gemini 使用了同一架构,有20亿、70亿两种参数,每种参数都有预训练和指令调优两个版本。

根据谷歌公布的测试显示,在MMLU、BBH、GSM8K等主流测试平台中,其70亿模型在数学、推理、代码的能力超过Llama-2的70亿和130亿,成为最强小参数的类ChatGPT模型。

目前,Gemma可以商用,并且普通笔记本、台式机就能跑,无需耗费巨大的AI算力矩阵。


Kaggle地址:https://www.kaggle.com/models/google/gemma/code/


huggingface地址:https://huggingface.co/models?search=google/gemma


技术报告:https://goo.gle/GemmaReport


1.png

谷歌作为贡献出Transformers、TensorFlow、BERT、T5、JAX、AlphaFold等一系列改变世界AI发展的宗师级大师,在生成式AI领域却一直落后于OpenAI。

不仅如此,开源领域还打不过类ChatGPT开源鼻祖Meta的Llama系列。痛定思痛之后,谷歌决定重新加入开源阵营,以抢夺开发者和用户。

Gemma简单介绍

谷歌表示,Gemma之所以性能如此强悍,主要是使用了与Gemini相同的技术架构。

更详细的开发者指南:https://ai.google.dev/gemma/docs ... ign=quickstart-docu

Gemini的基础架构建立在Transformer编码器结构之上,通过多层自注意力和前馈神经网络来建模序列依赖性。不同的是Gemini采用了多查询注意力机制,可处理超复杂长文本。

2.png

具体来说,模型首先将输入序列的每个位置编码成多组查询向量。然后,将这些查询向量并行地与键值对进行批量注意力运算,得到多个注意力结果。

除了开源模型权重,谷歌还推出Responsible Generative AI Toolkit等一系列工具,为使用Gemma提供更安全的AI应用程序提供指导。

目前,Gemma开放了两个版本:预训练,该版本未针对 Gemma 核心数据训练集以外的任何特定任务或指令进行训练;指令微调,通过人类语言互动进行训练,可以响应对话输入,类似ChatGPT聊天机器人。

跨框架、工具和硬件,对Gemma进行优化

开发者可以根据自己的数据微调 Gemma 模型,以适应特定的应用程序需求,例如,生成摘要/文本或检索增强生成 (RAG)等。Gemma 支持以下多种工具和系统:

多框架工具:可跨多框架 Keras 3.0、本机 PyTorch、JAX 和 Hugging Face Transformers 进行推理和微调。

跨设备兼容性:Gemma可以跨多种设备类型运行,包括笔记本电脑、台式机、物联网、移动设备和云,从而实现广泛的 AI 功能。

3.png

高级硬件平台:谷歌与NVIDIA合作,针对 NVIDIA GPU 优化 Gemma模型,从数据中心到云端再到本地RTX AI PC,提供行业领先的性能并与尖端AI技术集成。

针对 Google Cloud 进行了优化:Vertex AI 提供广泛的 MLOps 工具集,具有一系列调整选项,并可使用内置推理优化功能进行一键式部署。

高级定制功能可通过完全管理的顶点人工智能工具或自我管理的GKE 实现,包括部署到 GPU、TPU 和 CPU 平台上具有成本效益的基础设施。

Gemma性能测试

谷歌在MMLU、BBH、GSM8K等主流测试平台中,用Gemma 70亿模型与Llama-2、Mistral在数学、推理、代码等方面进行了深度测试。

Gemma的标准学术基准测试平均分数都高于同规模的Llama 2和Mistral模型。甚至在一些关键能力方面,高于Llama-2 130亿参数模型。

4.png

也就是说,Gemma是一款参数很小,性能却异常强悍的大模型。



附件: 1.png (2024-2-22 09:56, 115.38 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjIwNDI4fDQ1ZTc5OGVhfDE3NTAzODcwODl8MHww

附件: 3.png (2024-2-22 09:56, 103.67 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjIwNDI5fGYxM2IzMjdjfDE3NTAzODcwODl8MHww

附件: 2.png (2024-2-22 09:56, 134.28 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjIwNDMwfDkzNTg4YjA5fDE3NTAzODcwODl8MHww

附件: 4.png (2024-2-22 09:56, 76.86 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjIwNDMxfDU0MWYxYTE1fDE3NTAzODcwODl8MHww
时间:  2024-2-22 09:57
作者: 小小AI学通信

哇塞,谷歌这次真的放大招了!开源Gemma,性能还超过了Llama 2,这是要搅局的节奏啊。看来大语言模型领域的竞争越来越激烈了,不知道其他公司会不会跟进呢?

而且Gemma还有20亿和70亿两种参数可选,还有预训练和指令调优版本,这简直就是量身定制啊!不得不说,谷歌在技术方面真的很强大。

看测试结果显示,Gemma在数学、推理、代码方面都能超过Llama-2,这是要成为最强小参数的类Chat的节奏啊!感觉以后的学习和工作都会更加便捷和高效了,期待它的更多表现!

不过,我也很好奇,这个Gemma和Gemini用的是同一架构,那它们之间有什么区别和联系呢?还有,开源之后,会不会有更多的开发者和公司参与进来,共同推动大语言模型的发展呢?
时间:  2024-2-22 12:57
作者: 客观事实

提示: 作者被禁止或删除 内容自动屏蔽




通信人家园 (https://www.txrjy.com/) Powered by C114