type
status
date
slug
summary
tags
category
icon
password
URL
Google 通过新的代码完成模型和更高效的推理扩展了 Gemma 系列。此外,使用条款也变得更加灵活。
Google 今天宣布了 2 月份推出的 Gemma 系列的首批成员。 Gemma 包括基于与 Gemini 模型相同技术的轻量级、最先进的开源模型。
Gemma代码
用于代码生成的 CodeGemma 提供三种变体:
- 用于代码补全和代码生成的预训练 7B 模型
- 针对代码聊天和命令跟踪进行命令优化的 7B 模型
- 用于快速完成本地代码的预训练 2B 模型。
CodeGemma 使用来自网络文档、数学和代码的 5000 亿个令牌进行了训练。它用 Python、JavaScript、Java 和其他流行语言生成语法正确且语义有意义的代码。
谷歌表示,其目的是让开发人员编写更少的标准代码并专注于更复杂的任务。
Gemma 实现更高效的推理
RecurrentGemma 是一种技术上独特的模型,它利用循环神经网络和局部注意力来提高记忆效率。根据 Google 的说法,RecurrentGemma 具有与 Gemma 2B 类似的基准性能,具有以下几个优点:
- 在内存有限的设备(例如单个 GPU 或 CPU)上,较长样本的内存消耗更低
- 通过显着增大批量大小和每秒生成更多令牌进行推理来提高吞吐量
- 通过高性能非变压器模型在深度学习研究中取得进展
RecurrentGemma 使用反馈网络架构,允许有效存储和处理来自先前时间步骤的信息,而不会因较长的序列而减慢速度。
除了这两个新模型之外,谷歌还将标准 Gemma 模型更新到 1.1 版本,承诺改进性能、修复错误和更灵活的使用条款。
新模型现已在 Kaggle、Nvidia NIM API、Hugging Face 和 Vertex AI Model Garden 上提供。它们可以集成到各种工具和平台中,包括 JAX、PyTorch、Hugging Face Transformers、Gemma.cpp、Keras、NVIDIA NeMo、TensorRT-LLM、Optimum-NVIDIA 和 MediaPipe。
总结
- 谷歌扩展了 Gemma 模型系列,推出了新的代码补全变体和更高效的推理。此外,标准 Gemma 模型已更新至版本 1.1。
- 据谷歌称,CodeGemma 可以生成各种版本的语法正确且语义有意义的代码,以减轻开发人员的标准任务。
- RecurrentGemma 使用循环神经网络来降低内存消耗和提高吞吐量,并具有与基本模型 Gemma 2B 类似的性能。
- 作者:Ai-皇帝
- 链接:https://www.ai-hd.com/article/7e48b57d-8bb1-4eca-b22c-6028b9cd62fc
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。