新闻资讯
谷歌更新并扩展 Gemma 开源 AI 模型
00 分钟
2024-4-10
2024-4-10
type
status
date
slug
summary
tags
category
icon
password
URL
Google 通过新的代码完成模型和更高效的推理扩展了 Gemma 系列。此外,使用条款也变得更加灵活。
Google 今天宣布了 2 月份推出的 Gemma 系列的首批成员。 Gemma 包括基于与 Gemini 模型相同技术的轻量级、最先进的开源模型。

Gemma代码

用于代码生成的 CodeGemma 提供三种变体:
  • 用于代码补全和代码生成的预训练 7B 模型
  • 针对代码聊天和命令跟踪进行命令优化的 7B 模型
  • 用于快速完成本地代码的预训练 2B 模型。
    • Code Gemma 在基准测试中没有取得最高的结果,但它的性能非常好,并且没有落后。 |图片:谷歌 Deepmind
      Code Gemma 在基准测试中没有取得最高的结果,但它的性能非常好,并且没有落后。 |图片:谷歌 Deepmind
CodeGemma 使用来自网络文档、数学和代码的 5000 亿个令牌进行了训练。它用 Python、JavaScript、Java 和其他流行语言生成语法正确且语义有意义的代码。
谷歌表示,其目的是让开发人员编写更少的标准代码并专注于更复杂的任务。

Gemma 实现更高效的推理

RecurrentGemma 是一种技术上独特的模型,它利用循环神经网络和局部注意力来提高记忆效率。根据 Google 的说法,RecurrentGemma 具有与 Gemma 2B 类似的基准性能,具有以下几个优点:
  • 在内存有限的设备(例如单个 GPU 或 CPU)上,较长样本的内存消耗更低
  • 通过显着增大批量大小和每秒生成更多令牌进行推理来提高吞吐量
  • 通过高性能非变压器模型在深度学习研究中取得进展
    • 另一方面,像 Gemma 这样的 Transformer 模型会计算序列中所有元素之间的相互作用,随着长度的增加,计算量会变得更大,并会减慢处理速度。 |图片:谷歌 Deepmind
      另一方面,像 Gemma 这样的 Transformer 模型会计算序列中所有元素之间的相互作用,随着长度的增加,计算量会变得更大,并会减慢处理速度。 |图片:谷歌 Deepmind
      RecurrentGemma 使用反馈网络架构,允许有效存储和处理来自先前时间步骤的信息,而不会因较长的序列而减慢速度。
除了这两个新模型之外,谷歌还将标准 Gemma 模型更新到 1.1 版本,承诺改进性能、修复错误和更灵活的使用条款。
新模型现已在 Kaggle、Nvidia NIM API、Hugging Face 和 Vertex AI Model Garden 上提供。它们可以集成到各种工具和平台中,包括 JAX、PyTorch、Hugging Face Transformers、Gemma.cpp、Keras、NVIDIA NeMo、TensorRT-LLM、Optimum-NVIDIA 和 MediaPipe。
总结
  • 谷歌扩展了 Gemma 模型系列,推出了新的代码补全变体和更高效的推理。此外,标准 Gemma 模型已更新至版本 1.1。
  • 据谷歌称,CodeGemma 可以生成各种版本的语法正确且语义有意义的代码,以减轻开发人员的标准任务。
  • RecurrentGemma 使用循环神经网络来降低内存消耗和提高吞吐量,并具有与基本模型 Gemma 2B 类似的性能。

评论
  • Twikoo