12秒生成1万token!谷歌推出文本扩散模型,团队:演示都得降速看

  闻乐发自凹非寺

  量子位 | 公众号 QbitAI

  谷歌又放新大招了,将图像生成常用的“扩散技术”引入语言模型,12 秒能生成 1 万 tokens

  什么概念?不仅比 Gemini 2.0 Flash-Lite 更快。

  甚至需要不得不在演示过程中放慢视频的速度,才能看清生成过程。

  这是 Google DeepMind 推出Gemini Diffusion:不同于以往大多数语言模型“从左到右”预测文本的生成方式,而是通过逐步优化噪声来学习生成输出

  传统的自回归模型是根据已生成的词序列逐步预测下一个词,每次只能生成一个词或一个 token,这种顺序过程很慢,并且会限制输出的质量和一致性。

  而扩散模型的特点则是通过逐步细化噪声学习生成,这种特点会大大提高生成速度,并且减少训练的不确定性。

  Gemini Diffusion 就是利用了扩散模型这一优势,将文本生成速度提升至2000token/秒

  官方给出了 Gemini Diffusion 的基准测试结果,结果显示 Gemini Diffusion 的表现可与更大的模型(Gemini 2.0 Flash-Lite)相媲美,甚至速度更快。

  Gemini Diffusion 目前是一个实验性演示,官方设置了访问候补名单,感兴趣的朋友可以戳文末链接申请体验

  Gemini Diffusion 每秒能生成 2000 个 token

  消除“从左到右”文本生成需求

  与以往大多数基于自回归的语言模型不同,Gemini Diffusion 在语言模型中引入了“扩散”技术,它不是直接预测文本,而是通过逐步细化噪声来学习生成输出

  这种技术能够让模型在生成过程中快速迭代,并在生成过程中进行错误纠正

  这种优势有助于模型在编辑等任务中表现出色,包括在数学和代码环境中也能表现良好。

  有一位团队研究员展示了一个代码示例,在这个示例中,Gemini Diffusion 模型以2000 个 token/秒的速度生成,这其中包括 toke 化、预填充、安全过滤器等开销

  在生成过程中进行非因果推理

  虽然 Gemini Diffusion 在生成速度上比迄今为止最快的模型还要快得多,但速度却不是它的唯一优势。

  它能够一次生成整个标记块,这意味着对于用户的提示,它能比自回归模型做出更连贯的响应。

  在迭代细化中能够纠正生成过程中的错误以获得更一致的输出。

  研究员还通过举例说明,与仅限于一次生成一个 token 的自回归模型不同,扩散可以在生成过程中进行非因果推理。

  • “(√(81) * (2/3))^2 + (15 - 3) / (2^2)) 等于多少?先给出答案,然后再推导出答案。”

  对于基于自回归思想的模型来说,这是一个非常难的问题,例如,GPT-4o 就无法解决此问题,因为它们必须严格自回归生成文本,无法跳过中间 token,在生成答案之前对其进行推理。

  但扩散模型的生成过程不依赖于严格的时序因果关系,而是通过并行或迭代式去噪实现数据生成,可以进行非因果推理以得出正确答案(答案:39)。

  One More Thing

  实际上,自回归确实不是 LLM 的唯一路径。

  此前,人大高瓴人工智能研究院、蚂蚁也提出了类似研究,LLaDA是基于扩散模型的双向模型。

  语言模型逐步引入扩散技术,在未来,我们是否可以期待更多混合模型的出现呢?

  官方链接:

  https://deepmind.google/models/gemini-diffusion/

  体验申请:

  https://docs.google.com/forms/d/e/1FAIpQLSdsxa-YU25JIPJGmu-pySJEYeTy6lwbdZAzxlZ11x3GPj6DhA/viewform

  [1]https://x.com/GoogleDeepMind/status/1924888095448825893

  [2]https://x.com/OriolVinyalsML/status/1924952304324837469

  [3]https://x.com/Yampeleg/status/1924915316565377231

  [4]https://x.com/bodonoghue85/status/1924930186858135632

  [5]https://x.com/koltregaskes/status/1924956764723650862

  — 完 —