type
status
date
slug
summary
tags
category
icon
password
URL
周二,Stability AI 发布了 Stable Video Diffusion。第一个针对家庭用户的实施现已推出。
稳定扩散工具“ComfyUI”的创建者在新的更新中添加了对 Stable AI 稳定视频扩散模型的支持。
ComfyUI 是稳定扩散的图形用户界面,使用图形/节点界面,允许用户将复杂的工作流程组合在一起。它是其他接口(例如 AUTOMATIC1111)的替代方案。
据开发人员称,该更新可用于在拥有 7 年历史、具有 8 GB VRAM 的 Nvidia GTX 1080 上创建分辨率为 1024 x 576 像素、长度为 25 帧的视频。
AMD 用户还可以从 Linux 上配备 ROCm 的 AMD 6800 XT 开始,通过 ComfyUI 使用生成视频 AI。创建视频大约需要 3 分钟。
开发人员在他们的博客上提供了 ComfyUI 中稳定视频扩散的两个示例工作流程 - 一个用于 14 帧模型,另一个用于 25 帧模型。
Stability AI 计划进一步改进稳定视频扩散
本周早些时候,Stability AI 发布了 Stable Video Diffusion 的研究预览,这是一种生成视频模型,旨在在用户偏好研究中超越商业竞争对手 RunwayML 和 Pika Labs。
该模型以两种图像到视频格式发布,可以生成 14 或 25 个图像,帧速率在每秒 3 到 30 帧之间可调,并且基于稳定扩散图像模型。
Stability AI 最初在 Github 上作为研究版本提供,并计划在此基础上开发一个模型生态系统。最终模型将像稳定扩散一样免费提供,并且还计划推出具有文本到视频功能的网络版本。
总结
- Stability AI 本周早些时候发布了 Stable Video Diffusion,这是一种生成视频模型,在用户偏好研究中优于 RunwayML 和 Pika Labs 等商业竞争对手。
- 稳定扩散工具“ComfyUI”现已在更新中添加了对稳定视频扩散的支持。据开发人员称,它与 Nvidia GTX 1080 和 AMD 6800 XT 显卡兼容。
- Stability AI 计划进一步改进 Stable Video Diffusion,包括开发模型生态系统和具有文本到视频功能的网络版本。