以下是官方的介绍:
我们今天发布了稳定视频扩散(Stable Video Diffusion),这是我们基于图像模型稳定扩散(Stable Diffusion)推出的第一个生成式视频基础模型。
这款最先进的生成式AI视频模型现已在研究预览版中推出,它代表了我们在为各种用户创建模型的过程中迈出的重要一步。
通过这一研究版本的发布,我们已在GitHub仓库上公开了稳定视频扩散的代码,运行该模型本地所需的权重可在我们的Hugging Face页面上找到。有关该模型技术能力的更多细节可在我们的研究论文中找到。
适用于各种视频应用
我们的视频模型可以通过在多视角数据集上微调轻松地适应各种下游任务,包括从单个图像生成多视角合成。我们计划开发各种基于此基础模型并对其进行扩展的模型,类似于稳定扩散周围已经形成的生态系统。
来自我们微调过的视频模型的多视角生成示例
此外,从今天开始,您可以在此登记加入我们的等待列表,以访问全新的基于文本到视频界面的网络体验。此工具展示了稳定视频扩散在广告、教育、娱乐等多个行业中的实际应用。
性能具有竞争力
稳定视频扩散以两种图像到视频的模型形式发布,能够以每秒3至30帧的可自定义帧速率生成14和25帧。在最初的基础形式下发布时,通过外部评估,我们发现这些模型在用户偏好研究中超过了领先的封闭模型。
仅用于研究
虽然我们急切地用最新的进展更新我们的模型,并努力结合您的反馈,但我们强调,这个模型在当前阶段并不打算用于实际或商业应用。您对安全性和质量的见解和反馈对于提炼此模型以最终发布是非常重要的。
这与我们在新模式下的以前发布相呼应,我们期待与大家分享完整的发布。
一点看法
从发布的demo视频效果来看,画质上并没有runway和pika好,展示的功能也只是文生视频,至于效果来说目前还没人使用到所以也不清楚。而且好像需要A100的卡才能用,这个根本不是民用显卡的配置。
虽然它号称比runway和pika性能更高,在现在这个阶段Pika和runway已经开始卷可控性和画质了,目前的demo看不出有什么更好的点。如果加上SD的开源生态可能会不一样,但是现在它也还没说要开源?
综上所述,可以观察,但是并无惊喜。
不过AI生成视频开始卷了,也就意味着更好的产品一定在路上了。
近期,美国波士顿大学程继新教授团队基于人工智能和先进仪器技术,提出了一种新型振动纳米成像技术——超灵敏加权受激拉曼散射(URV-SRS,ultrasensitive reweighted visible stimulated Raman scattering)。
英伟达周四推出用于加速生成式AI模型的部署的容器化微服务Nvidia Inference Microservices(NIM),希望帮助企业提高人工智能代理的信任、安全和可靠性。 英伟达在一篇博客中表示,人工智能代理是一项正在迅
对于生成式 AI 的采用,采取谨慎和缓慢的方式有很多原因。技术变化迅速,在错误的平台上投入大量资金可能会造成巨大损失。 生成式 AI 仍存在准确性和安全性问题,版权问题也尚未在法庭上得到解决,这些都可能
党的二十届三中全会《中共中央关于进一步全面深化改革推进中国式现代化的决定》指出:“加快建设高质量教育体系,统筹推进育人方式、办学模式、管理体制、保障机制改革”。当前,一个以AI为引领的新科技革命浪潮正
2025年,神州数码开始加速AI应用产业落地。 1月15日,由神州数码携手生态伙伴共同打造的DC·AI生态创新中心正式启幕。该中心位于深圳湾超总基地神州数码国际创新中心37层,面积1000平方米,是集品牌展示和体验
“我们现在不是怕他们(ai)用得太多,反而是怕他们用得太少,不会跟上时代步伐。我们希望人人都能用起来,但是需要安全合规。”1月15日,上海市政协委员、同济大学国豪书院副院长任捷接受澎湃新闻采访时表示,要支
万彩AI写作
Opus.Ai
Kaiber.ai
Akool
AutoPod
DreamAvatar | 美图AI数字人
InVideo
AI小聚
ZeroGPT
Aiundetect
WordfixerBot
Ai Sofiya
WriteAI.Tech
Cowriter
Seenapse AI
CreativAI
时间:2025-02-28
时间:2025-02-27
网站地图
Stable Video Diffusion
以下是官方的介绍:
我们今天发布了稳定视频扩散(Stable Video Diffusion),这是我们基于图像模型稳定扩散(Stable Diffusion)推出的第一个生成式视频基础模型。
这款最先进的生成式AI视频模型现已在研究预览版中推出,它代表了我们在为各种用户创建模型的过程中迈出的重要一步。
通过这一研究版本的发布,我们已在GitHub仓库上公开了稳定视频扩散的代码,运行该模型本地所需的权重可在我们的Hugging Face页面上找到。有关该模型技术能力的更多细节可在我们的研究论文中找到。
适用于各种视频应用
我们的视频模型可以通过在多视角数据集上微调轻松地适应各种下游任务,包括从单个图像生成多视角合成。我们计划开发各种基于此基础模型并对其进行扩展的模型,类似于稳定扩散周围已经形成的生态系统。
来自我们微调过的视频模型的多视角生成示例
此外,从今天开始,您可以在此登记加入我们的等待列表,以访问全新的基于文本到视频界面的网络体验。此工具展示了稳定视频扩散在广告、教育、娱乐等多个行业中的实际应用。
性能具有竞争力
稳定视频扩散以两种图像到视频的模型形式发布,能够以每秒3至30帧的可自定义帧速率生成14和25帧。在最初的基础形式下发布时,通过外部评估,我们发现这些模型在用户偏好研究中超过了领先的封闭模型。
仅用于研究
虽然我们急切地用最新的进展更新我们的模型,并努力结合您的反馈,但我们强调,这个模型在当前阶段并不打算用于实际或商业应用。您对安全性和质量的见解和反馈对于提炼此模型以最终发布是非常重要的。
这与我们在新模式下的以前发布相呼应,我们期待与大家分享完整的发布。
一点看法
从发布的demo视频效果来看,画质上并没有runway和pika好,展示的功能也只是文生视频,至于效果来说目前还没人使用到所以也不清楚。而且好像需要A100的卡才能用,这个根本不是民用显卡的配置。
虽然它号称比runway和pika性能更高,在现在这个阶段Pika和runway已经开始卷可控性和画质了,目前的demo看不出有什么更好的点。如果加上SD的开源生态可能会不一样,但是现在它也还没说要开源?
综上所述,可以观察,但是并无惊喜。
不过AI生成视频开始卷了,也就意味着更好的产品一定在路上了。
科学家用AI开发受激拉曼纳米成像技术,分辨率可达86纳米
近期,美国波士顿大学程继新教授团队基于人工智能和先进仪器技术,提出了一种新型振动纳米成像技术——超灵敏加权受激拉曼散射(URV-SRS,ultrasensitive reweighted visible stimulated Raman scattering)。
提升AI代理可靠性 英伟达推出容器化微服务Inference Microservices
英伟达周四推出用于加速生成式AI模型的部署的容器化微服务Nvidia Inference Microservices(NIM),希望帮助企业提高人工智能代理的信任、安全和可靠性。 英伟达在一篇博客中表示,人工智能代理是一项正在迅
快与慢:AI 采用速度的真实影响
对于生成式 AI 的采用,采取谨慎和缓慢的方式有很多原因。技术变化迅速,在错误的平台上投入大量资金可能会造成巨大损失。 生成式 AI 仍存在准确性和安全性问题,版权问题也尚未在法庭上得到解决,这些都可能
AI时代我们需要什么样的教育?
党的二十届三中全会《中共中央关于进一步全面深化改革推进中国式现代化的决定》指出:“加快建设高质量教育体系,统筹推进育人方式、办学模式、管理体制、保障机制改革”。当前,一个以AI为引领的新科技革命浪潮正
神州数码加速AI应用落地 DC·AI生态创新中心启幕
2025年,神州数码开始加速AI应用产业落地。 1月15日,由神州数码携手生态伙伴共同打造的DC·AI生态创新中心正式启幕。该中心位于深圳湾超总基地神州数码国际创新中心37层,面积1000平方米,是集品牌展示和体验
委员谈AI+教育:不怕学生用得多,怕他们不会用
“我们现在不是怕他们(ai)用得太多,反而是怕他们用得太少,不会跟上时代步伐。我们希望人人都能用起来,但是需要安全合规。”1月15日,上海市政协委员、同济大学国豪书院副院长任捷接受澎湃新闻采访时表示,要支
万彩AI写作
Opus.Ai
Kaiber.ai
Akool
AutoPod
DreamAvatar | 美图AI数字人
InVideo
AI小聚
ZeroGPT
Aiundetect
WordfixerBot
Ai Sofiya
WriteAI.Tech
Cowriter
Seenapse AI
CreativAI
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-27
时间:2025-02-27
时间:2025-02-27
时间:2025-02-27
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-28
时间:2025-02-27
时间:2025-02-27
时间:2025-02-27
时间:2025-02-27