-
字节跳动进军视频AI 豆包视频生成大模型发布
豆包视频生成模型发布现场。江佳玲摄 人民网深圳9月24日电(江佳玲)9月24日,字节跳动旗下火山引擎在深圳举办AI创新巡展,现场发布豆包视频生成-PixelDance、豆包视频生成-Seaweed两款大模型,面向企业市场开启邀测。 据介绍,此前视频生成模型大多只能完成简单指令。新款豆包视频生成模型能让视频在大动态与运镜中自由切换,拥有变焦、环绕、目标跟随等多镜头语言能力,而且具备专业级光影布局和色…- 6.6k
-
阿里通义将发布AI视频生成大模型,支持文生视频、图生视频
阿里通义将在 2024 云栖大会(9 月 19 日至 9 月 21 日)期间发布视频生成大模型,目前通义App 频道和通义万相 PC 端已上线“视频生成”入口,仅支持用户预约,但未开放使用。 页面内容显示,全新发布的视频生成大模型是由通义实验室自主研发,包含“文生视频”和“图生视频”两种创作模式。 预约成功后,阿里通义会在用户获得使用资格时进行通知,并赠送给用户 66 灵感值(有效期 30 天)。…- 3.8k
-
商汤科技推出Vimi视频生成大模型 C端应用Vimi相机开放内测
在2024年世界人工智能大会(WAIC)上,商汤科技推出的可控人物视频生成大模型——Vimi。Vimi模型利用商汤先进的大模型技术,能够通过单张照片生成与目标动作一致的人物视频,实现精准的表情和肢体控制。该模型支持多种驱动方式,包括视频、动画、声音和文字,具有多年积累的面部跟踪技术和对细节的精确控制能力,能够生成高一致性、光影和谐的视频内容。 Vimi的稳定性尤为突出,能够生成长达1分钟以上的单镜…- 9.8k
-
一张照片创造 1 分钟人物视频,商汤发布首个“可控”人物视频生成大模型 Vimi
商汤科技在世界人工智能大会(WAIC)上发布了首个“可控”人物视频生成大模型 Vimi,通过一张任意风格的照片就能生成和目标动作一致的人物类视频,并支持多种驱动方式,可通过已有人物视频、动画、声音、文字等多种元素进行驱动。 与图片表情控制类技术只能控制头部表情动作不同,商汤称 Vimi 不但可以实现精准的人物表情控制,还可实现在半身区域内控制照片中人物的自然肢体变化,并自动生成与人物相符的头发、服…- 2.6k
-
号称效果对标 Sora:快手视频生成大模型“可灵”开放邀测
快手“可灵”视频生成大模型正式上线。官方表示,可灵大模型为快手 AI 团队自研,其采用 Sora 相似的技术路线,号称结合多项自研技术创新、效果对标 Sora。 据介绍,可灵大模型具备如下优势: 可生成大幅度的合理运动 可模拟物理世界特性 具备强大概念组合能力、想象力 生成视频分辨率为 1080p,时长 2 分钟(帧率 30fps),支持自由调整宽高比 从快手方面获悉,可灵大模型已在快影 App …- 7.6k
❯
搜索
扫码打开当前页
返回顶部
幸运之星即将降临……
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠
-
¥優惠使用時效:无法使用使用時效:
之前
使用時效:预期有效优惠编号:×
没有优惠可用!