你有没有在 Seedance 2.0 里输过「一个女孩在街上走」,然后生成了一段毫无运镜、像素级 PPT 的东西?
问题不在工具,在提示词。准确说,在两件事上:结构和运镜。
结构决定视频「能不能看」,运镜决定视频「好不好看」。大多数人两样都缺。这篇把两个问题一次解决。
大多数人用 AI 视频工具的方式是:脑子里有个模糊画面 → 用自然语言描述 → 祈祷 AI 理解你。
结果通常是:画面静止、角色僵硬、镜头不动、转场生硬。不是 Seedance 2.0 不行,是你的提示词里缺了太多东西——运镜类型、镜头切换逻辑、光线氛围、特效节奏。这些术语你可能听都没听过,更别说准确使用。
AI 视频的质量,70% 取决于运镜描述,而不是场景描述。 你写「A girl walking in the forest」,出来的是监控录像;你写「A girl walking in the forest, Smooth Dolly Follow, golden hour lighting」,出来的才叫视频。
场景是骨架,运镜才是灵魂。
@leslieyu0 公开了一个提示词模板,结构大致是这样的:
看起来像一份分镜脚本的骨架。它把一个视频该有的要素全锁定了:多镜头结构、运镜变化、情绪节奏、风格统一。
你不需要懂这些术语。把模板丢给 ChatGPT、Gemini 或 Kimi,告诉它你想要什么风格、什么主角、什么氛围,AI 会帮你把每个槽位填满专业词汇。比如你说「赛博朋克风格,银发机械姬,5秒,视觉炸裂」,AI 会自动补上「极速推拉」「光子粒子流」「故障转场」这些你手写想不到的东西。
这套模板解决了「从 0 到能用」的问题。但模板里有个关键槽位——【镜头类型】——大多数人填不好,因为根本不知道有哪些选项。
这就需要第二层。
@yanhua1010 结合 @yyyole 的运镜术语体

暂无评论