前两天,我朋友把刷到的某条视频截图发我,问我:这说这是真拍的还是AI做的?
我看了一眼,说:AI的。
他不信,说:你从哪看出来的?
我其实也说不太清楚,可能是画面太顺了,光太均匀了,人的皮肤太完美了,但要让我具体指出哪里有破绽,也很难说明白。
我们曾经嘲笑中老年人分辨不出AI生成的视频,但现在这条线,正在悄悄往我们这边挪。
1
你上次被AI视频骗是什么时候?
如果你是两三年前就开始关注AI视频生成工具的人,你一定记得那时候的画面有多生硬,人物的手指会长出六根,背景会莫名其妙地融化。
那时候,随便一个人都能指出来:这是AI做的,你看那个脸,那个手,那个运动方式,完全不对。
我们的大脑在看一个画面的时候,其实一直在做非常底层的判断,这套判断系统,是我们从出生开始就在训练的。
水怎么流,头发怎么飘,一个人在讲话的时候嘴角和眼睛是怎么配合的。这些你从来没有刻意去学,但大脑全都记住了。
所以AI视频最难骗过的,就是普通观众。
2
我最近在测试 拍我AI发布的 V6,测下来感受最深的不是某一个具体功能,而是一种整体的变化。
以前用AI工具生成人物近景,我会下意识地去找那些穿帮的地方,比如皮肤太光滑,眼神焦距有点空,表情换的时候有一种卡顿感,像是两张图叠在一起而不是一个真实的人在动。
V6 的人物生成效果非常自然,比如我人物揉眼睛的片段,用的是近景。
以前这种镜头最容易露馅,因为手和脸要同时出现,AI处理不好两者的关系,手指的形状会出问题,接触的地方会有穿模或者模糊。
但可以看下V6生成的效果,手指按压眼窝的时候皮肤有轻微形变,眼皮受压的那种颤动,也是对的。
还有皮肤的光泽,不是塑料那种高光,是那种皮脂自然分泌之后的温润感,鼻尖和额头的反光是有分量的。
3
物理规律这块也有明显的进步,但我觉得这个进步更难被人注意到,恰恰是因为做对了就应该是透明的。
好的物理模拟,你不会意识到它存在。你只是觉得,这个画面看起来很正常,很真实。一旦你开始注意到物理效果,往往是因为它出问题了。
比如用拍我V6生成一条水下的视频。
以前AI做水下场景,水太干净,像玻璃,光是静止的,看着就知道是假的。
这条不一样,光束穿进来,在海底投下的光斑是在动的,跟着水面的波纹一起闪。
水里有悬浮的细小颗粒,漂在光束里,鱼群游动的方式也不整齐,不是集群算法那种所有鱼同时转弯,是有快有慢,有些甚至在各自游。
镜头本身也是漂着的,带着水流的那种浮动,不是三脚架锁死的视角。这一点很多人不会说出来,但大脑会感受到。
4
还有动画风格的短片,一只小鸡察觉到门后有什么东西,走过去,推开,发现是一只比它大十倍的黑熊。
这条里,小鸡和熊是同一种渲染语言,靠近脸的时候毛的质感是对的,切到全景之后比例和空间也没有乱。
镜头的节奏配合了情绪,前半段慢,小鸡在找,后半段快,熊出现之后的剪辑跟着加速了。
这种东西原本需要导演去设计,现在AI在生成的时候就想好了。
还有一条无人机穿越城市建筑的视频,镜头从楼群外面穿进去,穿过玻璃幕墙,进到室内。
这种镜头如果真拍,需要专业的FPV设备、飞手、场地许可,室内部分还得另外布光。
AI生成的这条,室外阳光打在玻璃上的反射,穿进室内之后光线切换的过渡,室内办公室的空间布局,是一套逻辑里的东西,没有割裂感。
我们再看一下这个case,展示了 AI 在非人类视角生成上的巨大突破。
它不仅仅是一个飞行镜头,更是一次感官模拟。通过鱼眼畸变、高频抖动、尺度反差和光影叙事,AI 成功地将观众塞进了一只蜜蜂的身体里,体验了一场微观世界的冒险。
5
我不太爱那种大而化之地说"AI要改变一切"的表达方式。
但AI视频这一波,我觉得有点不一样的,不是它改变了什么行业,而是它在改变普通人和视频内容之间的关系。
以前视频是专业人做的东西,普通人是消费者。现在这条线在模糊。
不是每个人都会去认真用这些工具,但每个人都会开始用肉眼感受到视频生产成本在降低,这个感受积累到一定程度,会改变我们对内容的期待,对创作者的定义,甚至对真实和虚构的边界感知。
所以你现在刷到这类视频,第一反应是:A. 肯定是真的 B. 可能是AI C. 懒得判断,好看就行。
来投个票:你觉得再过多久,AI视频会让“真实拍摄”变成小众标签?