云霞资讯网

前两天,我朋友把刷到的某条视频截图发我,问我:这说这是真拍的还是AI做的?我看了

前两天,我朋友把刷到的某条视频截图发我,问我:这说这是真拍的还是AI做的?

我看了一眼,说:AI的。

他不信,说:你从哪看出来的?

我其实也说不太清楚,可能是画面太顺了,光太均匀了,人的皮肤太完美了,但要让我具体指出哪里有破绽,也很难说明白。

我们曾经嘲笑中老年人分辨不出AI生成的视频,但现在这条线,正在悄悄往我们这边挪。

1

你上次被AI视频骗是什么时候?

如果你是两三年前就开始关注AI视频生成工具的人,你一定记得那时候的画面有多生硬,人物的手指会长出六根,背景会莫名其妙地融化。

那时候,随便一个人都能指出来:这是AI做的,你看那个脸,那个手,那个运动方式,完全不对。

我们的大脑在看一个画面的时候,其实一直在做非常底层的判断,这套判断系统,是我们从出生开始就在训练的。

水怎么流,头发怎么飘,一个人在讲话的时候嘴角和眼睛是怎么配合的。这些你从来没有刻意去学,但大脑全都记住了。

所以AI视频最难骗过的,就是普通观众。

2

我最近在测试 拍我AI发布的 V6,测下来感受最深的不是某一个具体功能,而是一种整体的变化。

以前用AI工具生成人物近景,我会下意识地去找那些穿帮的地方,比如皮肤太光滑,眼神焦距有点空,表情换的时候有一种卡顿感,像是两张图叠在一起而不是一个真实的人在动。

V6 的人物生成效果非常自然,比如我人物揉眼睛的片段,用的是近景。

以前这种镜头最容易露馅,因为手和脸要同时出现,AI处理不好两者的关系,手指的形状会出问题,接触的地方会有穿模或者模糊。

但可以看下V6生成的效果,手指按压眼窝的时候皮肤有轻微形变,眼皮受压的那种颤动,也是对的。

还有皮肤的光泽,不是塑料那种高光,是那种皮脂自然分泌之后的温润感,鼻尖和额头的反光是有分量的。

3

物理规律这块也有明显的进步,但我觉得这个进步更难被人注意到,恰恰是因为做对了就应该是透明的。

好的物理模拟,你不会意识到它存在。你只是觉得,这个画面看起来很正常,很真实。一旦你开始注意到物理效果,往往是因为它出问题了。

比如用拍我V6生成一条水下的视频。

以前AI做水下场景,水太干净,像玻璃,光是静止的,看着就知道是假的。

这条不一样,光束穿进来,在海底投下的光斑是在动的,跟着水面的波纹一起闪。

水里有悬浮的细小颗粒,漂在光束里,鱼群游动的方式也不整齐,不是集群算法那种所有鱼同时转弯,是有快有慢,有些甚至在各自游。

镜头本身也是漂着的,带着水流的那种浮动,不是三脚架锁死的视角。这一点很多人不会说出来,但大脑会感受到。

4

还有动画风格的短片,一只小鸡察觉到门后有什么东西,走过去,推开,发现是一只比它大十倍的黑熊。

这条里,小鸡和熊是同一种渲染语言,靠近脸的时候毛的质感是对的,切到全景之后比例和空间也没有乱。

镜头的节奏配合了情绪,前半段慢,小鸡在找,后半段快,熊出现之后的剪辑跟着加速了。

这种东西原本需要导演去设计,现在AI在生成的时候就想好了。

还有一条无人机穿越城市建筑的视频,镜头从楼群外面穿进去,穿过玻璃幕墙,进到室内。

这种镜头如果真拍,需要专业的FPV设备、飞手、场地许可,室内部分还得另外布光。

AI生成的这条,室外阳光打在玻璃上的反射,穿进室内之后光线切换的过渡,室内办公室的空间布局,是一套逻辑里的东西,没有割裂感。

我们再看一下这个case,展示了 AI 在非人类视角生成上的巨大突破。

它不仅仅是一个飞行镜头,更是一次感官模拟。通过鱼眼畸变、高频抖动、尺度反差和光影叙事,AI 成功地将观众塞进了一只蜜蜂的身体里,体验了一场微观世界的冒险。

5

我不太爱那种大而化之地说"AI要改变一切"的表达方式。

但AI视频这一波,我觉得有点不一样的,不是它改变了什么行业,而是它在改变普通人和视频内容之间的关系。

以前视频是专业人做的东西,普通人是消费者。现在这条线在模糊。

不是每个人都会去认真用这些工具,但每个人都会开始用肉眼感受到视频生产成本在降低,这个感受积累到一定程度,会改变我们对内容的期待,对创作者的定义,甚至对真实和虚构的边界感知。

所以你现在刷到这类视频,第一反应是:A. 肯定是真的 B. 可能是AI C. 懒得判断,好看就行。

来投个票:你觉得再过多久,AI视频会让“真实拍摄”变成小众标签?