物理界也有GPT了科学家训练出通用物理模型科学家正在尝试打造一个“通用物理模型”

量子位看科技 2025-09-19 16:25:32

物理界也有GPT了科学家训练出通用物理模型

科学家正在尝试打造一个“通用物理模型”(像GPT一样的基础模型),但用来模拟现实世界的物理系统。他们做出的原型叫GPhyT,可以看作是物理界的预训练大模型。

它的目标不是精通某一种特定物理任务,而是能“看懂”各种力学系统的泛化能力,不用因为换了问题就重训一遍。

简单说下它怎么做的:

- 模型核心叫“神经微分器”,输入一段时间序列,比如速度、温度、压力,预测下一刻的状态变化;

- 使用时空统一建模的Transformer,能处理像涡流、冲击波这样时空耦合强的现象;

- 最后用数值积分(欧拉法)把预测的时间变化转成未来状态。

模拟数据这块,训练就用了1.8TB,涵盖各种类型:

- 流体力学(比如不可压缩流、热对流)

- 多相流(比如液体遇到固体障碍物)

- 热传导(比如热量在不同物质间的交换)

为了让GPT-style的模型能“悟性好”,团队还做了一些泛化设计:

- 在不同时间间隔上训练,逼模型学会“自己推时间单位”;

- 不同数据用不同方式归一化,防止模型记数据而不是物理规律。

效果方面,对比试验里,GPhyT比两个强模型FNO和UNet表现都更好,平均误差分别降了5倍和29倍。

零样本泛化能力:比如训练时从来没见过“超音速绕障流”,但只看环境数据,GPhyT就能模拟出弓形激波——这和语言模型遇新题能答题有异曲同工之妙。

模型还能做长时间推演,例如连续预测了50个时间步,在一些混沌系统上(像剪切流、多相流)略有误差,但大结构还是稳的。

不过它还远称不上完美。当前GPhyT只在2D平面上工作,未来需要扩展到3D;不少经典物理学科,比如力学或化学还没覆盖;长时间模拟还容易累计误差;而且它适应不了现实中多变的网格分辨率。

整体来看,这是机器学习冲进物理领域的一次野心尝试:想用一个足够通用的神经网络,把写了几十年的物理方程统统打包。

它离替代一切物理仿真器还有些距离,但也确实向通用物理引擎迈了一步。

感兴趣的小伙伴可以点击:github.com/FloWsnr/General-Physics-Transformer

0 阅读:0
量子位看科技

量子位看科技

感谢大家的关注