理想AD 的VLA 为啥能在 OrinX 上跑通
做了很多工程的的细节
一个是去掉了OrinX 用网关的通讯方式,用更快方式让两个OrinX 可以一起跑更大的模型【其实这个描述也不完全对,配合的是VLA LLM 的那个MOE ,只激活部分的参量】
这个是底层的优化
另一个是在信息感知编码过程中做了很多讨巧的细节,比如说针对不同感知视角的信息进行不同程度的压缩,这也是现阶段车载平台算力受限导致。不得不的操作
最后一个事把部分的长的思维分解放在了云端
大雨老师已经卡出来,基于LLM注意力溢出的场景体验了。
换句话说就是类似Agent 上下文太长突然失忆了
最近真的太忙了[苦涩]