云霞育儿网

ScaleAI 创始人 Alexandr Wang 谈辍学创业、中美竞争以及黑暗森林边界

ScaleAI创始人AlexandrWang在访谈中分享了他对脑机融合、AI发展、中美竞争等话题的看法,认为脑机融合是人类避免被AI边缘化的唯一方式,同时探讨了相关的风险与挑战。

上周,外媒报道Meta正与数据基础设施平台ScaleAI洽谈战略入股事宜,计划投入约140亿美元,并邀请其创始人AlexandrWang加入公司,统筹未来的超级智能战略。

这笔交易一旦落地,不仅将成为Meta有史以来最大规模的对外投资之一,也标志着这家社交巨头试图通过外部重构,在AI竞赛中重新找回主导权。

在这场深度合作推进的同时,Wang本人也在《ShawnRyanShow》三小时访谈中首次系统公开了他对于AI演化路径、脑机融合、国家级博弈以及文明未来的诸多判断。

他指出,人类的生物演化正在放缓,而AI正以指数级速度突破。若要避免被彻底边缘化,唯一可行的路径,是将人脑直接接入AI与互联网,构建出新型智能协同系统。但正因为潜能巨大,风险也更加深远——他将脑机接口视为意识攻击面大规模扩展的起点。

一旦大脑成为平台,操控与攻击的代价将比以往任何设备更低。从广告注入、记忆篡改,到情绪操控与信念重构,技术正在穿透意识的最后边界。Neuralink及相关企业正从感知接入转向意志调控,意味着“认知完整性”本身也将成为需要防守的对象。

尽管如此,他仍坚持探索。他相信,脑机融合将开启“思考即获得”的时代,让人类第一次触碰百科全书级的常识结构。只是那之后,世界将不再是现在这个样子,人类的主权也不再只属于肉体。

MIT辍学到YC版“饥饿游戏”

Wang回溯了自己从高中退学、进入Quora实习、短暂就读MIT,到19岁创办ScaleAI的完整路径。

他坦言,高中尚未毕业便决定休学实习,是因为当时已对机器学习产生极大兴趣。那时虽然“AI”还不流行,但他们已在用算法优化社交平台的信息流排序,思考如何提升用户粘性与参与度。

在十六、十七岁时便能独立完成部分机器学习工程任务,这一能力使他获得同行认可,但他始终认为自己的“优势”并非天赋,而是极早开始的高强度专注训练。

他强调,真正的差异不是智商,而是能否长期深耕某一领域并持续全力以赴地投入。从数学、物理到计算机与机器学习,他始终保持高强度的学习节奏。

他相信“用力过猛总比不够用力要好”,持续性的高密度投入,是快速成长的底层逻辑。在MIT时,他选修了大量AI相关课程,甚至挑战难度极高的机器学习课程,并迅速在课堂中脱颖而出。正是在这一阶段,他敏锐察觉到一个关键产业空白:AI模型的进化严重受限于高质量训练数据的缺乏。

一次失败的“冰箱监控项目”成为转折点。即使模型设计合理,若无海量、标注精良的数据支撑,AI系统就无法达到实用水平。

这次顿悟直接催生了创办ScaleAI的决心。他明确意识到,AI不只是学术议题,而是整个产业结构的重构工程,而高质量数据将成为最稀缺的基础设施之一。因此,他决定从MIT再次退学,在19岁那年飞往旧金山,全身心投入创业。

他随即加入了被誉为“创业者版饥饿游戏”的YC加速器计划。在那里,他与数百家初创企业同台竞争,在数月内迅速构建产品、筹备融资。最终他成功通过DemoDay拿到投资,为ScaleAI的正式启航奠定了基础。他从未将退学视为逃避,而是出于对现实缺口的清晰判断:既然已经看见问题,就必须马上解决。他直言,“当你意识到时代的大门正在打开,你必须立刻冲进去。”

Scale最初的项目并不宏大,主要是帮电商平台识别非法T恤图案、优化家具搜索引擎等看似琐碎的任务。但正是这些“低调”的项目,成为团队训练产品、打磨执行力的起点。

三个月后,公司转向自动驾驶领域,发展才正式起飞。他们与通用、丰田、Waymo等一线车厂建立合作,提供高精度数据处理服务。自动驾驶对数据质量要求极高,尤其是多传感器融合(sensorfusion)场景中,系统需准确判断“这是车还是阴影”“是一人还是两人”并将全部注意力集中在这些复杂场景所需的数据标注质量上,由此脱颖而出。

他坦言,早期能否生存下来,很大程度上取决于是否能获得优质投资者支持。在YC加速器期间,他迅速结识联合创始人,组建团队,从一间旧金山的公寓起步,过着白天见客户、晚上写代码、凌晨调模型的不眠生活。没有资金、没有资源,只靠执行力、冷启动邮件,甚至守在客户公司门口等待机会,只为搭上一句话。

第一个关键客户正是通过这种方式争取到的。对方是一家自动驾驶初创公司,被收购后,Scale顺势成为新母公司的数据标注供应商,借此切入更广阔的市场。随着自动驾驶技术需求扩大,更多客户滚雪球般接踵而至,带动公司快速增长。

创业初期没有明确分工,创始人必须“什么都做”才能活下来。基础设施靠自己搭建,客服、销售、产品验证也都亲力亲为。他在过程中迅速学习组织管理与产品节奏,把技术、业务与团队文化整合为一个整体视角。

与此同时,他也形成了对领导力的清晰认知:领导不是天生的,而是在持续高压环境下被“逼”出来的能力。每天都在处理决策、团队、运营等各种问题,必须不断试错、不断设目标、调节节奏,否则公司就会停滞不前。YC的导师制度与创业社群为他提供了宝贵的早期反馈机制。

公司初具规模后,他吸引到Accel等老牌机构投资。更重要的是,他以信任关系为基础,招募了第一批核心工程师——大多数是他在MIT结识的同龄人。彼时他没有任何名气或信用背书,只能靠彼此之间的理解与默契来建立团队。这批人有的退学加入,有的毕业就入职,成为Scale技术架构的中坚力量。

商业知识方面,他没有接受系统培训,而是在与客户的反复磨合中逐步学会。他边写代码边学销售、边发融资邮件边试着搭建商业模型。“没有人告诉你应该怎么做,但你每天都得往前走。”

产品最初版本完全由Wang独立开发。他将项目上传至创业项目发布平台,没想到在Twitter创业圈小范围传播,引发最初的市场关注。他靠朋友转发积累曝光,“早期真的就是靠‘跪求’起家的”。

起初项目名为ScaleAPI,仅因该域名尚未被注册。一年半后正式更名为ScaleAI。尽管公司早期形态极为粗糙,但自动驾驶的机会窗口让它迅速进入科技巨头的视野。Waymo成为早期客户之一,目前已在旧金山、洛杉矶、凤凰城等地部署无人出租车,并不断扩大规模。

公司最初增长缓慢:第一年仅1至3人,第二年扩张至15人左右,第三年达百人规模,随后才迎来爆发式增长,扩展至约1100人。成立三年后,公司开始接触国防项目,并最终成为美国国防部的数据合作方。

中美AI博弈拐点

在CognitionAI的愿景里,Devin并不只是一个能补全代码的助手,而是一个可以“思考、调试和修正”的完整agent体系统。这种从底层架构出发的设计理念,来自ScottWu多年数学与编程竞赛的训练。他将许多技术挑战比喻为动态环境下的“路径规划问题”——类似某些信息学奥赛题:你需要在不断变化的网络中,持续寻找最优路径,应对限制、反复求解,并保持高效。

Wang指出,中国早在2018年就已启动全国性的AI国家战略,他将当前中美竞争格局概括为三个维度:

能源,中国遥遥领先;

芯片,中国落后但在追赶;

数据,中国显著领先。

当前美国唯一仍处于明显领先的位置是芯片领域。英伟达依然是全球最强大的AI芯片厂商,其生态系统构建了对全球算力能力的垄断式优势。但这一领先正在被削弱。华为的芯片性能已逼近英伟达上一代产品,差距在快速缩小,技术代差正被追平。他警告,如果趋势持续,美国在高端芯片上的绝对优势可能会在数年内被进一步削弱。

目前,中国正面临严重的人口老龄化问题。长期的低生育率与老龄人口的快速增长,将对其工业与整体战略活力造成持续削弱,而这类趋势一旦发生转折,回调周期极为漫长。从“能力巅峰”视角来看,现阶段或为关键窗口期。

其次,中国制造体系已积累巨大优势。工业机器人部署数量位居全球首位,自动化率、设备自研能力以及产业上下游整合度均远超其他国家。当前的制造能力正处在一个难以复制的峰值阶段,这使得任何依赖硬件的技术行动都更具可行性。

芯片问题是整个结构性博弈的核心。目前全球约95%的高端芯片产能集中于台湾,一旦出现地缘风险,将对AI基础能力构成根本性冲击。

如果未来几年内发生芯片产能转移、封锁或中断,美国在AI层面将难以置身事外。他认为,为确保稳定,美国必须构建多层次战略优势:

在AI领域维持全球领先地位

在关键科技与能源链条上建立替代能力

构建清晰可见的经济制衡机制,使任何风险行为都面临巨大代价

任何战略稳定前提,都是降低误判与提升代价感知。一旦对手误判风险可控或收益可期,冲突边界就将被不断测试。Wang同时承认,在制造、造船、人力资源等传统工业维度,中国已构成不可忽视的系统能力。美国若无法强化自身供应链弹性、技术执行力与政策效率,传统优势将被逐步侵蚀。

台积电在台湾的晶圆厂已投入数千亿美元,包含大量定制化设备与复杂工艺系统。即便在美国重建同等能力,仅硬件投资就需数千亿美元。更复杂的是人才体系。芯片制造不仅是设备,更是流程、经验与协同的系统工程。若无法将原有团队迁移,美国就必须从零重新训练,这将是一个耗时巨大的过程。

即便台积电已在亚利桑那州建设工厂,推进也面临诸多阻碍。包括电力不稳、审批流程复杂、本地技术工人熟练度不足等问题,均严重影响项目效率。

从企业自身视角出发,台积电并无迫切动机推动产能全面转移。若迁移完成,其在全球地缘博弈中的战略重要性也将下降。换言之,保留产能在本地,反而是一种安全策略。

即使当前政策明令禁止先进芯片直接出口至特定地区,部分企业仍可通过“白手套公司”达成间接采购。注册于第三国的代理企业,以非关联身份完成下单与物流转运,最终让先进制程芯片流入受限市场。这使得全球芯片管控体系在执行层面存在明显漏洞。

围绕芯片、算法、数据与算力基础设施的全球竞赛,已逐步演化为一种结构性博弈模式。他警告,未来可能出现某种“AI级灾难事件”——例如电网被攻击、病原体被滥用等极端情形,将迫使全球重新定义AI治理框架。

在此之前,全球必须正视AI作为通用能力带来的治理缺口。AI不应成为攻击工具,而应服务于经济发展、社会治理与人类协作。在这场全方位竞赛中,美国自身也面临严重掣肘——电力瓶颈、监管冗余、审批效率低、基础设施短缺等问题,正在系统性拖慢AI基础设施建设节奏。

他强调,这是一场系统工程,不能有明显短板。最危险的局面,是对手以全国之力推动AI计划,并在多环节形成代差优势,最终引发能力错位。虽然目前焦点集中在中美,但他提醒:全球多极结构也正快速成型。

例如,俄罗斯在网络基础设施与技术布局上具备突出的整合能力;中东地区则掌握庞大资本与能源资源;印度凭借工程文化与技术劳动力储备,有望成为未来关键参与者;而欧洲虽起步稍晚,也在加速建设统一的数据与算力战略体系。

至于“AI是否会最终摆脱人类控制”的问题,他认为仍属可控范畴。前提是不能让关键系统完全依赖AI自动决策,必须在人类监督框架内运作,AI不应成为权力本身,而应是一种可控能力,为社会与个体赋能,而非夺权。这也将是全球治理下一阶段的核心命题。

脑机接口、意识工程与永生

AlexandrWang表示,他对脑机接口的发展始终抱有强烈兴趣,甚至将是否生育的时间安排与这项技术的成熟度挂钩。他指出,人的大脑在出生后前七年具有最高的神经可塑性,远超生命中任何其他阶段。如果在这一时期植入脑机接口,孩子将可能以近似本能的方式习得新能力,将其深度融合进神经结构中,这是成年人几乎无法实现的。因此,他更愿意等技术成熟后再考虑育儿。

他对脑机接口持务实态度,核心聚焦仍是AI。在他看来,AI正以指数级速度演化,而人类的生物进化几乎停滞。自然选择需要几百万年,而AI每年都在突破边界。因此他认为,人类若要维持竞争力,最终必须发展出一种机制,将大脑与AI相连,与人工智能系统乃至整个互联网深度融合,这将成为维持人类重要性和生存能力的必要手段。

但风险同样清晰。他警示说,一旦有企业可以侵入大脑,就可能在无意识状态下注入广告、操控消费冲动,甚至更进一步形成意志层面的操控。若这种能力被恐怖组织、敌对国家或黑客组织掌控,后果将更为严重,包括记忆窃取、思想干扰、现实感破坏等。这种“接管”实质上是对认知与行为的深度操纵,构成对意识本体的系统性威胁。

他提到,Neuralink等公司已将“意识操控”作为脑机接口发展的下一阶段目标。无论是记忆提取、意图预测,还是思想输入,相关研究已在学界与产业界形成初步共识。他强调,这些技术的使用必须极度慎重,否则可能带来人类社会结构性的后果。

在感官操控方面,相关实验也已显示技术可行性。他提到,科学家通过向猴子视觉皮层植入信号,让它“看到”不存在的图像,并据此完成任务。这表明,大脑对刺激的响应机制可以被重构甚至虚构,未来接入触觉、嗅觉甚至情绪体验的路径也已初步显现。

尽管风险严峻,他仍认为这是一条值得探索的路径。脑机连接AI后,人类可能拥有“百科全书级”的认知能力,信息检索将转化为“思考即获得”。从某种意义上看,这是一种超越人类神经生理极限的超级智能形态。但他警示,越靠近这种能力,人类也越暴露在巨大的攻击面前。

对于技术滥用,他没有回避。他指出,一旦脑机接口落地,信息输入机制将决定用户构建的“现实”版本。如果系统中植入了错误数据,例如一个被修改的宗教文本版本,那么用户所理解的世界观将被伪造与操控。他特别强调,AI数据系统的管理权必须远离极权掌控,这是信息时代自由意志的底线。

他进一步指出,当前媒体影响仍停留在“观点影响”的层级,但脑机接口一旦实现,将直接进入“信念塑造”层级。这不再是“让人看到”,而是“让人相信”。宣传机制将从今天的1或2级跳跃至9或10级,形成前所未有的认知重构。

正因如此,他多次强调监管机制的缺失。今天人类尚未解决如何监管智能手机,却必须面对能重构意识的系统。他指出,AI的力量将是移动互联网的一千倍,而现有治理结构根本未做好准备,若不吸取前一轮科技浪潮的教训,后果将不可逆。

他本人愿意植入Neuralink,但前提是两个关键层面的保障必须到位:一是具备极强的网络防御能力,防止脑部被远程入侵;二是保证意识结构在连接后不会发生深度改变。他强调,这两个条件是底线,缺一不可。

谈及意识上传,他认为那才是通往“永生”的正解。他指出,延长寿命、对抗衰老最终指向一个问题:如何将意识从肉体解耦,并迁移至更持久的载体上。在他看来,Neuralink就是这一演化路径的第一阶段。

未来路径包括两种方向:一是上传意识进入高度真实反馈的虚拟世界,获得永久在线的存在状态;二是将意识下载至人形机器人,在物理世界继续以类人形态存在。

他也坦言,自己对“模拟宇宙”理论的接受程度在改变。过去他对Elon提出的假设持怀疑态度,但看到Sora等AI模型生成的视频已接近“伪现实”时,他开始怀疑人类现实是否本身就是某种模拟系统的一部分。他的逻辑是:如果几十年内人类就能生成无限逼真的仿真世界,那么我们今天所在的世界,很可能也就是先行文明创造出的副本之一。

他认为,“意识”本身可能并不如人类想象中那般神秘或独特。如果未来能构建出具备主观体验的AI模型,“意识工程”将成为现实,意识将成为可以设计、转移、备份与延续的工程系统,而不再只是哲学命题。

从智能飞轮到黑暗森林

在被问到“AI是否是下一个石油”时,Wang给出了双重判断。一方面,AI将成为未来国家经济、科研与军事体系的关键基础设施,就如同石油之于工业时代。

谁能率先部署强大的AI系统,谁就能大幅提升科研效率、推动GDP增长、加速自动化转型。另一方面,AI又不同于石油这类有限资源,它具备“自我递增”的飞轮效应:AI越强,国家能力越强,反过来又能加速AI的演进,实现指数式增长。

他指出,AI的底层由三大支柱构成:算法、算力与数据。算法是智能逻辑的核心,需要持续的科研突破;算力依赖于电力、芯片与冷却系统构建高密度计算能力;而数据则是训练模型的“养分”,直接决定AI的知识边界与推理精度。其中,数据与石油最为相似,但他强调,真正的制胜关键,是三者能否协同运作,驱动国家级的智能飞轮。

当前的竞争焦点已从模型能力转向“算力密度”。他直言,问题不再是有没有AI,而是是否能并行运行成千上万个强大实例。

如果某一方能同时部署10个、100个,甚至一亿个具备网络攻击能力的AI模型,其战斗力将远超传统军事系统。这背后依赖于数据中心部署、电力输送能力、芯片库存和数据更新频率的支撑。

围绕这一底层设施的抢夺战已经打响。xAI(Elon的公司)、OpenAI、Google、Amazon、Meta等全球科技巨头纷纷在过去一年内布局未来5~6年的算力地图,争夺数据中心选址、电力通道与芯片供应链。这场竞争不仅是商业战,更是关于数据主权和算力支配权的全球战争。

与此同时,AI也带来对司法系统的新威胁。“深度伪造”能力正迅速突破法律认知的临界点。随着模型能力增强,图像与视频的合成效果将变得无法辨别,而现有法律体系对此几乎毫无准备。

当伪造证据可以以假乱真,“客观影像”将失去证据意义。虽然当前AI生成内容仍能被识别,但技术的演进速度远超制度反应。

他提出两条应对路径:第一,公众必须建立强大的虚假识别能力,尤其年轻一代需要将信息鉴别作为生存技能;第二,法律必须迅速确立边界,明确提交AI合成证据的行为属于严重作伪证,甚至应构成刑事犯罪。通过制度性的惩罚机制,才能建立有效的“负激励”框架,防止AI被用于蓄意误导司法。

但相比个体操控,更危险的是机构级别的权力使用。Wang强调,AI本质上并非去中心化,它实际上放大了已有权力结构的控制能力。当拥有算力的主体可以用AI生成高仿信息,他们就能大规模操纵叙事,制造可信的音视频材料,将“真实性”本身变成一种可被垄断的资源。他警告,这类AI驱动的信息武器已在选举与政治事件中初露端倪。

唯一的对策,是建立强有力的可验证机制,重建对内容与发布方的信任链。尤其是在掌握AI能力的政府或大型机构中,必须以制度性透明性约束其内容生成行为,否则在真假难辨的世界里,信息本身就会演变为战争武器。

谈及外星生命话题,Wang表示高度确定。他引用“费米悖论”指出,在如此浩瀚的宇宙中,地球不太可能是唯一存在智慧生命的星球。他认为外星生命的存在几乎毋庸置疑,只是彼此之间的距离过于遥远,导致通信或观测难以实现。

进一步地,他引用“黑暗森林假说”解释为何我们尚未发现外星文明。该理论认为,一旦某个文明达到一定技术水平,其最理性的选择是保持隐匿,以避免被更高级文明发现与摧毁。在这个视角下,宇宙是一片彼此猎杀的黑暗森林,高智慧生命不发出信号,正是为了生存。

他指出,这种“隐身动机”也可能解释我们无法观测到外星存在。科技越进步,越能理解暴露位置所带来的生存风险。因此,不是外星生命不存在,而是他们选择了沉默。

人类对宇宙的认知依旧有限。太阳存在生命周期,整个太阳系的宜居性并非永恒。因此,一种被越来越多科学家讨论的设想是:生命可能在不同时期依附于不同星球存在。五十亿年前或许是火星,今天是地球,未来可能是土星的卫星。随着恒星演化,星球适居性将发生转移,生命的“轮动”并非毫无根据。