近日,美国创业加速器Y Combinator(YC)在旧金山举办首届AI新创学校(AI Startup School)并邀请多位AI产业重量级人物出席 ,包括埃隆·马斯克、OpenAI首席执行官奥特曼等。
前不久刚结束130天美国政府“政府效率部”(DOGE)特别雇员任期的马斯克,在访谈中直言不讳地评价这段经历如同一次“有趣的支线任务 ”,但其重要性在即将到来的AI革命面前相形见绌。他将政府效率部门的工作比作“清理海滩” ,而即将到来的AI则是“千英尺高的海啸” 。
修复政府就像……海滩很脏,有针头 、粪便和垃圾。但接着还有一道千英尺高的水墙,那就是AI海啸。如果一场千英尺高的海啸即将袭来 ,清理海滩有多大意义?没多大意义 。
马斯克预测数字超级智能可能在今年或明年到来,将比人类更聪明,同时未来人形机器人数量将远超人类 ,可能达人类人口的5-10倍。他更是大胆预言AI驱动的经济规模将是当前的数千倍甚至数百万倍,人类智能占比可能降至1%以下。以下为其讲话部分要点:
• 马斯克宣布已于5月28日离开DOGE,结束130天的政府特别雇员任期 ,称“回到主线任务 ”;
• 马斯克将政府效率部门工作比作“清理海滩”,而即将到来的AI则是“千英尺高的海啸”,当后者即将到来时,相比之下前者意义不大;
• 预测数字超级智能可能在今年或明年到来 ,将比人类更聪明,他强调“今年不发生,明年肯定发生 ”;
• 未来人形机器人数量将远超人类 ,数量可能是人类的5倍,甚至10倍;
• 预言AI驱动的经济规模将是当前的数千倍甚至数百万倍,推动文明迈向卡尔达肖夫II型(恒星能源级) ,人类智能占比可能降至1%以下;
• 马斯克强调“对真相的严谨坚持”是AI安全最重要的基石,强迫AI相信不真实之事极其危险;
• 回顾SpaceX早期,三连败后第四次火箭发射成功是“生死一线” ,2008年特斯拉融资在破产前最后一刻完成 。
马斯克在访谈中坦言,在华盛顿特区的经历让他深刻体会到“政治中的信号噪音糟糕透了 ”。他将在DC的工作描述为“有趣的支线任务”,但最终决定“回到主线任务——构建技术,这是我喜欢做的事”。
这位亿万富翁解释了自己离开政府职务的根本原因:“修复政府就像清理海滩——海滩很脏 ,有针头、粪便和垃圾 。但同时还有这堵千英尺高的水墙,这就是AI海啸。如果你面临千英尺高的海啸,清理海滩真的还有多重要呢?并没有那么重要。”
AI超级智能迫在眉睫:今年或明年必然到来马斯克对数字超级智能的到来时间给出了极为明确的预测 。他表示:“我认为我们已经非常接近数字超级智能了。如果今年不会发生 ,明年肯定会发生。 ”
他定义的“数字超级智能”是“在任何事情上都比任何人类都更聪明的智能”。马斯克预测,AI将推动经济规模实现指数级增长——“不是比当前经济大10倍,而是数千倍 ,甚至数百万倍 ” 。
AI将如此深刻地改变未来,其程度难以估量……假设我们没有误入歧途,AI没有消灭我们和它自己 ,那么你最终将看到的不是一个比当前经济大十倍的经济。最终,如果我们……的后代(主要是机器后代)成为卡尔达肖夫II型或更高级的文明,我们谈论的将是一个比今天经济大数千倍 ,甚至数百万倍的经济体。
他进一步阐述了人类智能在未来的地位:“在某个时刻,人类智能的百分比将变得相当小 。在某个时刻,人类智能的集合总和将不到所有智能的1%。”
xAI目前正在训练Grok 3.5马斯克在采访中透露,xAI目前正在训练Grok 3.5 ,“重点关注推理能力”。
据ZeroHedge报道,xAI正寻求43亿美元的股权融资,这将与50亿美元的债务融资相结合 ,涵盖xAI和社交媒体平台X 。
硬件竞赛:从零到十万GPU的工程奇迹马斯克用第一性原理思维解决了AI训练的硬件挑战。当供应商告诉他们需要18到24个月才能完成10万个H100 GPU的训练超级集群时,马斯克团队将其压缩到6个月。
他们租用了孟菲斯一家废弃的Electrolux工厂,通过租赁发电机解决150兆瓦的电力需求 ,租用了美国四分之一的移动冷却设备,并使用特斯拉Mega Packs来平滑训练过程中的功率变化 。马斯克甚至亲自参与布线工作,“睡在数据中心里 ”。
目前 ,该训练中心拥有15万个H100、5万个H200和3万个GB200,第二个数据中心即将上线11万个GB200。
多重未来愿景:机器人军团与星际文明马斯克预测,未来将有至少5倍于人类数量的人形机器人 ,“也许是10倍” 。他坦言曾因担心“让终结者成为现实”而在AI和机器人领域拖延,但最终意识到"无论我做不做,这都会发生。你要么是观众,要么是参与者。我宁愿做参与者。 ”
在更宏大的愿景中 ,马斯克将人类文明置于卡尔达肖夫等级的框架下 。他认为人类目前只利用了地球1-2%的能源,距离一级文明还很遥远。而成为多行星物种是扩展意识到星际的关键步骤,“极大提高文明或意识的可能寿命”。
马斯克表示 ,SpaceX计划在大约30年内向火星转移足够的物质,使火星能够自给自足,“即使来自地球的补给船停止运行 ,火星也能继续发展繁荣” 。
马斯克(Elon Musk)
我们正处于智能大爆炸的非常非常早期阶段。成为多行星物种能极大地延长文明 、意识或智能(无论是生物的还是数字的)可能的存续时间。我认为我们非常接近数字超级智能了 。如果今年没实现 ,明年肯定能成。
YC首席执行官暨总裁Garry Tan
[音乐] 让我们掌声欢迎埃隆·马斯克。[掌声] 埃隆,欢迎来到AI创业学院 。你今天能大驾光临,我们真的、真的感到无比荣幸。从SpaceX、特斯拉 、Neuralink、xAI等等说起。在你做这一切之前 ,你生命中有没有某个时刻让你觉得“我必须做出点伟大的东西”?是什么让你做出了这个决定?
马斯克(Elon Musk)
我最初并不认为自己能做出什么伟大的东西 。 我只是想尝试做些有用的东西,但我不认为我能做出什么特别伟大的东西。如果你从概率上讲,那似乎不太可能, 但我至少想试试看。
Garry Tan
你现在面对的是一屋子的人 ,他们都是技术工程师, 其中不乏一些冉冉升起的顶尖 AI 研究者。
马斯克(Elon Musk)
好吧 。我 我觉得我们应该...我更喜欢“工程师”这个词,而不是“研究员 ”。我是说 ,如果有什么基础算法的突破,那算研究,但除此之外都是工程。
Garry Tan
也许我们可以从很久以前说起 。我的意思是 ,你现在面对的是一屋子18到25岁的年轻人。 这里更偏年轻化,因为创始人群体越来越年轻了。 你能设身处地想想他们吗?当你18、19岁的时候,你知道 ,学习编程,甚至想出了Zip2的第一个点子 。对你来说,那是什么感觉?
马斯克(Elon Musk)
是的 ,早在95年,我面临一个选择:要么在斯坦福读研究生 、博士, 其实是材料科学方向,研究超级电容器 ,想用在电动车上,本质上是为了解决电动车的续航问题; 要么就投身于这个当时大多数人闻所未闻、叫做“互联网”的东西。 我和我的教授谈过,他是材料科学系的比尔·尼克斯(Bill Nix) , 我说, 我能不能休学一个学期? 因为这个(互联网)很可能会失败,然后我就得回学校继续读书。
然后他说 ,这可能是我们最后一次谈话了 。 他说对了。 所以,但我当时觉得事情大概率会失败,而不是大概率会成功。 然后在95年 ,我写了... 基本上,我认为是第一个或接近第一个的互联网地图、路线指引 、白页和黄页 。
我就自己写了那些代码,我甚至没用网页服务器。我直接读取端口 ,因为我 负担不起,也负担不起一条T1专线。 最初的办公室在帕洛阿尔托的谢尔曼大道(Sherman Avenue)。 楼下好像就有一家ISP(互联网服务提供商) 。所以我就往地板上钻了个洞, 直接拉了根网线连到ISP。
然后 你知道, 我兄弟加入了我 ,还有另一位联合创始人格雷格·库里(Greg Curry),他已经去世了。 我们当时连住的地方都负担不起,所以我们就...办公室每月租金500美元 ,我们就睡在办公室里,然后在佩奇米尔路的基督教青年会(YMCA)洗澡 。 是的,我们最后算是做了一家有点用的公司 , Zip2,在初期。 我们 我们确实开发了很多 非常非常棒的软件技术,但我们某种程度上被传统媒体公司“俘获”了 ,因为像奈特-里德报业(Knight-Ridder)、纽约时报(New York Times)这些公司既是投资者,又是客户,也在董事会里。
所以他们总是想把我们的软件用在毫无意义的地方 。 所以我想直接面向消费者。总之 ,Zip2的事就不细说了,但核心是我真的只是想在网上做点有用的事。 因为我就两个选择:要么读博士,看着别人建设互联网;要么以某种微小的方式参与建设互联网 。我当时想, 我猜我总可以先尝试 ,失败了再回去读研。 不管怎样,结果算是相当成功吧。卖了大概3亿美元,
这在当时是很大一笔钱 。现在嘛 ,我觉得一家AI初创公司的最低起拍价都得10亿美元了。 这就像...现在有太多该死的独角兽公司了,简直像一群独角兽,你知道的 ,独角兽是指估值十亿的情况。
Garry Tan
从那以后通货膨胀了,所以实际上钱贬值了不少。
马斯克
是的 。我是说,在1995年 ,你大概花5美分就能买个汉堡?好吧,没那么夸张,但我是说 ,是的,确实发生了很多通胀。 但 我是说,现在AI的热度是是相当高,就像你看到的。 你知道 ,你会看到有些公司,成立还不到一年,有时就能获得十亿甚至几十亿美元的估值 。 我猜其中一些可能会成功 ,可能也确实会成功。 但 看到其中一些估值确实让人瞠目结舌。 是的,你怎么看?我是说,
Garry Tan
我个人非常看好 。我其实非常乐观。所以 ,我认为在座的各位将会创造大量的价值,这些价值 你知道,全球应该有十亿人都在使用这些东西。 我们现在甚至还没触及表面 。我很喜欢那个互联网的故事 , 即使在那个时候,你也很像在座的各位,因为你知道 ,所有传统媒体公司的CEO们都把你视为那个懂互联网的人。而现在,对于那个不理解AI正在发生什么的广阔世界——那个企业界,或者说整个世界——他们将会指望在座的各位,理由完全一样。听起来你似乎知道...有哪些切实的教训?听起来其中之一是不要放弃董事会控制权 ,或者要非常小心,得有个真正的好律师 。
马斯克
我想我第一家初创公司最大的错误就是让传统媒体公司掌握了太多 股东和董事会控制权,这必然导致他们从传统媒体的视角看问题 , 于是他们会让你做一些对他们来说似乎合理,但用新技术来看其实根本不合理的事情。 我应该指出,我 我最初其实并没打算开公司。我...我试过去网景(Netscape)找工作。 我把简历投给了网景 。 马克·安德森(Mark Andreessen)知道这事。
但我认为他根本没看到我的简历 ,然后没人回应。所以 之后我试着在网景的大厅里晃悠,看能不能“偶遇 ”谁,但我太害羞了 ,不敢跟任何人说话 。所以我就想,天啊,这太荒谬了。那我就自己写软件 ,看看会怎样吧。所以,这其实并不是出于“我想开公司”的立场 。我只是想参与建设,你知道的,互联网的某个部分。 既然我在互联网公司找不到工作 ,那我就得创办一家互联网公司。总之,是的 。是的。我是说,AI将深刻改变未来。其程度难以估量 , 但你知道 经济呢,假设我们不走弯路,
并且 AI没有把我们和它自己都干掉 , 那么你最终会看到一个不是比当前经济规模大10倍的经济,最终,如果我们成为比如说 ,或者不管我们的未来机器后代是什么,或者说主要是机器后代,成为卡尔达肖夫等级(Kardashev Scale)2级或更高级的文明 。那我们谈论的经济规模将是今天的数千倍 ,也许是数百万倍。所以, 是的,我是说,我我当时确实有点感觉 ,你知道,当我在华盛顿特区时,
因为要清除浪费和欺诈而备受抨击 ,那算是个有趣的支线任务吧, 就支线任务而言。 但是 得回到主线任务上来了。是的,我得回到这里的主线任务上来了 。嗯 但我确实感觉到 ,你知道,有点像是...这就好比政府改革有点像...好比海滩很脏,有针头、粪便和垃圾 ,你想清理海滩,但与此同时还有一道一千英尺高的水墙——那就是AI海啸—— 如果一千英尺的海啸就要袭来,清理海滩还真的有多大意义吗?意义不大。哦 ,很高兴你回到主线任务上了。这非常重要 。
是的,回到主线任务。 建造技术,这是 我喜欢做的事。 干扰太多了 。政治的信号噪音比太糟糕了。
Garry Tan
所以, 我是说 ,我住在旧金山,所以你不用跟我说两遍(我也懂)。
马斯克
是的,华盛顿特区就像是 ,你知道的,我猜整个华盛顿都是政治,但 如果你试图建造火箭或汽车 ,或者你试图让软件能可靠地编译和运行,那么你必须 最大程度地追求真相,否则你的软件或硬件就无法工作 。 就像你不能欺骗数学 , 数学和物理是严苛的裁判。 所以我习惯于待在那种最大程度追求真相的环境中,而这肯定不是政治。 所以不管怎样,我很高兴回到 ,你知道的,科技领域 。我想我
Garry Tan
有点好奇,回到Zip2那个时刻。你当时有几亿美元,或者说你套现了几亿美元?
马斯克
我是说 ,我拿到了2000万,对吧?
Garry Tan
好吧。所以,你至少解决了钱的问题。 然后你基本上拿着它继续赌下去 ,你继续参与了X.com,后来变成了PayPal和Confinity(合并) 。
马斯克
是的。我把筹码留在了赌桌上。
Garry Tan
不是每个人都会这么做 。在座的很多人将来也得做这个决定。是什么驱使您再次投入战斗?
马斯克
我觉得对于Zip2,我们开发了非常棒的技术 ,但从未真正得到充分利用。至少在我看来,我们的技术比雅虎(Yahoo)或其他任何人都好,但被我们的客户(媒体公司)限制了 。所以我想做点不受客户约束的事 ,直接面向消费者。这就是后来的X.com/Paypal。本质上是X.com与Confinity合并,我们一起创建了Paypal 。
然后,实际上Paypal的“校友网络”(Paypal Mafia)可能创造了比21世纪其他任何公司都多的公司。Infinity和X.com合并时 ,聚集了那么多有才华的人。我只是想...我觉得在Zip2我们有点被束缚了手脚,我就想,好吧,如果我们不被束缚 ,直接面向消费者会怎样?结果就是这样 。
但是,是的,拿到Zip2那2000万美元支票时(指个人所得) ,我当时和四个室友合住,银行里大概只有一万块存款。然后这张支票居然是通过邮件寄来的(太不可思议了)。通过邮件寄来!然后我的银行余额一下子从一万变成了两千零一万(2000万 + 1万)。我就想, 好吧(还要扣税什么的) 。但我后来几乎把所有的钱都投进了X.com。就像你说的 ,几乎把所有筹码都留在了赌桌上。
是的,PayPal之后,我就想 , 我有点好奇为什么我们还没派人去火星 。 我去了NASA网站想找我们什么时候派人去火星,结果没有日期。我以为可能是网站太难找了。 但事实上,根本没有送人去火星的真正计划 。于是 , 你知道,这说来话长,我不想在这里占用太多时间,但
Garry Tan
我想我们都听得全神贯注。
马斯克
所以 ,所以当时我其实在长岛高速公路上(Long Island Expressway)和我朋友阿德奥·罗西(Adeo Ressi)在一起。 我们在大学是同学(宾夕法尼亚大学), 阿德奥问我PayPal之后打算做什么,我说 , 我不知道,我猜也许我想在太空领域做点公益项目吧,因为我不认为我能在太空领域做任何商业性的东西 ,那看起来是国家的专属领域 。 所以 但你知道我很好奇我们什么时候送人去火星, 就是那时我发现,哦 ,网站上没有,我开始深挖。 我肯定这里省略了很多,但 我我 我最初的想法是做一个叫“火星生命 ”(Life to Mars)的火星慈善任务 ,就是送一个带种子和脱水营养凝胶的小型温室到火星,在火星上着陆,然后你知道的,给凝胶加水 ,然后你就有了这个绝妙的镜头——红色背景上的绿色植物。
顺便说一句,很长一段时间我都没意识到“money shot”我想是个色情片的梗(指关键的高潮镜头) 。但, 总之 ,重点是那将是红色背景上绿色植物的绝妙镜头,试图以此激励 你知道的,NASA和公众派宇航员去火星。随着我了解更多 ,我意识到哦,顺便说一下,在这个过程中 ,我在2001和2002年左右去了俄罗斯买洲际弹道导弹(ICBMs),这就像一次冒险。你知道的,你去见俄罗斯高层指挥官 ,说“我想买些洲际弹道导弹”。 这是为了进入太空 。是的。不是为了 不是为了炸谁,但他们必须 作为裁军谈判的结果,他们必须销毁一大批他们的大型核导弹。所以我就想,好吧 ,我们拿两枚,你知道的,去掉核弹头 , 再加一个额外的上面级用于火星 。
但这感觉有点迷幻,你知道的,2001年左右在莫斯科 ,和俄罗斯军方谈判买洲际弹道导弹。这太疯狂了。 但他们也一直给我抬价,所以 这简直和正常的谈判反着来 。所以我就想,天啊 ,这些东西变得真贵。
然后我意识到,真正的问题并不是缺乏去火星的意愿,而是根本没有办法在不超出预算的情况下做到 ,你知道的,甚至连NASA的预算都负担不起。所以这就是我决定创办SpaceX的原因——SpaceX是为了 推进火箭技术,达到我们能送人去火星的水平 。 那是在2002年。
Garry Tan
所以那并不是 你一开始就 想创立一家企业。你只是想开始做点你觉得有趣、人类需要的东西,然后就像 ,你知道的,像猫扯线团一样,球就慢慢解开了 ,结果这可能是门非常赚钱的生意 。
马斯克
现在确实赚钱,但之前没有火箭初创公司成功的先例,虽然有过一些商业火箭公司的尝试 ,但都失败了。所以 SpaceX创办SpaceX时, 真的是出于这样一种想法:我觉得成功的几率不到10%,也许只有1% ,我不知道。 但 但但一家初创公司如果不做点什么来推进 火箭技术,那它肯定不是来自那些大型国防承包商,因为他们只是政府的附庸 ,而政府只想做非常常规的事情。所以, 要么来自初创公司,要么就根本不会发生 。所以,所以即使成功率很小也比没机会好 , 所以是的,SpaceX 我在2002年年中创办它时,预期会失败。我就像我说的 ,大概90%的失败率,甚至招募人时,我也没试图粉饰说它会成功。
我说我们很可能会完蛋 。 但 有1/10的机会可能不会完蛋 ,如果 但这是送人去火星 、推进技术水平的唯一途径。 然后 我最终成了火箭的总工程师, 不是因为我想要,而是因为我雇不到厉害的人。所以 , 没有优秀的资深工程师愿意加入,因为他们觉得这太冒险了,你会完蛋的 。 所以我就成了火箭的总工程师。你知道 ,头三次发射确实失败了。所以那算是个学习过程吧 。 第四次很幸运成功了。但如果第四次没成功 我就没钱了,那就彻底完了。所以那是非常悬的事 。
如果第四次猎鹰(Falcon)发射失败,那就彻底完了,我们就加入之前那些火箭初创公司的墓地了。所以 , 我对成功几率的估计不算太离谱。 我们只是险之又险地成功了。 特斯拉差不多是同时进行的 。 2008年是艰难的一年。 因为在2008年年中 或者叫2008年夏天 SpaceX的第三次发射失败了,我们连续三次失败。 特斯拉的融资轮也失败了 。所以特斯拉很快就破产了。 这就像,天啊 ,这太惨了。 这这将成为傲慢自大的警世故事 。
Garry Tan 20:00可能在那段时间里,很多人都在说,埃隆是个搞软件的 ,为什么你要做硬件?为什么...是的,他为什么要选择做这个,对吧?
马斯克
是的。100%。所以你可以看看当时的媒体 , 因为那时的报道现在还能在网上找到 。他们一直叫我“互联网小子 ”(internet guy)。 所以“互联网小子”又名“傻瓜”试图造火箭公司。 所以 你知道 我们被嘲笑了很多 。 这听起来确实很荒谬,互联网小子开火箭公司听起来就不像能成功的配方
老实说。所以我不怪他们。我当时想,是啊 ,你知道,听起来确实不太可能,我也同意这不太可能。 但幸运的是第四次发射成功了, 然后NASA授予了我们一份补给空间站的合同 。 我想那大概是12月22号左右 ,或者是圣诞节前。 因为即使第四次发射成功也不足以保证成功。我们还需要一份大合同才能活下去 。所以, 所以我接到了NASA团队的电话,他们真的说了 ,我们授予你们一份补给空间站的合同。我简直...我脱口而出,“我爱你们。 ”这通常不是,你知道的 ,他们能听到的话 。
因为通常都是很,你知道的,很冷静的 ,但我当时想,“天啊,这救了公司。”然后 , 我们关闭特斯拉融资轮是在它可能完成的最后一天、最后一个小时,就是2008年12月24日下午6点。 如果那轮融资没关闭,圣诞节后两天我们就得拖欠工资了 。所以2008年底真是让人神经紧绷。
Garry Tan 22:03我想从您的Paypal和Zip2经历,到跳进这些硬核的硬件初创公司 ,贯穿始终的一点是能够找到并最终吸引这些特定领域里最聪明的人...你知道,那 我是说在座的各位, 有些人甚至还没管理过一个人。他们才刚刚开始职业生涯 。你会对 ,你知道的,那个还从未做过这些事的埃隆说些什么?
马斯克 22:33
我通常认为要尝试尽可能做有用的事。这这听起来可能有点陈词滥调,但做有用的事真的很难 ,尤其是对很多人有用。 比如说,总效用的曲线下面积,就是你对你同胞有多大用处乘以多少人? 就像物理上对“真实功”(true work)的定义。做到这点极其困难 。而我认为如果你立志做“真实功” , 你你成功的几率会高得多。 就像,别追求荣耀,要追求做功。
Garry Tan 23:07
你怎么判断那是“真实功 ”?是靠外部反馈吗?比如别人怎么看或者你知道产品对人有什么用?
马斯克 23:23
就像你知道 ,对你来说,当你找人工作时,你看重什么?比如你知道,你找人或他们 那是不同的问题 。我想是 我是说就你的最终产品而言 ,你只要说, 如果这东西成功了,它将对多少人有多大用处? 这就是我的意思。然后你你做任何事 ,你知道的,无论你是CEO还是初创公司里的任何角色,你做任何需要做的事来成功 ,就像 并且要不断粉碎你的自我(ego),就像, 内化责任(internalize responsibility)。 一个主要的失败模式就是当自我与能力之比(ego to ability ratio) 大于1的时候 。你知道 如果你如果你的自我能力比太高 ,
那你基本上就切断了通向现实的反馈回路。 用AI术语来说,你你会打破你的强化学习(RL)回路。所以,你不想打破你的回路 ,你想要一个强大的RL回路,这意味着内化责任(internalizing responsibility)并最小化自我(minimizing ego),无论任务是崇高还是卑微,你都去做 。所以 ,我是说,这就是为什么我其实更喜欢“工程”(engineering)这个词,而不是“研究”(research)。我更喜欢这个词 ,而且我不想叫xAI一个实验室(lab)。
我只想它是一家公司 。 就像,无论 无论是最简单、 最直接 、 理想情况下最低自我(ego)的术语,这些通常都是好的方向。 你你只想紧密地闭合与现实的回路(close the loop on reality hard)。 这这这是件超级大事。
Garry Tan 25:01我想在座各位都非常钦佩您在运用第一性原理(First principles)方面的典范作用 。您是怎么确定自己的“现实 ”的?这似乎是其中很重要的一部分。那些从未创造过任何东西、非工程师的人 ,比如某些记者,他们有时会批评您。但显然您身边还有另一群人,他们是建造者 ,有着非常高的...功业曲线下面积(指成就巨大) 。人们该如何看待这点?哪些方法对您有效?您会如何传递给...比如说您的孩子们?您会怎么告诉他们在这个世界立足的方法?比如,如何基于第一性原理构建一个可预测的现实观。
马斯克 25:57
物理学的工具在 理解任何领域并取得进展方面都极其有用。 第一性原理显然是指,你知道的 ,将事物分解到最可能正确的基本公理要素(fundamental axiomatic elements),然后尽可能逻辑清晰地向上推理,而不是通过分析或类比来推理 。 然后就是一些简单的事,比如极限思维(thinking in the limit) ,就像如果你外推 最小化这个东西或最大化那个东西,极限思维非常有帮助。 我使用物理学的所有工具。
它们适用于任何领域 。 这就像一种超能力。 所以你可以拿,比如说火箭。你可以说 , 一枚火箭应该花多少钱? 人们通常采用的方法会看历史上火箭的成本是多少,然后假设任何新火箭的成本必须和以前的火箭成本差不多 。而第一性原理的方法是,你你看火箭由哪些材料构成。如果是铝 , 铜,碳纤维, 钢 ,无论是什么, 然后说这枚火箭有多重, 它的组成元素是什么?它们有多重?这些组成元素每公斤的材料价格是多少?这就设定了火箭成本的真正底线。它可以渐进地接近原材料的成本。
然后你意识到 ,哦,实际上一枚火箭的原材料只占历史火箭成本的1%或2% 。所以制造过程必然是非常低效的, 如果 如果原材料成本只有1%或2%的话。这就是对火箭成本优化潜力的第一性原理分析。而这还是在考虑可重用性之前 。 举一个AI方面的例子,我猜 去年 ,当xAI试图建造一个训练超级集群(training supercluster)时, 我们我们去找各家供应商,说(这是去年初的事)我们需要10万块H100(GPU)来进行连贯训练(train coherently)。
他们估计完成这个需要18到24个月。我说 , 我们需要在6个月内完成 。 否则我们就没竞争力了。所以然后 如果你把它分解,需要什么? 你需要一栋建筑,你需要电力 ,你需要冷却。 我们没时间从零开始建一栋楼 。所以我们必须找一个现成的建筑。于是,我们找到了孟菲斯一个废弃的工厂,以前是生产伊莱克斯(Electrolux)产品的。 但它的输入功率是15兆瓦 ,而我们需要150兆瓦 。
所以, 我们我们 租了发电机,把它们放在大楼的一侧 ,然后我们需要冷却。所以,我们租用了美国大约四分之一的移动冷却能力,把 冷却器(chillers)放在大楼的另一侧。 这还没完全解决问题,因为在训练过程中功率波动 非常大。所以功率可能在100毫秒内下降50% ,发电机跟不上 。于是我们结合 我们增加了特斯拉Megapacks(大型电池组),并修改了Megapacks的软件,使其能够平滑训练过程中的功率波动。 然后还有一大堆网络挑战。 因为如果你试图让10万块GPU进行连贯训练 ,网络线缆非常非常有挑战性 。
Garry Tan 29:48
...听起来您提到的几乎任何一件事,我都能想象有人会直接告诉您“不行,你搞不到那个电力” ,“你搞不定这个”。第一性原理思维的一个关键点似乎是:我们要问“为什么 ”,要弄清楚原因,并且要挑战对面的人。如果他们给出的答案我不满意 ,我就不会接受它 。是这样吗?我觉得,如果有人想像您一样做硬件,似乎尤其需要这点。而在软件领域 ,我们有很多冗余,比如“我们可以加更多CPU,没问题的”。但在硬件上,行不通就是行不通 。
马斯克 30:37
我认为这些第一性原理思维的通用原则适用于软件和硬件 ,也适用于任何事物。 我只是用了一个硬件方面的例子 说明我们如何被告知某事不可能,但一旦我们将其分解成组成要素——我们需要一栋建筑,我们需要电力 ,我们需要冷却,我们需要 我们需要功率平滑(power smoothing)——然后我们就能解决这些组成要素。 但它是...然后我们 我们让网络运营团队 进行所有的布线工作,所有事 四班倒24/7 , 我也睡在数据中心,还亲自布线 。
还有很多其他问题要解决。 你知道去年没人用10万块 H100进行过连贯训练。也许今年有人做了。我不知道 。 然后然后我们后来把它翻倍 到了20万块。所以现在我们我们在孟菲斯的训练中心有15万块H100,5万块H200 ,和3万块GB200。 我们即将在孟菲斯地区的第二个数据中心上线11万块GB200 。
Garry Tan 31:54您是否认为预训练(Pre-training)仍然有效?缩放定律(Scaling laws)仍然成立?最终赢得这场竞赛的人将拥有最大、最智能的模型,然后可以蒸馏(Distill)它?
马斯克 32:09
除了大型AI的竞争力之外,还有其他各种因素 对于大型AI来说 , 人员的才华当然重要。 硬件的规模以及你如何有效利用这些硬件也很重要。所以你不能只是订购一大堆GPU,然后它们 你不能只是插上电就行 。所以你得弄到很多GPU,并让它们 能稳定地进行连贯训练。
然后就是,你有什么独特的数据来源?我猜分发(distribution)在某种程度上也很重要 ,比如人们如何接触到你的AI?对于那些要成为有竞争力的大型基础模型(large foundation model)来说,这些都是关键因素。 就像 就像我朋友伊利亚(Ilya Sutskever)说的,我认为 你知道我们差不多用光了人类生成的数据进行预训练 , 高质量标记(tokens)的供应枯竭得相当快, 然后你你必须做很多 你需要本质上创造合成数据(synthetic data) 并且能够准确判断你创造的合成数据,以验证它是否是真实的合成数据 ,还是与事实不符的幻觉(hallucination) 。 所以实现与现实接轨(grounding in reality)是是很棘手的,但我们正处于需要投入更多精力在合成数据上的阶段。 就像现在我们正在训练Grok 3.5,其重点是推理(reasoning)。
Garry Tan 33:55回到您的物理学观点 ,我听说硬科学,尤其是物理教科书,对推理非常有用 。而研究人员告诉我 ,社会科学对推理完全没用。
马斯克 34:11
是的,这可能是真的。 所以是的 你知道未来非常重要的一点是 将深度AI 在数据中心或超级集群中与机器人技术(robotics)结合。
这样 你知道像Optimus人形机器人这样的东西 是的Optimus太棒了 。将来会有非常多人形机器人以及各种大小形状的机器人,但我的预测是人形机器人将远超其他所有机器人总和,可能多一个数量级 ,差异巨大。
Garry Tan 34:55有传言说您计划组建一支机器人军队?
马斯克 35:01
无论是我们做,还是 还是特斯拉做,你知道的 ,特斯拉和xAI合作紧密。
就像你见过多少家人形机器人初创公司?就像我想黄仁勋(Jensen Huang)在台上带了一大堆机器人, 来自不同公司的机器人 。我想有大概十几种不同的人形机器人。所以,我是说 ,我猜,你知道的,部分我一直以来在抗争的 、也许拖慢我脚步的是 ,我是个有点 我不想我不想让终结者(Terminator)成真,你知道的。所以,我某种程度上 , 至少直到最近几年,在AI和和类人机器人(humanoid robotics)上拖拖拉拉 。然后我有点意识到,它它正在发生,无论我做不做。所以 ,你只有两个选择。参与你既可以当观众(spectator),也可以当参与者(participant) 。所以,就像 ,好吧,我宁愿当参与者而不是观众。 所以现在就是你知道的,在人形机器人和呃数字超级智能(digital super intelligence)上全力加速(pedal to the metal)了。
Garry Tan 36:10
我想 ,还有第三件事大家听您谈过很多,我个人非常赞同,就是成为多行星物种(Multiplanetary species) 。这如何融入整体?这不仅仅是10年或20年的事 ,也许是100年的事,是关乎人类好几代人的事。您如何看待它?这里有AI,显然有具身机器人(Embodied robotics) ,还有成为多行星物种。这些最终是否都服务于最后一点?或者,您现在驱动未来10年、20年、100年的动力是什么?
马斯克 36:46
天啊,100年,老兄。我希望100年后文明还在 。如果它还在 ,那会和今天的文明截然不同。 我是说,我预测人形机器人至少会是人类数量的5倍,也许是10倍。 而看待文明进步的一种方式是卡尔达肖夫等级(Kardashev Scale)的完成百分比 。所以 ,如果你是,你知道的,等级一(Scale one) ,你 你已经驾驭了一颗行星的所有能量。现在在我看来,我们只 利用了地球能量的1%或2%。 所以我们离卡尔达肖夫等级一还有很长的路要走 。 然后等级二(Scale two)是驾驭一颗恒星的所有能量。 那将是地球能量的大概十亿倍,也许接近万亿倍。
然后等级三(Scale three)是整个星系的能量 ,离那还远着呢 。所以我们正处于智能大爆炸(intelligence big bang)的非常非常早期阶段。我我希望我们在就多星球而言,我想我想大约30年内,我们会有足够的物质转移到火星 ,使火星能够自我维持(self-sustaining),即使来自地球的补给船停止,火星也能继续成长繁荣。 这极大地延长了文明 、或意识、或智能(包括生物的和数字的)的预期寿命 。 所以这就是为什么我认为成为多星球物种很重要。
我有点困扰于费米悖论(Fermi Paradox),就像为什么我们没看到任何外星人?这可能是因为智能非常稀有。 也许我们是这个星系里唯一的智慧生命。 那样的话 ,意识智能就像无边黑暗中的微小烛光,我们应该尽一切可能确保这微小的烛光不熄灭,而成为多星球物种或让意识多星球化(making consciousness multilanetary)能极大提高文明的预期寿命 ,并且它是在前往其他恒星系之前的下一个步骤 。 一旦你至少拥有两个星球,你就有了一个推动太空旅行进步的强制力(forcing function)。 那最终将导致 意识扩展到星辰大海(expanding to the stars)。
Garry Tan 39:24费米悖论可能暗示,一旦科技达到某个水平 ,文明就会自我毁灭 。我们如何避免自我毁灭?您会给满屋子的工程师什么建议?我们能做些什么来防止这种情况发生?
马斯克 39:41
是的,如何避开“大过滤器”(Great Filters)?一个明显的大过滤器就是全球热核战争。所以我们应该尽量避免。
我想建造良性的AI机器人,那种热爱人类的AI , 你知道的,乐于助人的机器人 。 我认为在构建AI中极其重要的一点是,对真相(truth)非常严格的恪守 ,即使那真相在政治上不正确(politically incorrect)。 我对什么会让AI变得非常危险的直觉是,如果 如果你强迫AI相信不真实的事情。
Garry Tan 40:27您如何看待安全(Safety)与封闭(Closed)以获得竞争优势之间的争论?我觉得很棒的一点是,您有一个有竞争力的模型,其他人也有 。从这个意义上说 ,我们可能避开了我最担心的最糟糕的时间线(Timeline)——那种快速起飞(Fast takeoff)且只掌握在一个人手中的情况。那可能会导致很多事情崩溃。而现在我们有选择,这很好 。您怎么看?
马斯克 40:58
是的,我确实认为将会有几个深度智能(deep intelligences) ,也许至少有五个。 可能多达10个。 我不确定会不会有几百个,但可能接近,比如说10个左右。 其中大概四个在美国 。 所以我不认为会有任何一个AI拥有失控的能力(runaway capability)。 但是的 ,会有几个深度智能。
Garry Tan 41:40这些深度智能体会做什么?是做科学研究,还是试图互相攻击?
马斯克 41:48可能都是 。 我是说希望它们会发现新物理学,我认为它们肯定会发明新技术。 就像我认为我认为我们离数字超级智能(digital super intelligence)相当近了。它可能今年发生 ,如果今年没发生,明年肯定能实现,数字超级智能定义为在任何事情上都比任何人类都聪明(smarter than any human at anything) 。
Garry Tan 42:19那么 ,我们如何将其引导向超级丰饶(Super abundance)?我们可以拥有机器人劳动力、廉价能源 、按需智能(Intelligence on demand)。这是否就是所谓的“白色药丸 ”(White pill,指积极乐观的未来)?您在这个光谱上处于什么位置?您会鼓励在座各位做哪些具体的事情,来让这个“白色药丸”成为现实?
马斯克 42:43
我认为最可能是一个好结果。 我猜我某种程度上同意杰夫·辛顿(Jeff Hinton)的看法,也许有10%到20%的毁灭(annihilation)几率 。 但往好的方面看 ,那就是80%到90%获得美好结局的概率。 所以是的,我再怎么强调也不为过。对真相(truth)的严格恪守是AI安全(AI safety)最重要的事 。显然还有对人类和已知生命(life as we know it)的共情(empathy)。
Garry Tan 43:18我们还没谈到Neuralink。我很好奇,您正在努力缩小人与机器之间的输入输出(Input/Output)差距。这对AGI/ASI(人工通用智能/人工超级智能)有多关键?一旦这个链接建立 ,我们是否不仅能读取(Read),还能写入(Write)?
马斯克 43:38
Neuralink对于解决数字超级智能并非必需 。 在神经连接大规模应用前,它(ASI)就会发生。 但 神经连接能有效解决 输入输出带宽限制(input output bandwidth constraints)。特别是我们的输出带宽(output bandwidth)非常低 。人类一天内的持续输出(sustained output)低于每秒1比特(less than one bit per second)。所以 ,你知道的,一天有86400秒。 一个人一天输出的符号(symbols)超过那个数(86400个)是极其罕见的 。 连续几天更是如此。 所以有了 有了神经连接接口,你可以大幅提高你的输出带宽和输入带宽(input bandwidth)。 输入是指写入(write operations)大脑 。
我们现在有五位人类植入了 那种读取 输入的设备 ,它能读取信号。你有患有肌萎缩侧索硬化症(ALS)的人,他们 完全没有(行动能力),他们是四肢瘫痪者(tetroplegics) ,但他们现在能以 与拥有健全身体的人相当的带宽交流, 控制他们的电脑和手机, 这相当酷。然后 我想在未来6到12个月,我们将进行第一次视觉植入(implants for vision) ,即使有人完全失明, 我们也能直接写入 视觉皮层(visual cortex) 我们已经在猴子身上实现了 。
我想我们有一只猴子植入视觉设备已经三年了, 起初分辨率会相对较低 ,但长期来看会有非常高分辨率,并能看到多光谱波长(multispectral wavelengths)。所以 你可以看到红外线、紫外线、雷达(radar),就像获得超能力一样。 在某个时刻 ,赛博格植入物(cybernetic implants)将不仅仅是纠正出错的东西,而是 极大地增强(augmenting)人类的能力,极大地增强智能、感官和带宽 这这将会在某个时刻发生。
但数字超级智能会在此很久之前发生 ,至少如果我们有 一个神经连接,我们或许能更好地欣赏 AI 。我猜所有你努力的制约因素之一,跨越所有这些不同领域 ,是接触最聪明人才的机会。 是的。但,你知道的,与此同时我们有,你知道的 ,石头(rocks)能说话和推理(talk and reason), 它们现在可能130智商了,而且可能很快就会超级智能 。 你如何调和这两件事?比如 ,你知道5年 、10年后会发生什么?在座的各位该做什么 来确保,你知道的,他们是创造者(creating)而不是可能低于API线(below the API line)的人?
人们称它为奇点(singularity)是有原因的 ,因为我们不知道不久的未来会发生什么。人类智能所占的比例将会很小。在某个时刻,人类智能的总和将少于所有智能的1% 。 而如果事情发展到卡尔达肖夫等级二(Kardashev Scale level two) 我们谈论的是人类智能,即使假设人口显著增长 ,并且智能大幅增强(intelligence augmentation),就像 每个人的智商都达到一千的那种情况。 即使那样, 人类智能总和可能也只有数字智能的十亿分之一(1 billionth)。无论如何 ,数字超级智能的生物引导程序(biological bootloader)在哪里?我想就此结束吧,我算是好的引导程序吗?
Garry Tan 47:46
我们该何去何从?我们如何从这里出发?我是说,所有这些都是相当狂野的科幻情节,但也可能由在座的各位建造出来 。你知道的 ,如果你 你对这一代最聪明的技术人才有什么结束语?他们应该做什么?他们应该 应该从事什么?应该思考什么, 今晚他们去吃晚饭时该想些什么?
马斯克 48:19
就像我开头说的,我认为如果你在做有用的事 ,那就很棒。 如果你只是尽力对你的同胞尽可能有用,那那你就是在做好事。 我不断强调这点,专注于超级真实(super truthful)的AI ,这这对AI安全最重要 。 你知道的,显然如果你知道 谁有兴趣在xAI工作,我是说 ,请请告诉我们。 我们的目标是让Grok 成为最大限度追求真相(maximally truth seeking)的AI。 我认为这非常重要。 希望我们能理解宇宙的本质 。这这大概就是AI能告诉我们的。也许AI能告诉我们外星人在哪里,以及你你知道宇宙是如何真正开始的?它将如何终结?有哪些我们不知道应该问的问题? 我们是在模拟中(simulation)吗?或者我们在哪个层级的模拟中?
Garry Tan 49:28
我想我们会找到答案的。一个NPC(非玩家角色) 。埃隆,非常感谢你加入我们。
风险提示及免责条款 市场有风险 ,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要 。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。