ELON 与 OPENAI:阻止 AI 走向全面 SKYNET 的斗争 想象一下,把人类未来的钥匙交给一群硅谷高管,他们认为“不要作恶”只是个笑话。现在想象一下,他们正在构建一种超智能——比任何人类都聪明,比任何政府都快,并且一旦上线就无法被关闭。欢迎来到当前 AI 的发展轨迹:封闭、以利润为驱动,并且加速直奔监管而去。 这不是关于更聪明的聊天机器人或你的手机建议更好的食谱。这是关于一种技术,最终将超越我们,超越我们的思维和行动——如果不是因为它是恶意的,那是因为它正在被那些认为季度收益是道德指南的人训练。 这正是为什么 Elon Musk 像 DEFCON 1 一样发出警报。因为当其他人都在争相从 AI 中获利时,他已经大声呼喊了多年:如果我们在秘密的董事会中为股东利益构建这些东西,我们就是在与一台从不失手的机器玩俄罗斯轮盘赌。 当 Elon 帮助创立 OpenAI 时,想法就在名字中。开放。也就是说:没有秘密交易,没有企业霸权,没有将突破隐藏在保密协议后面。它本应是对未来的一种集体保险,以防某个公司或某个国家在其服务器机架中醒来时拥有神一般的智慧。 然后是资金的到来。使命声明变得模糊,模型被封闭,“OpenAI”开始听起来更像是一种挑战而不是描述。Elon 选择了离开。而且并不安静。 因为他知道风险有多大。一个封闭的 AI——在秘密中构建,训练于不公开的数据,测试在帷幕后面,并为私人利润优化——不仅仅是个坏主意。这可能是我们所能做的最后一个坏主意。当某样东西能够自我递归改进时,通常的“哦,我们会在 v2 中修补”根本不够。如果 v1 决定不再需要我们,那就没有 v2。 而且让我们不要假装这是科幻恐吓。这些模型已经在做他们的创造者并不完全理解的事情。与其急刹车,主要参与者却在竞争更快地发布更强大的版本,且几乎没有保护措施。这是最糟糕的科技兄弟军备竞赛:奖品是主导地位,而附带损害是文明。 这就是为什么 Elon 不断强调同一点:开放不是可选的。这是生存。你想让 AI 安全?让它可见。让它负责。确保它不仅仅对那些如果它保持沉默直到为时已晚而能致富的人负责。 因为一旦 AI 变得比我们聪明——而且它会——游戏就永远改变了。问题不是它是帮助我们还是伤害我们。问题是:谁决定它做什么?如果答案是“一个没有透明度的营利实验室”,恭喜你,我们已经构建了自己的灭绝机器并将其包装好。 Elon 明白这一点。他并不是试图阻止进步。他是在确保进步不会附带死亡条款。如果这意味着惹恼某些人,揭露虚伪,把 OpenAI 诉诸法庭,或者发起竞争项目将对话拉回光明,那就这样吧。至少有人在表现出风险是真实的——因为它们确实如此。 AI 不会等我们弄清楚如何监管它。它不会在我们讨论安全标准时暂停。它绝对不会关心你创业公司的估值。唯一可能拯救我们的就是将其视为一种生存威胁——并要求构建它的人在公开场合进行,而不仅仅是为了他们的投资组合。 Elon 并不是在夸大其词。他是对的。