1月14日,沃伦·巴菲特在CNBC特别节目中将人工智能(AI)的风险与核武器相提并论,指出AI行业的领军者对技术未来缺乏明确认知,这本身就是潜在威胁。巴菲特认为,即使是最顶尖的AI专家也无法预测这项技术最终会走向何方,他用哥伦布的比喻强调,AI技术不存在“撤回”的选项。在讨论技术失控的风险时,巴菲特引用了爱因斯坦关于原子弹的名言,强调技术突破往往改变世界,但未必改变人的思维方式。
巴菲特进一步指出,人类在核武器问题上的“进展”只是从担心“某一个国家拥有”演变成多个国家同时掌握。他表示自己不认为核武器威胁无法用金钱解决,即使在二战背景下,核武器被视为“美国的必要选择”,他依然愿意不计代价尝试消除这种威胁。巴菲特的这番表态延续了他对AI的公开态度,他在2024年5月的伯克希尔年度股东大会上曾强调,AI同时具备巨大的正面潜力与同等规模的破坏性风险。
