由度。”
“但AI不同,AI如果失控带来的破坏力,已经超越了人类可承受风险的极限。过去一百年间,唯一能和其相提并论的,只有核武器。试想一下,如果六十年前没有缔结核不扩散条约,可能我们人类社会在五十年前就已经灭亡了。”
方豫点点头:“你说的很对埃隆,我很赞同。但是,请注意,核不扩散条约当时只牵涉五个国家,仅仅只是这五个国家,从提出到达成协议,就用了四年时间,而生效,又用了两年。”
“你觉得,面对AI这种全球企业和个人都在参与的事情上,需要多久的谈判才能达成一致?”
“而且,更不能忽略的一点是,核武器的威胁是迫在眉睫的,当时包括当政者在内的所有人类,都在被核武器所威胁,限制核武器是当时人类的共识,而AI则不是。”
“换句话说,你说的这个方法,在不知道有没有效果的同时,也不具备任何的可行性。”
“除非,明天就爆发出一场智械危机,这时候人类才能吸取教训。”
“对了,你可以收购波士顿动力,然后自行引爆一场AI危机,说不定能起到一些作用。”
听了方豫的话,马斯克心头火起:“你的意思是,什么都不做,坐看人类毁灭吗?”
方豫眨了眨眼,一脸的无辜:“你怎么知道我们没有做事情?我只是说你控制AI风险的方法从根本上就是错的。依据你经常说的第一性原理,控制AI风险,不应该从AI大模型技术本身来着手吗?”
技术本身?
马斯克不由得愣了一下。
“你是说,后门?通过底层的后门来做AI的最终防火墙?”马斯克只是略作考虑,便摇头道,“后门的存在,会造成更大的风险,即使初期AI无法发现,也存在被第三方滥用的必然。”
“而且,当AI进化到具备自我意识后,必然能找到修补后门的办法,这并不是一个好办法。”
方豫哑然一笑:“埃隆,你对AI的思考太过于局限了。我说的当然不是后门,而是从大模型技术方向的角度去实现真正安全的超级人工智能。”
“确保AI的安全性,并不是依靠限制,而是依靠安全而可靠的技术路径,在最终实现了超级人工智能、甚至AI诞生自我意识的同时,还能够保证人类社会的安全与进化,让AI成为人类走向超级物种的助推器,这才是柚子科技真正在做的事情。”
“我们无法控制这个世界任何一个国家对
本章未完,请点击下一页继续阅读!