Vitalik:超智能人工智能非常危险

AI 超级智能 风险 2024-05-21 37
火币HTX的报道中,以太坊联合创始人Vitalik Buterin在X平台上表达了他对人工智能发展的深刻看法:

他认为,超级智能的AI存在着巨大风险,因此我们不应该急于推进AI的发展,更应该反对那些试图推进的人。他呼吁避免建立规模巨大的7T服务器。相反,他认为运行在消费硬件上的开放模型的强大生态系统是至关重要的,这样可以避免未来人工智能所带来的价值高度集中,以及将大多数人类思想控制在少数中央服务器调解下的风险。

他指出,相比于企业和军队拥有的狂妄自大和毁灭性风险,这种开放模型的毁灭风险要低得多。他建议将人工智能分为小和大类别,并对大类别进行严格监管。虽然有些规模较大的人工智能项目(如405B规模)可能比消费者硬件更强大,但他认为这种划分是合理的。然而,他也担忧当前的许多提案最终会使所有的人工智能都滑入大类别之中,造成不可预测的后果。

相关推荐