Vitalik:超智能AI很有风险

AI 超级智能 风险 2024-05-21 88
Vitalik Buterin在X平台上表达了对超级智能人工智能的担忧,认为推进这一领域存在风险,并呼吁反对建立规模庞大的中央服务器。他认为,运行在消费硬件上的开放模型能够防止人工智能价值过于集中,并避免少数人控制绝大多数人类思想的风险。相比企业和军队,这种模型的毁灭风险要低得多。

Buterin主张对人工智能进行小类别和大类别的区分,对大类别进行监管,并强调消费者硬件要比大规模中央服务器更安全。虽然规模较大的模型可能比消费者硬件更具规模性能(70B而不是405B;但我可以运行它)但他担心目前的提案最终会导致一切都滑入大类别。

相关推荐