Vitalik:超智能AI很有风险

AI 超级智能 风险 2024-05-21 46
火币HTX报道,以太坊联合创始人Vitalik Buterin在X平台表示了他对人工智能的深刻观点:

1. 超级智能的AI存在巨大风险,不应该急于推进,反对试图推进的人,并且不应该建立7T的服务器规模。

2. 运行在消费硬件上的开放模型的强大生态系统可以防止未来人工智能所捕获的价值高度集中,避免大多数人类思想被少数中央服务器读取和调解的情况。相比于企业和军队的控制,这种模型的毁灭风险要低得多。

3. 将人工智能分为小和大类别,对小类别豁免并对大类别监管,在原则上是合理的。虽然 405B 的规模比消费者硬件大(70B 不是;我可以运行它),但仍然担心很多当前的提案最终会让一切都滑入大类别的范畴。

相关推荐