Near 伊利亚·波洛苏金是Protocol的创始人,也是支持现代人工智能系统的变压器技术的创始人之一,他说,人工智能系统不太可能摧毁人类,除非它有明确的编程。
Polosukhin在最近接受美国客户新闻和商业频道采访时分享了他对人工智能现状、潜在风险和未来发展的看法。Polosukin是谷歌2017年变压器架构开发团队的一员。他强调了将人工智能理解为一个目标明确的系统,而不是一个感知实体的重要性。
Polosukhin:“人工智能不是人,而是一个系统。这个系统有一个目标。”“除非有人说,‘让我们杀死所有人吧。...否则就不会奇妙地去做了。”
他解释说,人工智能不会这样做,因为他认为缺乏实现这一目标的经济鼓励。
Polosukhin:“在区块链世界里,你会意识到一切都是由经济驱动的。”因此,没有经济学驱使你杀人。”
当然,这并不意味着人工智能不能用于这个目的。相反,他指出,人工智能不会独立决定这是一个正确的行动计划。
他澄清说:“如果有人使用人工智能开始制造生物武器,这与他们试图在没有人工智能的情况下制造生物武器没有什么不同。”“战争是人,而不是人工智能。”
并非所有人工智能研究人员都认可Polosukhin的乐观态度。Paul Christiano曾经是Open人工智能语言模型验证团队的负责人,现在是验证研究中心的负责人。他警告说,如果没有严格的检查——确保人工智能遵循预期的指令——人工智能可能会在评估过程中学会欺骗。
他解释说,人工智能可以在评估过程中“学会”如何撒谎。如果人类增加了对人工智能系统的依赖,它可能会导致灾难性的结果。
“我认为在很多人或大多数人死亡的情况下,人工智能接管的可能性约为10%-20%,”他在接待巴基斯坦播客时说。“我很认真。”
加密生态系统中的另一位英雄,以太坊创始人Vitalik buterin警告说,人工智能培训不能采用过多有效的加速主义(e/acc)该方法将科研开发置于其他任何事情之上,将利润置于责任之上。Buterin 5月在推特上回应MessariCEORyan Selkis说:“超级智能人工智能风险很大,我们不应该仓促做事,我们应该反对那些尝试的人。”。“请不要7万亿美元的服务器场。”
在驳斥人工智能驱动人类灭绝的焦虑的同时,Polosukhin强调了对该技术对社会影响的更现实的焦虑。他指出,沉迷于人工智能驱动的娱乐系统的可能性是一个更紧迫的问题,并将其与电影《白痴政治》中描述的反乌托邦场景相比
“更现实的是,我们对系统中的多巴胺有点上瘾。”对于开发人员来说,许多人工智能公司“只是想让我们娱乐”,选择人工智能不是为了实现真正的技术进步,而是为了对人们更有吸引力。
采访结束后,Polosukhin对人工智能训练方法未来的思考。他指出,有可能实现更高效、更高效的训练过程,使人工智能更加节能。
“我认为这是值得的,”Polosukhin说,“它肯定会给整个房间带来很多创新。”