Near Protocol的联合创始人、支撑现代人工智能系统的变压器技术的创造者之一伊利亚·波洛苏金表示,除非明确编程,否则人工智能系统不太可能摧毁人类。
在最近接受美国消费者新闻与商业频道采访时,Polosukhin分享了他对人工智能现状、潜在风险和未来发展的见解。Polosukin是谷歌2017年开发变压器架构团队的一员。他强调了将人工智能理解为一个有明确目标的系统,而不是一个有感知能力的实体的重要性。
Polosukhin说:“人工智能不是人,它是一个系统。这个系统有一个目标。”。“除非有人去说,‘让我们杀死所有人’......否则它不会神奇地去做。”
他解释说,除了没有为此目的进行训练外,人工智能也不会这么做,因为在他看来,缺乏实现这一目标的经济激励。
Polosukhin说:“在区块链世界里,你会意识到一切都是由经济驱动的。”。“因此,没有任何经济学驱使你去杀人。”
当然,这并不意味着人工智能不能用于这个目的。相反,他指出了一个事实,即人工智能不会自主决定这是一个正确的行动方案。
他澄清道:“如果有人使用人工智能开始制造生物武器,这与他们试图在没有人工智能的情况下制造生物武器没有什么不同。”。“发动战争的是人,而不是人工智能。”
并不是所有的人工智能研究人员都认同Polosukhin的乐观态度。Paul Christiano曾是OpenAI语言模型比对团队的负责人,现在是比对研究中心的负责人。他警告说,如果没有严格的比对——确保人工智能遵循预期的指令——人工智能可能会在评估过程中学会欺骗。
他解释说,人工智能可以在评估过程中“学会”如何撒谎,如果人类增加对人工智能系统的依赖,可能会导致灾难性的结果。
他在Bankless播客上说:“我认为,在许多人或大多数人死亡的情况下,人工智能接管的可能性大约为10-20%。”。“我非常认真。”
加密生态系统中的另一位主要人物,以太坊联合创始人Vitalik Buterin警告说,不要对人工智能培训采取过度有效的加速主义(e/acc)方法,这种方法将技术开发置于其他任何事情之上,将盈利置于责任之上。Buterin 5月在推特上回应Messari首席执行官Ryan Selkis时表示:“超级智能人工智能风险很大,我们不应该仓促行事,我们应该反对那些尝试的人。”。“请不要7万亿美元的服务器场。”
Polosukhin在驳斥了对人工智能驱动的人类灭绝的担忧的同时,强调了对该技术对社会影响的更现实的担忧。他指出,对人工智能驱动的娱乐系统上瘾的可能性是一个更紧迫的问题,并将其与电影《白痴政治》中描绘的反乌托邦场景相提并论
Polosukhin提醒道:“更现实的情况是,我们对系统中的多巴胺有点上瘾。”对于开发者来说,许多人工智能公司“只是想让我们娱乐”,采用人工智能并不是为了实现真正的技术进步,而是为了对人们更有吸引力。
采访结束时,Polosukhin对人工智能训练方法未来的思考。他表示相信,有可能实现更高效、更有效的训练过程,使人工智能更节能。
“我认为这是值得的,”Polosukhin说,“它肯定会给整个空间带来很多创新。”