以太坊创建者Vitalik Buterin警告不要仓促进入“非常危险”的超级智能

时间:2024-09-19 编辑: 浏览:(171)

以太坊背后的主谋Vitalik Buterin呼吁对人工智能研究采取更谨慎的方法,称当前的前沿狂热“非常危险”。在回应加密智能公司Messari首席执行官Ryan Selkis对OpenAI及其领导层的批评时,世界第二大影响力区块链的创建者概述了他对人工智能联盟的看法,这是推动发展的核心原则。

Buterin断言:“超级智能人工智能风险很大,我们不应该仓促行事,我们应该反对那些尝试的人。请不要有7万亿美元的服务器场。”

超级人工智能是人工智能的一种理论形式,几乎在所有领域都超越了人类智能。尽管许多人认为通用人工智能(AGI)是新兴技术全部潜力的最终实现,但超级智能模型将是下一步的发展方向。尽管当今最先进的人工智能系统尚未达到这些阈值,但机器学习、神经网络和其他人工智能相关技术的进步仍在继续,人们时而兴奋,时而担忧。

Messari在推特上表示“AGI对我们来说太重要了,不能神化另一个能说会道的自恋者”,Buterin强调了多元化人工智能生态系统的重要性,以避免人工智能的巨大价值被极少数人拥有和控制。

他说:“在消费硬件上运行的开放模型的强大生态系统是一种重要的对冲措施,可以防止人工智能获取的价值高度集中,大多数人类思想由少数人控制的少数中央服务器读取和调解。”。“就厄运风险而言,这种模式也比企业自大狂和军队低得多。”

这位以太坊创始人一直在密切关注人工智能领域,最近称赞了开源LLM Llama3模型。他还表示,在一项研究认为人类的反应与人工智能产生的反应无法区分后,OpenAI的GPT-4o多模式LLM本可以通过图灵测试。

Buterin还谈到了将人工智能模型分为“小”和“大”两类,重点关注“大”模型的监管是合理的优先事项。然而,他表示担心,随着时间的推移,目前的许多提案可能会导致所有内容都被归类为“大型”。

Buterin发表上述言论之际,围绕人工智能联盟和OpenAI超级联盟研究团队关键人物的辞职展开了激烈的辩论。Ilya Sutskever和Jan Leike已经离开了公司,Leike指责OpenAI首席执行官Sam Altman将“闪亮的产品”置于负责任的人工智能开发之上。

另据透露,OpenAI有严格的保密协议(NDA),禁止员工在离职后讨论公司。

关于超智能的高级别、长期的辩论变得更加紧迫,专家们表达了担忧,同时提出了各种各样的建议。

Paul Christiano曾领导OpenAI的语言模型比对团队,他成立了比对研究中心,这是一个非营利组织,致力于将人工智能和机器学习系统与“人类利益”进行比对。据Decrypt报道,Christiano表示,“在我们拥有人类层面的系统后不久,灾难的可能性可能会减半。”

另一方面,Meta首席研究员Yann LeCun认为,这种灾难性的情况极不可能发生。早在2023年4月,他就在一条推文中表示,“硬起飞”的情景“完全不可能”。LeCun断言,短期人工智能的发展对人工智能的进化方式产生了重大影响,形成了其长期轨迹。

相反,布特林认为自己是一个中间派。在他今天批准的2023年的一篇文章中,他承认“在一个“友好”的超级智能人工智能主导的世界里,人类不是宠物”,但他也认为“通常情况下,我们文明的技术版本N会导致问题,而版本N+1会解决问题。然而,这并不是自动发生的,需要人类的有意努力。”换句话说,如果超级智能成为一个问题,人类可能会找到解决问题的方法。

OpenAI更谨慎的结盟研究人员的离职,以及该公司对安全政策的转变,引发了更广泛的主流担忧,即主要人工智能初创公司缺乏对道德人工智能发展的关注。事实上,据报道,谷歌、Meta和微软也解散了负责确保人工智能安全开发的团队。

由Ryan Ozawa编辑。

最新 更多 >
  • 1 今天的加密货币:Tether

    来源:AdobeStock / Photocreo Bednarek获取加密资产和区块链相关新闻的每日摘要摘要——调查当今加密新闻关注的故事。__________Security newsTether 是一家运营区块链平台 tether.to 的公司,该平台为 USDT 稳定币提供支持,该公司宣布将与 INHOPE 合作,INHOPE 是一个打击在线儿童性虐待材料的全球网络(CSAM),共享信息,