退出的OpenAI高管称安全“让闪亮的产品黯然失色”

时间:2024-09-19 编辑: 浏览:(912)

周五,OpenAI联盟和“超级联盟”计划的前负责人Jan Leike在推特(又名X)上解释了他周二离开人工智能开发者的理由。在推特帖子中,莱克指出,缺乏资源和安全关注是他决定辞去这家ChatGPT制造商职务的原因。

OpenAI的对齐或超级对齐团队负责安全,并创建更多以人为中心的人工智能模型。

雷克的离开标志着OpenAI团队自2月份以来第三位高调离职的成员。周二,OpenAI联合创始人、前首席科学家Ilya Sutskever也宣布将离职。

莱克写道:“离开这份工作是我做过的最艰难的事情之一。”。“因为我们迫切需要弄清楚如何引导和控制比我们聪明得多的人工智能系统。”

莱克指出,虽然他认为OpenAI将是研究人工智能的最佳场所,但他与公司领导层并不总是意见一致。

莱克警告说:“制造比人类更聪明的机器本身就是一项危险的工作。”。“但在过去的几年里,安全文化和流程已经退居闪亮产品的次要地位。”

莱克注意到通用人工智能(AGI)的危险,他表示,OpenAI负有“巨大的责任”,但他表示,该公司更专注于实现AGI,而不是安全,并指出他的团队“一直在逆风航行”,为计算资源而苦苦挣扎。

通用人工智能也被称为奇点,指的是一种人工智能模型,能够像人类一样解决各个领域的问题,并具有自学和解决程序未经训练的问题的能力。

周一,OpenAI公布了其旗舰生成型人工智能产品ChatGPT的几项新更新,包括更快、更智能的GPT-4O模型。据雷克介绍,他在OpenAI的前团队正在进行几个与更智能的人工智能模型相关的项目。

在为OpenAI工作之前,雷克曾在谷歌DeepMind担任对齐研究员。

莱克写道:“在过去的大约3年里,这是一段疯狂的旅程。”。“我的团队与InstructionGPT一起推出了有史以来第一个[从人类反馈中强化学习]LLM,发布了第一个关于LLM的可扩展监督,[并]开创了自动化可解释性和弱到强泛化的先河。更令人兴奋的东西很快就会问世。”

莱克表示,早就应该就实现AGI的影响进行认真的讨论了。

莱克继续说道:“我们必须尽最大努力为他们做好准备。”。“只有这样,我们才能确保AGI造福全人类。”

虽然莱克在帖子中没有提到任何计划,但他鼓励OpenAI为AGI成为现实做好准备。

“学会感受AGI,”他说。“以适合你正在建设的东西的庄重行事。我相信你可以‘运送’所需的文化变革。”

“我指望你,”他总结道。“全世界都在指望你。”

莱克没有立即回应Decrypt的置评请求。

安德鲁·海沃德编辑

最新 更多 >
  • 1 消息人士:富达准备提交比特币现货ETF申请

    6月27日消息,据TheBlock援引消息人士报道,华尔街巨头富达(Fidelity)预计即将提交自己的比特币现货 ETF 申请。这将是富达第二次尝试此类产品。2021年,它申请设立名为Wise Origin Bitcoin Trust的比特币现货交易所交易基金,但于2022年初被美国证券交易委员会拒绝。 贝莱德 (BlackRock) 于 6 月 15 日提交比特币现货ETF申请文件后,其他资产