前OpenAI首席科学家启动“安全”竞争对手人工智能实验室

时间:2024-09-21 编辑: 浏览:(205)

著名人工智能研究员、OpenAI前首席科学家Ilya Sutskever成立了一家新的人工智能研究公司,该公司将专注于他和其他批评者所说的前雇主的盲点:安全。

他的新公司Safe Superintelligence股份有限公司(SSI)由苹果公司前人工智能主管Daniel Gross和曾在OpenAI工作的Daniel Levy共同创立。该公司的唯一目标是同时提高人工智能的安全性和能力。

这家新公司周三在推特上写道:“我们将以一个焦点、一个目标和一种产品,直截了当地追求安全的超级智能。”。“我们将通过一个小团队的革命性突破来实现这一目标。”

Sutskever去年离开OpenAI之前,内部关系紧张,包括对安全问题的担忧退居利润之后。对于SSI,他旨在避免大型人工智能公司经常面临的管理开销或产品周期的干扰。

SSI网站上的一份官方声明写道:“我们的商业模式意味着安全、保障和进步都与短期商业压力隔绝。”。“这样,我们就可以和平地扩大规模。”

SSI将是一个纯粹以研究为重点的组织,而不是OpenAI目前的商业模式,后者包括其人工智能模型的商业化。顾名思义,SSI的第一个也是唯一一个产品将是一个安全的超级智能。

Sutskever向彭博社解释道:“我们所说的安全,是指像核安全这样的安全,而不是‘信任和安全’这样的安全。”。

该公司的使命是扩大伊利亚对与人类利益“超协调”的关注,纯粹专注于开发,而不是他所说的分散OpenAI注意力的“闪亮产品”。

Sutskever认为,SSI的人工智能系统在准备就绪后,将比当前的大型语言模型更通用,能力更广泛。最终目标是创造一种“安全的超级智能”,它不会伤害人类,并将基于自由和民主等价值观运作。

他告诉彭博社:“在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。”。

SSI将在美国和以色列设立总部,目前正在招聘。

这家新公司在推特上写道:“我们提供了一个做你一生工作的机会,并帮助解决我们这个时代最重要的技术挑战。”。

在关键成员离职后,OpenAI决定解散负责长期人工智能安全的超级校准团队。

Sutskever是OpenAI董事会的一员,该董事会最初出于安全考虑解雇了首席执行官Sam Altman,但几天后Altman被他控制的新董事会复职。在这些事件之后,奥特曼控制下成立了一个新的安全团队,许多负责制定安全措施的成员要么被解雇,要么被调动,要么被迫辞职。

例如,前OpenAI安全研究员Leopold Aschenbrenner最近批评该公司的安全实践“严重不足”。他目前正在一家专注于AGI开发的投资公司工作,该公司是他与Patrick Collison、John Collison、Nat Friedman和Gross共同创立的,Gross也与Sutskever共同创立了SSI。

除了Aschenbrenner,OpenAI调整团队前负责人Jan Leike也与Sutskever一起离开了公司,并批评该公司将盈利能力置于安全之上。辞职后不久,他宣布将加入竞争对手Anthropic公司,该公司由前OpenAI研究人员创立,他们担心该公司在安全人工智能开发方面的糟糕做法。

OpenAI的政策研究员格雷琴·克鲁格(Gretchen Krueger)离开了该公司,理由是莱克和萨斯克弗也有同样的担忧。

前董事会成员进一步指责萨姆·奥特曼在工作环境中培养了一种“有毒文化”。董事会的新成员对这些指控提出了质疑,此后,在公众强烈抗议后,OpenAI解除了员工的非贬损协议,并从离职文件中删除了有争议的条款。

由Ryan Ozawa编辑。

最新 更多 >
  • 1 Falcon HONGKONG WEB3盛会成功举办!Falcon闪电贷套利开启新兴金融体系无限可能!

    相约香港、相约FALCON HONGKONG WEB3盛会,去聆听一场投资与技术的盛宴,领略一场去中心化金融与AI融合之美,这不,鲜花掌声、帅哥美女、大咖嘉宾、美酒佳肴……,美好的事物相聚而来,我们恰好都在这里。7月11日,由Falcon基金主办的“HONGKONG WEB3 FRONTIER FORUM · BORN FOR ARBITRAGE”大会,在香港丽思卡尔顿酒店盛大启幕!在主持人致欢迎

  • 2 富兰克林提交新的加密货币ETF-最新加密货币新闻

    随着交易日的结束,Franklin提交了一份新的加密交易所交易基金(ETF)申请,这是一个重大的发展。此举是在最近比特币(BTC)和以太坊(ETH)ETF申请获得批准之后进行的,简化了ETF发行人的流程。负责监管价值数万亿美元资产的富兰克林已向美国证券交易委员会(SEC)提交了最新的加密货币ETF申请。 内容隐藏1“加密指数ETF”意味着什么?2是否会包括其他加密货币?投资者的3个关键要点4结论

  • 3 香港证监会更新警示名单总数达39家

    近日,香港证监会(SFC)再次揭露了一批可疑的虚拟资产交易平台,向公众发起警示。这向市场传递了一个清晰的信号:香港政府正在密切关注加密货币领域的最新动态,严格打击非法的金融活动,以确保市场的公平与透明。 2021 年至今,SFC 共计披露了 39 家与加密市场相关的可疑平台,交易所 MEXC、Bybit 也被列示其中。何为香港证监会定义的可疑虚拟资产交易平台,这些平台又为何会被警告呢? 何为「

  • 4 加州委员会推进人工智能监管法案

    加利福尼亚州议会拨款委员会投票赞成SB 1047,这是一项旨在规范人工智能行业的拟议法律。该法案的正式名称为《前沿人工智能模型安全创新法案》,重点关注“前沿”人工智能模型的创建者,这些模型的训练成本至少为1亿美元。 该法案要求这些开发商采取安全措施,接受审计,并相信他们的模型不会产生很大的危害。它还为人工智能工作者提供举报,并使州总检察长能够对人工智能模型导致严重伤害或公共风险的公司采取法律行动。

  • 5 Tron Network在过去90天的收入超过了以太坊

    根据Token Terminal的最新数据,Tron网络在创收方面已经超过了以太坊。 在过去的90天里,区块链网络已经累计了大约4.35亿美元的费用,超过了以太坊的3.64亿美元。 Tron的收入超过以太坊50% Tron的创始人Justin Sun于8月15日在X上强调了这一成就,并表示在过去的30天里,Tron的协议收入超过了以太坊的50%。 根据@tokenterminal的数据,在过去的

  • 6 区块链侦探ZachXBT揭开朝鲜秘密加密帝国的面纱

    ZachXBT发现了一个月收入为30万至50万美元的朝鲜加密网络。调查揭示了复杂的洗钱计划以及与OFAC制裁个人的联系。 在最近的一项调查中,区块链分析师ZachXBT发现了一个协调良好的朝鲜开发者网络。 这些参与加密货币的开发人员涉嫌每月赚取30万至50万美元。 朝鲜加密骗局被揭露 根据他8月15日分享的调查结果,亚洲的一个实体,可能是朝鲜,可能运营着这个网络。 该团队由21名开发人员组成,负责

  • 7 旧金山律师关闭人工智能深度伪造网站

    旧金山市检察官David Chiu宣布,他的办公室正在对16家网站提起诉讼,这些网站使用人工智能开发和分发非安全深度伪造的女性和女孩裸体图像。这是在人们更加关注人工智能非自愿图像的创建和分发之际发生的。 这是旧金山首例此类诉讼,指控网站运营商违反了州和联邦法律,这些法律谴责深度伪造色情、儿童色情和报复性色情材料,以及加州的不公平竞争法。 邱想对这种不良行为发出警告 据《纽约时报》报道,该倡议是首席

  • 8 Vitalik Buterin将他所有的表情币捐赠给动物慈善机构

    以太坊创始人Vitalik Vitalik决定,他的钱包里已经塞满了动物主题的模因币。于是,他将整堆动物捐赠给了一家动物福利慈善机构,一举将它们一扫而光。 如下图所示,Vitalik向有效利他主义基金的动物福利基金发送了200个ETH,价值约532398美元。 他还告诉全世界: “慈善捐款已经完成,涵盖了过去一年左右的所有动物硬币!也就是说,如果硬币直接分配给慈善机构,我将不

  • 9 MakerDAO接受将10亿美元RWA代币化的提议

    MakerDAO已经启动了一个项目,将高达10亿美元的资产代币化。RWA计划将取决于社区提案,Maker拥有最终决定权。 MakerDAO将通过即将推出的提案计划扩展现实世界资产(RWA)代币化。提案征集将聚焦于试图将资产代币化的团队,并在DeFi生态系统中提出用例。 MakerDAO本身使用美国国债作为抵押品,旨在扩大可用产品作为安全流动性的来源。代币化资产必须适合MakerDAO和Spark生

  • 10 研究表明,生成性人工智能有助于创造力,但会损害原创性

    作家们发现人工智能在提出故事创意、激发创造力以及使内容更具吸引力和专业性方面很有用。然而,一项新的研究表明,过度使用该技术可能会增加限制集体创造性产出多样性的风险。换句话说,人工智能可以减少写作的多样性。 该研究称:“人工智能生成的故事比人类单独的故事更相似。”。“这些结果表明,在失去集体新奇感的风险下,个人创造力有所提高。 研究人员补充道:“我们的研究结果表明,尽管生成性人工智能对个人创造力有增