OpenAI前董事揭露“解雇门”内幕,矛头再次指向奥特曼

  • 发表时间:
    , 文章来源:JieMian, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    图:匡达图:匡达(photo:JieMian)
    图:匡达图:匡达(photo:JieMian)

    界面新闻记者 | 陈振芳界面新闻编辑 | 宋佳楠

    “私营企业推动革命性新技术的边界前进时,我们是否可以期待它们在符合股东利益的同时也符合更广泛世界的利益?”

    近日,OpenAI两名前董事海伦·托纳((Helen Toner)、塔莎·麦考利(Tasha McCauley)在《经济学人》上撰文,指出该公司存在巨大的管理漏洞,并将矛头直指CEO山姆·奥特曼(Sam Altman)。

    两人分别于2018年、2021年加入该公司董事会。进入OpenAI时,她们对公司自我治理的创新方法可能为负责任的AI发展提供蓝图持谨慎乐观态度。

    成立之初, OpenAI被认为是一家非营利机构,旨在确保人工通用智能(AGI)或比人类更聪明的人工智能系统将“惠及全人类”。但为了筹集必要的资金,OpenAI创建了一个营利性子公司,同时由非营利机构掌权。

    她们在文中称,设计这一前所未有的结构,目的在于维护坚持其原始使命,董事会的任务就是维护这一使命,“不幸的是,它没有成功。”

    而在ChatGPT横空出世以后,OpenAI在商业化的道路上狂奔。直到“解雇门”事发,公司内部的巨大矛盾才被外界窥见。

    二人在文章中针对奥特曼被解雇一事给出了正面回应,这也是该公司内部人士首次在媒体上针对这一事件进行回应。

    她们提及,之所以OpenAI董事会解雇了奥特曼,是为了挽救公司的自我监管结构。长期以来,奥特曼的行为模式导致董事会维护公司使命的能力越来越受限,包括削弱董事会对关键决策和内部安全协议的监督。

    该公司多位高管私下向董事会表达忧虑,认为奥特曼培养了一种“充满谎言的有毒文化”,并参与了“可以定性为心理虐待的行为”。

    针对去年震惊全球的“解雇门”,二人直言她们并不后悔通过解雇奥特曼来重塑OpenAI,但仍然担心OpenAI在推动技术进步方面的作用。

    “自奥特曼重返掌舵以来的发展,尤其是高级安全人才的离职,预示着OpenAI自治实验的不祥之兆。”她们说道。

    奥特曼重返OpenAI后,该公司曾对外表示,董事会“在其广泛自由裁量权内”解雇了奥特曼,但也得出结论认为他的行为“没有要求解雇”。

    二人质疑,OpenAI几乎没有提供具体的理由来证明上述结论,也没有将调查报告公开给员工、媒体或公众。

    一直以来,AI安全问题备受关注。两位前OpenAI董事认为,根据经验,自我治理无法可靠地抵御利润激励的压力。“AI具有巨大的正面和负面影响潜力,仅仅假设这样的激励措施总是与公共利益相一致是不够的。为了AI的崛起能够惠及每个人,政府必须现在开始构建有效的监管框架。”

    她们指出,OpenAI提供了教训,即社会绝不能让AI的推出完全由私营科技公司控制。缺乏外部监督的自我监管最终将变得无法执行,尤其是在巨大利润激励的压力下。因此,政府必须发挥积极作用。

    近几个月来,从华盛顿议员到硅谷投资者,越来越多的人主张对AI进行最少的政府监管,并将AI与上世纪90年代互联网带来的经济增长相提并论。“然而,这种类比是误导性的。”二人观察到,在AI公司内部以及研究人员和工程师社区中,AI带来的巨大风险正在被广泛承认。

    奥特曼也称,“成功过渡到一个拥有超级智能的世界可能是人类历史上最重要的、充满希望的、可怕的工程。”许多顶尖AI科学家对他们自己正在构建的技术表达了忧虑,这与早期互联网的程序员和网络工程师的乐观态度大不相同。

    托纳和麦考利强调,由于缺乏有效监管,AI带来了以下三大问题:一是成功的科技公司及其投资者从在线商业的缺乏监管中获得了巨大的利益。二是社会在监管社交媒体上的错误信息和不实信息、儿童剥削和人口贩卖以及日益严重的青少年心理健康危机方面是否达到了正确的平衡。此外,明智的监管可以确保AI的利益得到负责任和更广泛地实现。政府应当制定政策,且加强设计管理,让更多人了解AI前沿的进展情况,如透明度要求和事件跟踪。

    二人认为,设计不当的监管可能会给小公司带来不成比例的负担,扼杀竞争和创新。在制定新规时,政策制定者必须独立于领先的AI公司。监管框架需要灵活调整,以跟上AI能力对世界不断增长的理解。

    “我们相信AI有潜力以前所未有的方式提高人类的生产力和福祉,但通往更好未来的道路并非没有危险。”她们表示。

    在二人看来,OpenAI成立是一个大胆的实验,旨在优先考虑公共利益,而非为了利润开发越来越强大的AI。“但我们的经验是,即使拥有所有优势,OpenAI采用的自我治理机制也不足以满足需求。公共部门紧密参与技术发展是至关重要的。”她们说。

    此前屡次对OpenAI进行抨击的马斯克也称,“训练AI没有最大程度追求真相,这对人类很危险。”

    这次发文之所以引发外界侧目,还在于前段时间OpenAI被曝要求离职员工签署带有“不贬损承诺”的离职协议,否则就要放弃公司期权。

    尽管奥特曼表示对此并不知情,但在随后曝光的协议中,他的签名赫然在列。很快,又有消息称该公司取消了“不贬损承诺”的离职协议。

    导致OpenAI深陷舆论漩涡的还有其核心人物伊尔亚·苏茨克维(Ilya Sutskever)的离职,以及核心安全团队“超级对齐”也在近日被曝解散。他们在离职后纷纷通过社交媒体批评OpenAI的治理方式。

    或是作为回应,OpenAI成立了一个董事会委员会,用来评估其人工智能模型的安全性。这一举措距离该公司解散内部安全团队以及安全问题负责人离职仅数周时间。

    新成立的委员会将在90天内评估OpenAI技术的保障措施,并提交报告。“董事会完成全面审查后,OpenAI将以符合安全原则的方式公开分享所采纳的建议。”该公司周二在其博客中写道。OpenAI还表示,他们最近已经开始训练其最新的AI模型。

    面对高管离职、员工保密协议争议以及盗用好莱坞女演员声音等一连串负面事件,奥特曼能否以“受损”的个人信誉带领OpenAI持续向前,将是短期内AI行业的重要议题之一。

    界面新闻记者 | 陈振芳界面新闻编辑 | 宋佳楠

    “私营企业推动革命性新技术的边界前进时,我们是否可以期待它们在符合股东利益的同时也符合更广泛世界的利益?”

    近日,OpenAI两名前董事海伦·托纳((Helen Toner)、塔莎·麦考利(Tasha McCauley)在《经济学人》上撰文,指出该公司存在巨大的管理漏洞,并将矛头直指CEO山姆·奥特曼(Sam Altman)。

    两人分别于2018年、2021年加入该公司董事会。进入OpenAI时,她们对公司自我治理的创新方法可能为负责任的AI发展提供蓝图持谨慎乐观态度。

    成立之初, OpenAI被认为是一家非营利机构,旨在确保人工通用智能(AGI)或比人类更聪明的人工智能系统将“惠及全人类”。但为了筹集必要的资金,OpenAI创建了一个营利性子公司,同时由非营利机构掌权。

    她们在文中称,设计这一前所未有的结构,目的在于维护坚持其原始使命,董事会的任务就是维护这一使命,“不幸的是,它没有成功。”

    而在ChatGPT横空出世以后,OpenAI在商业化的道路上狂奔。直到“解雇门”事发,公司内部的巨大矛盾才被外界窥见。

    二人在文章中针对奥特曼被解雇一事给出了正面回应,这也是该公司内部人士首次在媒体上针对这一事件进行回应。

    她们提及,之所以OpenAI董事会解雇了奥特曼,是为了挽救公司的自我监管结构。长期以来,奥特曼的行为模式导致董事会维护公司使命的能力越来越受限,包括削弱董事会对关键决策和内部安全协议的监督。

    该公司多位高管私下向董事会表达忧虑,认为奥特曼培养了一种“充满谎言的有毒文化”,并参与了“可以定性为心理虐待的行为”。

    针对去年震惊全球的“解雇门”,二人直言她们并不后悔通过解雇奥特曼来重塑OpenAI,但仍然担心OpenAI在推动技术进步方面的作用。

    “自奥特曼重返掌舵以来的发展,尤其是高级安全人才的离职,预示着OpenAI自治实验的不祥之兆。”她们说道。

    奥特曼重返OpenAI后,该公司曾对外表示,董事会“在其广泛自由裁量权内”解雇了奥特曼,但也得出结论认为他的行为“没有要求解雇”。

    二人质疑,OpenAI几乎没有提供具体的理由来证明上述结论,也没有将调查报告公开给员工、媒体或公众。

    一直以来,AI安全问题备受关注。两位前OpenAI董事认为,根据经验,自我治理无法可靠地抵御利润激励的压力。“AI具有巨大的正面和负面影响潜力,仅仅假设这样的激励措施总是与公共利益相一致是不够的。为了AI的崛起能够惠及每个人,政府必须现在开始构建有效的监管框架。”

    她们指出,OpenAI提供了教训,即社会绝不能让AI的推出完全由私营科技公司控制。缺乏外部监督的自我监管最终将变得无法执行,尤其是在巨大利润激励的压力下。因此,政府必须发挥积极作用。

    近几个月来,从华盛顿议员到硅谷投资者,越来越多的人主张对AI进行最少的政府监管,并将AI与上世纪90年代互联网带来的经济增长相提并论。“然而,这种类比是误导性的。”二人观察到,在AI公司内部以及研究人员和工程师社区中,AI带来的巨大风险正在被广泛承认。

    奥特曼也称,“成功过渡到一个拥有超级智能的世界可能是人类历史上最重要的、充满希望的、可怕的工程。”许多顶尖AI科学家对他们自己正在构建的技术表达了忧虑,这与早期互联网的程序员和网络工程师的乐观态度大不相同。

    托纳和麦考利强调,由于缺乏有效监管,AI带来了以下三大问题:一是成功的科技公司及其投资者从在线商业的缺乏监管中获得了巨大的利益。二是社会在监管社交媒体上的错误信息和不实信息、儿童剥削和人口贩卖以及日益严重的青少年心理健康危机方面是否达到了正确的平衡。此外,明智的监管可以确保AI的利益得到负责任和更广泛地实现。政府应当制定政策,且加强设计管理,让更多人了解AI前沿的进展情况,如透明度要求和事件跟踪。

    二人认为,设计不当的监管可能会给小公司带来不成比例的负担,扼杀竞争和创新。在制定新规时,政策制定者必须独立于领先的AI公司。监管框架需要灵活调整,以跟上AI能力对世界不断增长的理解。

    “我们相信AI有潜力以前所未有的方式提高人类的生产力和福祉,但通往更好未来的道路并非没有危险。”她们表示。

    在二人看来,OpenAI成立是一个大胆的实验,旨在优先考虑公共利益,而非为了利润开发越来越强大的AI。“但我们的经验是,即使拥有所有优势,OpenAI采用的自我治理机制也不足以满足需求。公共部门紧密参与技术发展是至关重要的。”她们说。

    此前屡次对OpenAI进行抨击的马斯克也称,“训练AI没有最大程度追求真相,这对人类很危险。”

    这次发文之所以引发外界侧目,还在于前段时间OpenAI被曝要求离职员工签署带有“不贬损承诺”的离职协议,否则就要放弃公司期权。

    尽管奥特曼表示对此并不知情,但在随后曝光的协议中,他的签名赫然在列。很快,又有消息称该公司取消了“不贬损承诺”的离职协议。

    导致OpenAI深陷舆论漩涡的还有其核心人物伊尔亚·苏茨克维(Ilya Sutskever)的离职,以及核心安全团队“超级对齐”也在近日被曝解散。他们在离职后纷纷通过社交媒体批评OpenAI的治理方式。

    或是作为回应,OpenAI成立了一个董事会委员会,用来评估其人工智能模型的安全性。这一举措距离该公司解散内部安全团队以及安全问题负责人离职仅数周时间。

    新成立的委员会将在90天内评估OpenAI技术的保障措施,并提交报告。“董事会完成全面审查后,OpenAI将以符合安全原则的方式公开分享所采纳的建议。”该公司周二在其博客中写道。OpenAI还表示,他们最近已经开始训练其最新的AI模型。

    面对高管离职、员工保密协议争议以及盗用好莱坞女演员声音等一连串负面事件,奥特曼能否以“受损”的个人信誉带领OpenAI持续向前,将是短期内AI行业的重要议题之一。