比人类聪明太危险!前OpenAI安全专家轰公司罔顾AI威胁

  • 发表时间:
    , 文章来源:LTN, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    前OpenAI安全专家莱克(Jan Leike,见图)示警AI比人类聪明很危险,批评OpenAI方针罔顾安全。(图撷取自社群X)(photo:LTN)
    前OpenAI安全专家莱克(Jan Leike,见图)示警AI比人类聪明很危险,批评OpenAI方针罔顾安全。(图撷取自社群X)(photo:LTN)

    郭颜慧/核稿编辑

    〔即时新闻/综合报导〕人工智慧(AI)领头羊「OpenAI」首席科学家及安全家专家相继辞职,其中前AI安全主管莱克(Jan Leike)17日指出,目前OpenAI的公司高层方针注重新颖、罔顾安全,忽视制造出比人类更聪明的机器可能所带来的威胁。

    据美国《ABC》报导,OpenAI安全研究团队「超级对齐」(Superalignment)主管莱克(Jan Leike)继联合创办人暨首席科学家苏茨克(Ilya Sutskever)后,17日也宣布辞职。

    莱克在社群X上表示,他加入OpenAI的初衷就是研究AI,但已和公司高层针对优先核心价值的意见相左已久,目前公司方针将安全置于新颖之后,已令他无法苟同因而求去。

    莱克表示,有关次世代AI模型研发,应将安全和社会分析置于第一顺位,因为创造出比人类更聪明的机器,本身就是非常危险的事情。

    莱克强调,OpenAI有义务代表全人类担起此责任,成为一个「安全第一」的通用人工智慧(AGI,指人工智慧已超过或至少具备相同人类智慧的情况)公司。

    对此,OpenAI执行长奥特曼(Sam Altman)回应表示,非常感谢莱克过去对公司的贡献,对其离职感到非常不舍,且其所言甚是,OpenAI还有更多需要做,也一定会做到的事情,未来将撰文详细说明有关AI安全的研究。

    据悉,OpenAI已证实,莱克离职后,其领衔的AI安全研究团队「超级对齐」已经解编。