三星电子宣布:禁用ChatGPT等生成式AI工具 违者恐开除

  • 发表时间:
    , 文章来源:EtToday, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    *(photo:EtToday)
    *(photo:EtToday)

    ▲ 三星电子禁止员工以公司设备、内部网路使用生成式AI工具。(图/达志影像/美联社)

    记者陈宛贞/综合外电报导

    南韩三星电子发现员工将敏感资讯上传到ChatGPT等蔚为风潮的生成式AI工具,1日发出公告宣布,基于安全考量,禁止所有员工利用公司设备、内部网路时使用ChatGPT等服务,成为这种技术应用于工作场域的一大挫败。

    《彭博》取得三星电子发给员工的备忘录指出,员工上传到ChatGPT、Google Bard及Bing等AI平台的数据储存在外部伺服器,难以回收及删除,恐怕外洩给其他使用者,因此下令禁止使用,违者可能面临解雇。

    该公司3月调查内部AI工具使用情形,结果有65%员工认为,这类服务构成安全风险。备忘录也提到,三星工程师4月初使用ChatGPT时意外洩露内部原始码。目前不清楚这些原始码涉及何种内容,三星一名代表拒绝发表评论。

    三星向员工表示,「公司内外对ChatGPT等生成式AI平台的关注持续增长,虽然人们聚焦这些平台的实用性与效率,却也对其带来的安全风险愈来愈忧心。」

    三星禁止员工利用公司拥有的电脑、平板电脑、手机及内部网路时使用生成式AI系统,也要求员工在个人设备上使用ChatGPT等工具时,不要上传任何公司相关资讯或涉及公司智慧财产权的个人数据,违者可能被解雇。

    备忘录中写道,「我们要求努力遵守安全准则,若不照做可能导致公司资讯外洩,进而引发纪律处分,甚至终止僱佣关系。」

    另一方面,三星正开发内部专属的AI工具,用于翻译、概述文件,甚至是软体开发,也正研究如何防止公司敏感资讯被上传到外部服务。ChatGPT上月就推出「无痕(incognito)模式」,使用者可以拒绝将聊天纪录用于训练AI模型。

    三星说明,「总部正在审查安全措施,创造安全使用生成式AI的安全环境,以提升员工生产力及效率。但在这些措施就绪以前,我们暂时限制使用生成式AI。」