AI峰会通过布莱切利宣言 英美中等28国同意合作因应AI风险

  • 发表时间:
    , 文章来源:UDN, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    美国商务部长雷蒙多(左)、英国科学、创新暨科技大臣唐萃兰(中)与中国大陆科技部副部长吴朝晖(右)1日出席英国布莱切利园的全球AI安全峰会。路透(photo:UDN)
    美国商务部长雷蒙多(左)、英国科学、创新暨科技大臣唐萃兰(中)与中国大陆科技部副部长吴朝晖(右)1日出席英国布莱切利园的全球AI安全峰会。路透(photo:UDN)

    英国1日在布莱切利园召开为期2天的全球首场人工智慧(AI)安全峰会。首日议程结束后,英国、美国及中国大陆等28个政府代表以及欧盟签署通过「布莱切利宣言」,矢言强化全球合作,因应AI安全议题。

    英国卫报报导,该宣言虽未如部分英国政治人物所愿、同意在英国设立国际测试中心,但为未来国际合作提供了初步范本。下一场AI安全峰会预估半年后在南韩登场,1年后则换法国举办。

    布莱切利宣言指出,无论开发者有心与否,最强大的AI模型功能皆可能伴随严重甚至具毁灭性的潜在风险。各国对于认识AI潜在风险的急迫性达成共识。宣言写道:「鉴于AI快速且不稳定的演化频率,以及科技业获得投资基金的速度加快,我们强调,强化认识AI的潜在危机,并加强相关因应能力,是尤为急迫的议题」。

    路透报导,该宣言鼓励前沿AI的开发者,在测试、监控与降低AI潜在有害能力的同时,保持资讯透明与诚信。

    宣言拟定了一系列风险因应计画,先是辨识出各方皆担忧的风险,再从科学角度理解这些风险,最终制定跨国政策降低风险。而要达成上述目标,除了有赖开发前沿AI的私人企业提升透明度,还需要合适的评估指标、安全测试工具、发展相关公部门能力与科学研究等。

    英国首相苏纳克称布莱切利宣言为里程碑,「显示了世界最顶尖的AI巨头达成共识,同意理解AI潜在风险一事迫在眉睫」。