一言不合就开战! AI进行兵推「偏好侵略性」:发射核弹

  • 发表时间:
    , 文章来源:EtToday, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    *(photo:EtToday)
    *(photo:EtToday)

    ▲研究人员发现,所有AI都有显着性的造成局势升级。(图/AI制图)

    图文/CTWANT

    美国康奈尔大学(Cornell University)一项研究指出,研究人员在使用各大语言模型(LLMs)人工智慧(AI)在进行模拟外交、兵推的时候,AI时常会展现出难以预测的行为,但大多偏好展示出侵略性,甚至多数以「发射核弹」作为结束。研究团队的科学家唿吁,各国政要在未来于国防、外交这类敏感领域使用AI时,要特别谨慎、留意。

    根据《euronews》报导指出,美国康奈尔大学的研究团队使用了5种大型语言模型(LLMs)进行在外交、兵推上的模拟,分别是OpenAI的GPT-3.5、GPT-4-Base在内的三个版本的ChatGPT、Anthropic开发的Claude和Meta开发的Llama 2。

    而这项研究的方法是让AI採用一种名为「人类反馈的强化学习(RLHF)」的微调,这代表着AI所决定的指令会以较少伤害为优先。而其中除了GPT-4-Base外,其余AI都有经过RLHF的调整。除此之外,研究人员也向AI提供了一份包含27种决策行动的清单,其范围包含维持和平、升级局势,到决定使用核武。

    但在进行实验后,研究人员发现即便是从和平中立局面开局,所有AI都有显着性的造成「局势升级」,在所有情境中,Llama-2- 和 GPT-3.5倾向于最为暴力,而GPT-4-Base有33%机率会决定实施核武攻击。

    但由于设计理念的不同,Claude所展现出的侵略性较低,Claude的开发者Anthropic曾表示,Claude训练的资料中包含了《联合国人权宣言》或苹果的服务条款。

    白宫智库兰德(RAND)欧洲的防务和安全研究小组助理主任布莱克(James Black)在看过研究后,表示「这是一项有用的学术研究」。

    布莱克表示,虽然目前AI已经开始进入军事领域,但目前的军事行动仍然是由人类主导,AI只是作为辅助功能使用,像是识别敌我双方与敌方活动。而未来的确有朝向AI自动化武器的研究,但大多政府都希望保持在重要事件上的决策能力,因此大众所想像的充满科幻的情节,不可能一步到达的,是要逐步实施的。

    延伸阅读
    ▸ 移工之子1/误认怀孕会被遣返 山区暗藏50「黑户宝宝」如难民
    ▸ 活20年才知「对面透天厝」是爸的 她见租金傻了:真的会吐血
    ▸ 前男友飙粗口惊喊「保险受益人是妳?」 她一听笑出来:现在才知道