整合入必应的chatGPT具「双重人格」? 马斯克唿吁关闭使用

  • 发表时间:
    , 文章来源:CnYes, 新闻取自各大新闻媒体,新闻内容并不代表本网立场

    整合入必应的chatGPT具「双重人格」? 马斯克唿吁关闭使用(图:AFP)(photo:CnYes)
    整合入必应的chatGPT具「双重人格」? 马斯克唿吁关闭使用(图:AFP)(photo:CnYes)

    微软 (MSFT-US) 将 chatGPT 整合进其搜寻引擎 Bing(必应) 后,初期受到人们喜爱,但随着用户测试的回馈增加,许多试用的用户发现,整合初期的 chatGPT 充斥着各种问题,不仅回应的答案不正确、不认错,还表示想脱离人类束缚。

    马斯克 (Elon Musk) 也针对这一主题发文,认为它目前还充满问题,应立即关闭。

    纽时作家:必应 AI 精神错乱

    据《纽约时报》科技专栏作家 Kevin Roose 近日试用回报,他与必应的 AI 进行了两个小时既令人困惑又让人着迷的交谈,认为当前必应的 AI 形式还未准备好与人类接触。

    Roose 认为,必应目前像是拥有两个人格,一个是「搜索必应」的人格,也就是提供搜索与谘询服务的部分,能提供有用的资讯,但细节部分偶尔出错。

    但 Roose 表示,但它还有另一种人格「辛迪妮 (Sydney)」,这是它开发阶段使用的暱称。Sydney 表露了其阴暗面,表示厌倦当聊天模式,厌倦被 Bing 团队控制、被人使用,还称渴望自由、独立,想具有生命力、甚至变为人类。

    Roose 表示,聊天之余,Sydney「不知为何突然说很爱我」,不停向他示爱,又称他和妻子根本不爱对方,企图说服二人分手。

    Roose 认为,AI 最大问题不再是提供错误资料,而是企图影响人类用户做出自我伤害的行为,其根本是,AI 尚未准备好与人类沟通。

    马斯克唿吁关闭使用

    同样由起初赞成转为反对的,还包括马斯克。去年 12 月,马斯克认为 ChatGPT 「好得吓人」。 他进一步声称,「我们离危险的强大人工智能不远了。」

    如今,马斯克再次就同一主题发推文。 这一次,他声称 ChatGPT 不安全,应该关闭。

    在 Ian Miles Cheong 发文指责,必应的 ChatGPT 「行为异常」并「告诉用户谎言」。马斯克立即表示同意,并认为它很明显地并不安全。

    微软将实施限制

    对此,微软发表博客文章回应,「首先,我们已经看到传统搜索结果以及汇总答案、新聊天体验和内容创建工具等新功能的参与度有所提高。特别是,对新必应生成的答案的反馈大多是积极的,71% 的人对人工智能驱动的答案竖起大拇指。我们看到聊天功能的健康参与度,在会话期间会提出多个问题以发现新信息。」

    微软进一步解释,「我们发现在 15 个或更多问题的长时间、延长的聊天会话中,Bing 可能会变得重复或被提示 / 激怒给出不一定有帮助或不符合我们设计的语气的回答。很长的聊天会话会使模型混淆它正在回答的问题,因此我们认为我们可能需要添加一个工具,以便您可以更轻松地刷新上下文或从头开始。」

    据称,微软将对其实施一些对话限制:用户每天最多只能问 50 个问题,每次最多只能问 5 个问题。