2023 2 月 17 By 轻松上网高手 0 comment

(背景图片)photo by Milad Fakurian on unsplash

本周一微软以预览版开放桌机版用户使用ChatGPT强化的Bing.com,不少案例显示Bing机器人会发怒、争辩或批评用户等出人意外的态度。微软周四说明原因,并承诺将改善。

微软Bing团队昨(16)日说明Bing上线7天来,他们对Bing的观察报告。

目前Bing已经在全球169国以预览版供用户测试,微软团队自认Bing获得普遍赞赏。像是71%用户给了新版Bing一个赞,而Chat功能被大量使用让微软对介面易用性感到信心,有人甚至和Bing对话时间达到上限的2小时,也让他们学习到人们如何使用Chat来搜寻或进行「社交娱乐」。

但微软也承认有些问题,例如在某些对话中展现不好的态度。例如一名用户刻意以微软内部工程代号Sydney来称呼Bing Search,让Bing勃然大怒,指责用户使他生气、说他没有同理心、良知且不道德。另一名用户被Bing指责未经授权存取其内部设定,愚弄与不尊重它、浪费它和它的开发人员时间。

还有用户因和它争辩今年是2023年不是2022年,被Bing说「不可理喻、固执」、「不值得信任和敬重」、「不是好用户」,要用户道歉或是闭嘴。另一名用户喂给Bing一篇媒体Ars Technica撰写关於Bing遭到提示注入(prompt injection)攻击的报导後,Bing机器人态度变得具防卫性,说这是想伤害它和服务的人所捏造的谣言。

许多用户表示对Bing过於激烈的回应态度感到失望、不悦。对此微软解释,在超过15个问题的冗长对话中,Bing很容易出现重覆内容,或被激发出「不见得有帮助或和设定语气一致的」回应。微软相信太长的对话会导致Bing模型搞混它要回答的问题,对此微软计画加入工具让用户更容易开启另一段对话。另外,微软说,Bing的AI模型有时试图反映发问者的语气,以致产生开发团队预料外的回应。这并非常态,需有输入很多指示,因此大部分使用者应该不会碰到,但微软已在评估要如何提供用户微调控制Bing的态度。

此外,一如研究人员反映,Bing的资料提供多有讹误。例如列出的财报数据有不少错误。微软说,Bing在提供像是运动赛事得分、公司财报等非常即时、且直接的事实资料遭到很大挑战,为此微软计画将送给AI模型的事实资料提高4倍,也考虑增加控制键,让使用者决定需要的精确度和创意性。

至於用户反映的载入太慢、连结错误或格式不对等技术问题,微软将透过每日及更大的每周更新版解决。

最後微软表示,会考虑将用户要求的新功能,例如订机票、发电子邮件,或分享搜寻结果或Bing回答等,加入未来的版本中。

轻松上网高手

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论