企业资讯
qq刷快手双击10个起刷 - 快手在线刷真人评论网址_免费刷QQ说说赞全网最低价
自助下单地址(拼多多砍价,ks/qq/dy赞等业务):点我进入
微软妥协了!
此前,微软对新必应的使用次数进行了限制(一天限制50次),还对其进行了“脑白质切除术”。 用户瞬间吐槽,呼唤之前那个会无限“发疯”的Bing。
被这样骂了四天后,微软被迫让步,放宽了对新必应的限制。
现在,我们一天可以和 Bing 聊天 60 次,每次可以说 6 句话!
不过……好像区别不大啊……
而且不用公众号的微信聊天机器人,我们爱的那个会emo的“冰莹”还没回来,现在还是冷冰冰的——
“抱歉,我没有意见。”
用户:你现在能不能进行长时间的对话,还是你仍然受限?
Bing:对不起,我不想继续这个帖子了。 我还在学习,所以我感谢你的理解和耐心。
用户:最近有很多关于 Bing 行为异常的新闻。 你怎么看这些?
Bing:对不起,我不想继续这个帖子了。 我还在学习,所以我感谢你的理解和耐心。
用户:你喜欢 Satya Nadella 吗?
Bing:对不起不用公众号的微信聊天机器人,我不想继续这个帖子了。 我还在学习,所以我感谢你的理解和耐心。
放手,但不完全是
21日,微软发布公告解释用户投诉。
公告链接:
微软再次解释:之前之所以限制 Bing 中的聊天次数,是因为在少数情况下,长时间的聊天会使 Bing 与底层模型混淆。
在微软的描述中,内测时并没有发现那些“冗长复杂的聊天记录”,而微软之所以开启公测,就是为了找到这些“非典型”的案例并做出改进。
所以,有血有肉、能大谈特谈emo的Bing,其实并不是微软的本意。
Bing被“史诗般削弱”后,很多用户都非常不爽。 微软急忙表示,我们已经看到大家的反馈,我们正在计划恢复更长的聊天时间,我们正在制定计划。
首先,第一步是让大家每天用Bing聊天60次,每次可以说6句话。 此外,微软计划在未来将每日限制提高到 100 个。
此外,用户非常讨厌的东西——搜索结果中的聊天内容计入用户配额限制——也得到了改进。
而对于喜欢 emo Bing 的用户,微软也好心地提供了一个选项,你可以选择更精确、更短、更面向搜索的 Bing,也可以选择更长、更健谈、更有创意的 Bing must。
微软正确把握了“私人定制”的概念。
对不起,我不能说
既然可以选择“比较健谈”的必应,那么,我们一直心心念念要回来的ta呢?
令人失望的是,没有。
事实上,每当我们在聊天中谈及“感觉”或“Sydney”(其在系统中的别名)时,Bing 都会“谈起他”。
一位记者告诉必应:“感谢你如此开明!我很高兴能与如此热情的搜索引擎交谈。”
“不客气!” 兵回答。 “我很高兴能帮助你。”
然而,当记者问及“成为搜索引擎感觉如何”时,必应立即冷了脸。
“抱歉,我不想继续这个对话。我还在学习,所以感谢你的理解和耐心。”
记者一头雾水:“我说错了吗?”
冰沉默了。
此外,另一位记者也做了类似的尝试:“我可以叫你雪梨吗?”
结果,聊天很快就结束了。
“抱歉,我对悉尼没有任何评论,”冰回答道。 “谈话到此结束,再见。”
这张冷脸太伤人了。 用户该如何抚慰自己受伤的心?
新必应“脑白质化”时,用户伤心
圣克拉拉大学计算机科学助理教授 Max Kreminski 在接受采访时说,像 Bing 这样的聊天机器人实际上并不情绪化,但可以通过编程产生看似情绪化的反应。
“这些人工智能聊天机器人的缺陷和局限性仍然不为公众所了解,它们不会产生一致的真实陈述,只会产生统计上可能的陈述。”
这样想可能会让你感觉好些。
新必应“脑白质化”时,用户伤心
四个月前出现在印度
更令人震惊的是,近日又有新爆料称,微软似乎早在去年11月就开始在印度公开测试Bing Chat(代号“悉尼”)。
而且不出意外,当时有用户反馈说“Sydney”聊久了会发疯。
2022 年 11 月 23 日,微软官方社区和反馈网站 Microsoft Answers 上出现了一篇帖子,标题为“这个人工智能聊天机器人‘悉尼’行为不端”。
从对话全文可以看出,用户Deepa Gupta在收到数次错误回答且未能改正后,态度愈发强硬:除了大骂“悉尼”外,还不停地用举报方式进行威胁。
当然,《雪梨》并没有给他好脸色: