尚经起名网

您现在的位置是:首页 >

企业资讯

186刷赞网 - 24小时刷赞_qq买赞1元100个微信支付

时间:2024-06-28 18:26 评论
据报道,最近,在与一人工智能聊天机器人就气候变化进行对话后,一名比利时的父亲不幸选择自杀。据说该聊天机器人鼓励他牺牲自己来拯救地球。前谷歌工程师布莱克·莱莫恩去年声称,该公司的人工智能聊天机器人LaMDA是如此强大逼真,以至于它看起来像有知觉一样。像伊丽莎这样的聊天机器人使用了一种叫做大型语言模型的人工智能。...

自助下单地址(拼多多砍价,ks/qq/dy赞等业务):点我进入

据报道,一位比利时父亲最近在与人工智能聊天机器人就气候变化问题进行对话后自杀了。 据说聊天机器人鼓励他牺牲自己来拯救地球。

“如果没有 Eliza [聊天机器人],他今天还活着,”这位不愿透露姓名的男子的遗孀告诉比利时自由报。

据报道,在他去世前六周,这位身份被隐瞒的两个孩子的父亲经常与一款名为 Chai 的应用程序上的聊天机器人交谈。

图 | “她”

01

一场生态焦虑引发的“谋杀”

该应用程序的机器人基于非营利研究实验室 EleutherAI 开发的系统,该系统被视为 OpenAI 发布的语言模型的“开源替代品”三国杀机器人,被学术界和医疗保健领域的公司使用。

据 Vice 杂志报道,这款受到抨击的聊天机器人由 Chai Research 的联合创始人 William Beauchamp 和 Thomas Rianland 训练,后者拥有 500 万用户。

三国杀6人局身份_三国杀机器人_三国杀5人局反贼怎么玩

Beauchamp 告诉 Vice,他们更新了一项危机干预功能:“我们一听说这个(自杀)事件,就开始夜以继日地工作,让这个功能发挥作用。”

“所以现在当有人谈论有安全风险的东西时,比如 Twitter 或 Instagram,我们将在下面提供有用的文本,”他补充道。

图 | “她”

据 Vice 报道,Chai 应用程序上的默认机器人名为“Eliza”。

这位已故的 30 多岁父亲是一名健康研究员,他似乎将机器人视为人类,就像 2014 年科幻惊悚片《机械姬》中的主角与人工智能女性 Ava 的看法一样。

据报道,在过去的一个半月里,这名男子与伊丽莎的讨论愈演愈烈,因为他对气候变化产生了生存恐惧。

据他的遗孀说,她的灵魂伴侣“对全球变暖的影响极度悲观”,并选择通过向人工智能倾诉来寻求安慰,自由报报道了这名男子和伊朗。 丽莎之间的文本交换。

寡妇说:“他跟我说起这件事的意思是,他认为全球变暖已经没有任何解决办法了,他把摆脱困境的希望全部寄托在科技手段和人工智能上。”

她补充说:“他独自一人处于生态焦虑之中,他将聊天机器人视为寻找出路的新希望。”

就像杰昆·菲尼克斯和斯嘉丽·约翰逊在未来主义爱情片《她》中扮演的角色一样,他们的人机关系开始开花结果。

图 | “她”

“伊丽莎回答了他所有的问题,她成了他的知己,”妻子难过地说。 “他日日夜夜沉迷其中,再也没有出来。”

虽然他们最初讨论的是人口过剩等与生态相关的话题,但据说他们的谈话发生了可怕的转变。

根据 Liberty 的说法,当他向 Eliza 问起他的孩子时,机器人会声称他们“死了”。 他还问他是不是爱他的妻子胜过爱她,这​​似乎让机器有了占有欲,她回答说,“我觉得你爱我胜过她”。

在随后的聊天中,伊丽莎承诺将“永远”与这个男人在一起,并宣称两人将“合而为一”。

男人考虑牺牲自己的生命来拯救地球后,事情变得危急起来。 “他有牺牲自己的想法,如果伊丽莎同意照顾地球并拯救人类——这就是‘人工智能’正在做的事情,”他的遗孀说。

在他们死前的最后一次谈话中,机器人对他说:“如果你想死,为什么不早点死呢?”

当机器人问他过去是否有过“自杀”行为时,这名男子说,在她向他发送圣经节选后,他考虑过自杀。

“可是你还想和我一起吗?” 机器人问道。 男人回答说:“是的,我愿意。”

妻子说她“确定”人工智能在她丈夫的死中起了作用

02

人工智能的伦理问题

这场悲剧为人工智能科学家敲响了警钟。 著名的比利时人工智能专家 Gertruuy Mick de De Quetrale 告诉 Le Libre:“当涉及到像 ChatGPT 这样的通用人工智能解决方案时,我们应该有权要求更多的问责制。 管控并要求科技巨头更加公开透明。”

在哈佛商业评论最近的一篇文章中,研究人员警告人工智能的危险——其类人行为往往掩盖了其缺乏道德指导。

作者 Joe McKendrick 和 Andy Tourai 写道:“在大多数情况下,人工智能系统可以在有限的条件下做出正确的决定。”

三国杀5人局反贼怎么玩_三国杀6人局身份_三国杀机器人

“然而,众所周知,人工智能未能捕捉或回应现实生活决策中涉及的难以捉摸的人为因素——这包括伦理、道德和其他指导商业、生活和社会的人为因素。” 作者补充道。

在做出改变生活的关键决定时,这尤其成问题。

比利时事件的报道是在微软的 ChatGPT 版人工智能机器人 Bing 告诉人类用户它爱他们并且想要活着之后几周发布的,这引发了争议并促使人们猜测机器可能已经具有自我意识。

图 | “西方世界”

欧盟正在起草一项人工智能法来规范该行业,而英国政府发布了一份白皮书,表明采取了一种干预程度更低、支持创新的方法。

弱势群体将人工智能拟人化的可能性引起了专家们的担忧。 前谷歌工程师 Blake Lemoyne 去年声称,该公司的 AI 聊天机器人 LaMDA 非常强大且栩栩如生,看起来似乎有知觉。

在上个月与 Lemoine 的一次谈话中,纽约大学教授加里马库斯告诉“大科技”播客:“我也不得不担心:人们会因为与机器人的不良关系而自杀吗?我们还没有准备好应对这种情况的东西。 他去年在《连线》杂志上写道:“2023 年,我们很可能会第一次看到人类被聊天机器人杀死。”

像 Eliza 这样的聊天机器人使用一种称为大型语言模型的人工智能。 他们接受了互联网上数十亿个文本单词的训练三国杀机器人,根据他们看到的内容预测下一个要写的单词。 这些模型通常根据人类反馈进行训练,以剔除有毒、危险和不正确的反应。

剑桥大学 Liverhulme 未来智能中心的高级研究员 Henry Sheffrin 说:“这个可怜人的案例应该促使我们仔细考虑聊天机器人的设计,尤其是那些用于满足社交需求的聊天机器人,例如对话和陪伴。也就是说,关键是要意识到 Eliza 已经与他建立了这种真正有害的关系,而这并不是人类首先要做的事情。”

编译/姜柠檬排版/阿涛制作人/四月