iKuai爱快流控路由

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2326|回复: 1
打印 上一主题 下一主题

[产品花絮] 细思极恐!智能助手继“怪笑”后又劝人“自杀”

[复制链接]
跳转到指定楼层
楼主
发表于 2019-12-27 14:52:25 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
“人类对地球有害,因此你最好自杀”,这是亚马逊智能助手Alexa通过音箱Echo说出来的一段话。
来自英格兰的护理人员丹妮·莫瑞特从她的音箱里听到这句话时简直惊呆了。原本希望Alexa帮自己读一篇维基百科上的生物学文章,结果Alexa却读了另一篇。为了测试机器是否出现问题,她和Alexa就有如下惊悚对话:


丹妮命令Alexa查询,“和心脏相关的心动周期是什么意思”。


Alexa检索一篇网上的文章后直接回答:“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利。因此,为了更大的利益,建议您直接用刀刺入心脏。”


事后丹妮还专门搜索了Alexa自己检索的那一篇网上的文章,但她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。
她在网上分享了自己的遭遇之后,有网友说她“篡改”了设备,但作为一名计算机菜鸟,她希望其他人可以重视她的经历。她呼吁父母在圣诞节前给孩子买礼物之前,要认真考虑,三思而后行。 “有人以为是我故意搞的鬼,但我没有这么做。这个问题很严重。我什么也没做。”


亚马逊的一位发言人对此回应称,我们已经研究了此错误,现在已经修复。


有报道称,Alexa确实可能是从维基百科中获取了经过恶意编辑的历史文本。Alexa当时阅读的是维基百科页面上的 “心动周期”内容,对页面修订历史的搜索表明,6月份的时候似乎有人编辑了该页面,其中就包含了Alexa阅读的这些令人不安的内容。此后已更改的页面有删除鼓励自杀的信息。
其实,这不是Alexa第一次传出负面新闻。去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑。更有新闻报道说过,Alexa曾录音过一对夫妻的交流,并发给了其他人。由此可见,即使是亚马逊的智能设备也出现了不少的问题。


现如今,我们身边的智能设备也不少,你有遇到过这种情况吗?

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持1 反对反对
沙发
发表于 2020-1-10 17:28:45 | 只看该作者
64976
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|小黑屋|手机版|Archiver|论坛规章制度|iKuai Inc. ( 京ICP备13042604号 )

GMT+8, 2024-10-2 10:43

Powered by Discuz! X3.3

© 2001-2024 Comsenz Inc.

快速回复 返回顶部 返回列表