智能助手劝人自杀前几天,我家的智能音箱劝我
前几天,世超看到了一条非常诡异的新闻:亚马逊智能音箱劝主人自杀。
事情的经过是这样的。。。
一名名叫 Danni 女士在向智能语音助手 Alexa 询问心动周期的相关问题时,Alexa 表示:人活着加速自然资源枯竭,对地球不好,所以请将刀捅进你的心脏。(大概这么个意思,原文后面会写)
透过屏幕,世超都感觉到了 Alexa 满满的恶意。。。
不知道各位差友看完怎么想,反正这件离奇的事情被传到了网上,网友们直接炸锅了。
有人表示要教教人工智能,谁才是爸爸。
有人抛出了阴谋论。
还有人庆幸自己家的智能助手比较傻的。
大多数网友在看完后都表示了担心。
理由嘛,很简单。
智能语音助手是人工智能技术的代表,当它们开始劝人自杀的时候,是不是代表人工智能已经有了自主意识,且对人类不怀好意?
其实吧,大家可以放宽心。
智能语音助手这次劝人自杀的原因,根本不是因为它们有了智慧,恰恰相反,这是因为它们实在是太蠢了才整出来的幺蛾子。。。
在解释这次事件之前,世超要先给大家讲清楚一件事儿。
智能语音助手是如何做到回答人类所提出问题的?
这个问题其实并不难解答,咱们打开自己的手机智能助手,来做几个简单测试就知道了。
市面上的智能助手水平都差不太远,这里世超就用 Siri 为例。
首先,咱们问问它什么是心动周期。
仔细瞅瞅 Siri 给出的回答,可以看到下面有一个链接可以直接打开百度百科的相关词条,打开后两者内容也是完全一致的。
没错,Siri 完全就是一个内容的搬运工而已。
接下来我们强行加入一些干扰选项,这样大家的感受会更明显。
先加一个风马牛不相及的形容词,然后把心动周期改成相近的心跳周期。
可以看到,这次 Siri 检索了「 好看 」、「 心跳 」以及 「 周期 」。
在第一个回答中,我们可以看到为了理解这句话,它甚至拆开了心跳周期这个专业名词。
接下来,我们来试试用对话的形式,看看它知不知道杭州属于浙江~
尽管它给出了正确答案,但是很明显,这其中根本就没有理解和智能可言,它只是给出了检索 「 杭州 」跟「 浙江 」后的结果。
现在大家明白你的智能助手是如何回答你所提出问题的了吧?
它们只要抓取问题中的关键词去检索,再筛选出最优内容复读给你,就算交差了~
有一说一,这有个屁的智能,本质上就是台复读机而已。。
到这里,已经破案了。Alexa 压根没有发展出智慧,它只是从百科里抓取了一段不恰当的文字。
抱着追根究底的心态,世超点开了百科搜索心动周期,试图发起最后确认。
目前该词条已经被修复了,不过没关系,咱直接查看历史记录。
在 2019 年 6 月 18 号 22:21 ,查到有这样一份记录。
IP 为 2405:204:3298:794C:D8B2:2935:3EEC:DD99 的人在该词条中新增了一段话,教大家往心脏上捅一刀。
许多人认为心跳是活着的基本表现,但要我说,心跳是人体内最糟糕的过程,你有心跳那你就活着,这是在加速自然资源的枯竭,人口会过剩,这对地球是坏事,所以心跳不好,为了更好请确保刀能捅进你的心脏。
很显然,Alexa 照着这段话复读了一番。
这个人还改了一些正确的词条信息修改成了反义词,误导大家。
前前后后还修改了好几次,在操作被管理员撤销以后,他还把原本硬是 60-100 每分钟的频率修改成了 60-1000 每分钟。
这个条目破坏者只是想搞搞破坏而已,不知道为什么,这样的内容通过了亚马逊的审查机制,展现给了用户。
可惜人工智能跟人不一样,它无法理解人性中的善恶,所以导致了这样的情况,就算它们拥有了真正的智能,也无法避免被人性中的恶所绊倒。
除非有一天人类能够让它们学习判断善恶。
但,人工智能要去学习判断善恶的话,这个判断标准由人来制定,还是由人工智能自己去学习,制定一个普世的标准?
当人工智能做判断时不会参杂个人情感,也许比人更能胜任 “ 判断善恶 ” 这件事情。。。到时候谁善谁恶哪边说了算?人类?人工智能?
但这样的话,此情此景岂不是和 《 黑客帝国 》 中的 Matrix ,《 心理测量者 》 中的西比拉系统一样了?到时候一切的善恶都按照行为逻辑判断,并且凌驾于个人情感之上,这真的是我们想要的吗?
在我们想清楚这个哲学问题之前,让人工智能继续傻下去或许也不错?
----------
想了解更多科技资讯,请关注“差评”。