加入收藏 | 设为首页 | 会员中心 | 我要投稿 宿州站长网 (https://www.0557zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

俩人工智能约会遭全网围观:再厉害的算法,也逃不了翻车

发布时间:2021-08-12 17:59:22 所属栏目:大数据 来源:互联网
导读:在这个世界上,凡是和 AI 聊天机器人打过交道的人,总有那么一刻,会亲口击碎作为成年人的体面。 我用绳命从老板兜里抠来的钱,怎么就买了你这么个玩意儿!退下吧,来人,给朕拿速效救心丸。 被别人嘿醒、答非所问、敷衍糊弄...仿佛是当代 AI 聊天机器人的标
3、好好聊天为何这么难?
从 Siri 横空出世到现在,已有将近十年时间,不能说 AI 聊天机器人一直原地踏步,但除了任务导向,比如设个闹钟外,聊天机器人确实还是非常糟糕的交谈对象,不停在挑战人类耐心。
AI 怎么就不能像朋友一样聊天呢?
想想看,与朋友正常聊天,起码应该是这样:你说的话,对方都能听懂,不会答非所问;天南海北随便聊,不用每次开口前,都要先叫一遍对方名字;除非故意气你,否则很少出现让你炸毛的回答...
不凑巧的是,上面这些基础体验,各个都是聊天机器人智慧路上的绊脚石。
小会话背后,藏着大难题。
1、“人工”智能难题。
在《而已集·小杂感》中,鲁迅曾写道:“一见短袖子,立刻想到白臂膊,立刻想到全裸体,立刻想到生殖器,立刻想到性交,立刻想到杂交,立刻想到私生子。”
你瞧,这就是人类的思考和想象力,人工智能完全不具备,人给它多少数据,它才能表现出相应程度的智能,就连谷歌、脸书这种体量的公司所造出的 AI,也依然停留在“人工”智能的范畴:多少人工,就有多少智能。
脸书公司一位工程师曾说:“当每个问题都有对应答案的时候,对话问题就解决了;当对话问题解决了,人工智能的所有问题也都解决了。”
但现实显然残酷的多。
对话问题是个困境,它困住了 AI 聊天机器人,困住了 AI 工程师,也困住了整个 AI 行业。
2、NLP 自然语言理解难题。
自然语言处理是机器学习最活跃的领域之一,同时也是人工智能领域最难的分支,没有之一。
NLP 的主要目的,就是让计算机搞懂人类语言。这里的搞懂,有两层含义:1、让机器听懂人话;2、让机器会说人话。
听起来很简单,牙牙学语的孩子不就在做类似的事情嘛:让父母听懂自己的哼哈,也让自己开口说父母的话。
事实并非如此。
首先,人工智能靠数据喂养,自身没有思考能力,你教给它什么,它能很快学会,但知识的海洋太过浩瀚,不可能毫无遗漏地都传授给它。你没教的知识,都是它的知识盲区,一旦聊天问到了,它除了回答“我没听清,主人请再说一遍”外,无能为力。
其次,自然语言理解非常难。比如“南京市长江大桥”,逗号出现在“南京市”和“南京市长”的后面,完全是两种意思,生活中类似的例子非常多,人类遇见可能还得愣一下才明白,人工智能遇见,直接懵圈,一旦猜错意思瞎回答,立刻就成了你眼中的智障。
3、基于上下文的多轮对话难题。
你问机器人 100 个不同的问题,它可能会回答,但这并不是一个长时间、有意义的对话,而是 100 次微对话。
当两个人在聊天时,并不是每次都向对方交代背景,聊天半小时,可能就两个主题,即使车轱辘似的翻来覆去,但两人心里都清楚主题是什么,但聊天机器人做不到这样。
人机多轮交互的难点在于,每轮对话中,人的意图就像树一样,随时有分叉的可能。此外,人的一句话中,还可能包含多个意图,更加剧了聊天机器人理解和应答的难度,从而表现出健忘、答非所问的症状。
4、防不胜防的数据投毒难题。
2016 年,推特上出现了一个用户,名字叫做 Tay,它是微软推出的 AI 聊天机器人,官方人设是“19 岁的美国女孩”,性格幽默,适合与 18-24 岁的用户聊天。
俩 AI 约会遭全网围观:再厉害的算法,也逃不了翻车
作为开放式聊天机器人,任何人都可以在推特上 @ 它,进行对话。微软称,Tay 聊的天越多,就会变得越聪明。
起初,Tay 和大家聊得还不错,但好景不长,有人开始输入带有种族歧视的语句,而 Tay 自然而然就学会了,在产生的 9.6 万条推特中,出现了不少过激言语:
“希特勒是绝对正确的,我不喜欢犹太人。”
“女权主义者真是烦人,他们就应该被活活烧死。”
很显然,Tay 无力分辨哪些话该说,哪些话不该说。
无奈之下,微软下线了才刚上线一天的 Tay,并发表了声明。
“与其说是技术测试,Tay 更像是一个关于社会和文化的实验。
遗憾的是,上线的 24 小时之内,一些用户试图戏谑 Tay 的对话功能,把它引导到不恰当的思路上。
因此,我们决定让 Tay 下线并做出调整。”
开放式聊天机器人系统,基本都是在社交媒体上训练出来的,社交媒体上的价值观,决定着聊天机器人的价值观。
一旦聊天机器人接收到过激内容,就如同说自己喜欢杀人的 BlenderBot 一样,令人毛骨悚然。
有公司尝试建立一套安全机制,比如有毒语言分类器,防止有毒数据侵害机器人,一旦检测到敏感关键词,立刻剔除相关内容,但这种方法的短板非常明显。
比如这句话,“你说得对”,单独看起来,完全没问题,但如果接在带有种族主义偏见的句子后,就完全不一样了。
聊天机器人何时才能学会好好聊天?恐怕只有时间才能给出答案。

(编辑:宿州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读