人工智能为什么看起来像人工智障?

原标题:人工智能为什么看起来像人工智障?

差评君最近注意到,雷布斯又在搞事情了。。。

他们搞了个什么 “ 小爱同学 ”

其实呢,就是为了卖音响!

这是个人工智能产品,类似于个人助理一样

不得不说雷布斯挺爱自黑的

这类产品其实现在已经有很多了。。。

和 Google 的 Google Assistant 差不多

亚马逊的 Alexa

微软的 Cortana (中文名是小娜)

还有最后,大家整天喜欢调戏的小姐姐 Siri

上面提到的小姐姐们都是人工智能的衍生产物,语音助理。

她们的完成任务的主要过程是:

把人的发音转化成文字→理解意思(拆分,抓取关键信息)处理信息做出反馈(完成你布置的任务或者是调戏回来)

这其中用到了一项科技:自然语言处理 ,以下简称 NLP (Natural Language Processing ) 。这项技术是人工智能和语言学的分支。

注:NLP是一门很深奥的学问,涉及了大量数学模型和计算机理论知识。本文为了可读性,牺牲了一定(大部分)严谨(准确)性,如有 NLP 大神觉得有误,请轻轻拍打差评君的脸(喂,不要抚摸!)

差评君来稍微说一下语音转文字的过程~

声音是一种波,当你的智能设备收到你的话的时候,其实是收到了声波。

首先,这段声波会被剔除掉噪音,然后被截成很小的单位,小到不能再小(比如说人民币现在最小只能到 “ 分 ”)

机器会把每 3 个(可能不止 3 个)最小单位会组成一个音素。(音素是发音的最小单位)

最后,根据这些音素可以组成文字。

最小单位组成音素

图片引用自知乎用户@张俊博的回答

相信大家多半看蒙了,举个简单的例子(为了科普,此例子不太严谨)小黑胖说了一句 “ 我想吃鸡腿 ”。

语音识别系统会把这句话拆分成最基本的单位状态,再把最基本状态重组成 w,o, x,i,ang, ch,i, j,i, t,ui 这么多个音素,再根据自身样本数据,分析这些音素组成哪些字的概率最大,根据统计学的原理来还原成文字。

(其实中文还涉及到了同声字多,存在音调等问题,实际处理时远比差评君这里说的复杂)

至此,已经把语音变成文字,为了防止人工智能变成人工智障,接下来 AI 小姐姐们就要从文字中试图理解语义并且做出反应了~

对于计算机来说,理解语义的第一步是拆分语句。把 “ 我想吃鸡腿 ” 拆分成 “ 我/想/吃/鸡腿 "。然后,抓取有可能是命令的关键信息,例如我/想/吃。再分析额外信息,鸡腿!

接着,AI 小姐姐会处理这句话,找出相应的应对措施:吃 -> 找个饭店,鸡腿 -> 鸡肉料理

小姐姐就会觉得你是想找鸡腿吃了!然后直接调查数据库,找配对。最终输出结果:

而数据库越庞大则小姐姐们越 “ 聪明 ”,这也是各大厂商宣传时提到的重点:她们会越来越智能。

因为你每次使用它相当于一次训练,这样一套系统等于集中了全世界的用户来提供样本去提升她们。

这种情况随着进化就不会出现了↓

至于,为什么都是小姐姐呢(其实Siri可以选小哥哥)?因为女性声音容易给人亲近放松的感觉。

除了小爱同学,其他的小姐姐们的二次元形象只有 Siri 才有,还是日本网友创造的,还顺带做了支歌发了个唱片。。。

小米这回的小爱同学形象倒确实是走在了前面,官方逼死同人了。。。

不过不同的语音助手智能水平的确有些差距。

比如说,你问小姐姐们 “ 今天天气怎么样 ”,都可以得到天气反馈。

小米手机的语音助手

但你接下来不问 “ 明天天气怎么样 ”,而是接一句 “ 明天呢 ”,就会。。。

没有对比就没有伤害,咱们看看 Google 家的。

这是 Google assistant 的

可以看到 Google 的技术的确挺成熟的,而且除了天气还会添一句 “ 路可能会有些滑 ”, 给人的感觉更加像是和人在说话。

不过,因为学习的不够深度,现在大多数 AI 小姐姐都处出智障状态。。。

这个技术还在不断的完善,也许以后可以变得和许多科幻电影里一样,成为人机交互的主要方式。

这样,计算机技术的使用门槛会变得越来越低,爷爷奶奶们也可以轻松使用~

说不定以后你泡在手机上最大的理由就是和小姐姐们聊天,而不是微博,微信,知乎。。。

立刻关注公众号 差评(chaping321),每天花点时间看些有趣、有料的资讯!

返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
推荐阅读