协同过滤算法原理属于自然语言处理方向吗

计算机视觉、NLP自然语言处理和推荐算法哪个前景更好一些? - 知乎有问题,上知乎。知乎作为中文互联网最大的知识分享平台,以「知识连接一切」为愿景,致力于构建一个人人都可以便捷接入的知识分享网络,让人们便捷地与世界分享知识、经验和见解,发现更大的世界。43被浏览<strong class="NumberBoard-itemValue" title="分享邀请回答3添加评论分享收藏感谢收起52 条评论分享收藏感谢收起写回答自然语言处理哪家强?
发表于 11:04|
作者小石头
摘要:语音交互事关未来,这点从大公司收购、投资、合作不断,就可见一斑。如苹果收购Siri、Novauris、Google收购多项语音识别技术专利、Facebook收购Wit.ai等、Amazon收购Yap……目前,基本上所有的巨头都有涉足。
语音交互事关未来,国内外已经不少公司在抢蛋糕了,大公司收购、投资、合作不断,就可见一斑。目前,基本上所有的巨头都有涉足。苹果收购Siri、Novauris,组建基于神经网络算法的语音识别团队2014 年7月,有消息称,苹果正在联系多位语音识别技术的专家,正在招聘经理、小组负责人、研究员,很可能将成立一支强大的语音识别团队,并最终取代现在的Siri技术服务商Nuance。过去几年中,苹果招聘了多名此前供职于Nuance的的高层次语音技术研究员,包括前研究副总裁拉里·吉利克 (Larry Gillick)、Siri的项目经理贡纳尔·艾弗曼(Gunnar Evermann)、微软语音识别项目高管亚历克斯·阿赛洛(Alex Acero)。在2013年,苹果收购了自动语音识别公司Novauris Technologies。Novauris是英国研究机构Dragon Systems旗下的附属公司,以语音听写识别著称,成立于2012年。当然,怎么能忘了最著名的那笔收购呢,2010年4月,以 1.5~2.5亿美元收购了Siri。Google收购多项语音识别技术专利、SayNow 、Phonetic ArtsGoogle在2014年收购了SR Tech Group的多项语音识别相关的专利,其中包括“ 搜索引擎语音界面” 和“ 修改、更新语音识别项目系统”的专利。Google一直致力于投资语音搜索技术,以期与苹果公司的Siri展开竞争。2011年,Google收购语音通信技术公司SayNow 和语音合成技术Phonetic Arts。 其中,SayNow创建于2005年,可以把语音通信、点对点对话、以及群组通话和社交应用整合在一起,支持的设备包括PC浏览器、智能手机乃至座机。被收购时,有1500万用户,旗下产品包括SayNow Phone,SayNow广播,Big Call以及Chit Chat等。Facebook收购Wit.ai和Mobile Technologies语音交互解决方案服务商Wit.ai要做的就是重写互联网的语音层,简单地在第三方App中加入几行代码来为它生成一个语音交互界面,就能把语言转化成可以操作的数据。正如移动支付公司Stripe通过几行代码就为网站解决了线上支付问题一样。Wit.ai称,它比Siri更灵敏精确,不需要开发者先期投资,或训练数据集,而且可以应用在移动应用程序 (iOS、Android 等平台)、穿戴设备和机器人以及几乎任何你可以想到的智能设备。被收购时,Wit.ai成立才18个月,吸引了6000多名开发者,创建的应用超过了数百个。此次收购有助于提高Facebook整体对自然语言的理解能力。除了Wit.ai,Facebook还在2013年收购了语音识别公司Mobile Technologies。MT创建于2001年,在2009年推出了Jibbigo应用,允许用户在25种语言中进行选择,使用一种语言进行语音片段录制或文本输入,然后将翻译显示在屏幕上,根据你选择的语言大声读出来。Amazon收购Yap、Evi、Ivona2011年,Amazon收购语音识别公司Yap。Yap成立于2006年,主要提供语音转文本服务,代表应用是Yap语音邮件。利用Yap的技术亚马逊建立自己的语音技术平台,服务于亚马逊的网上搜索和客户服务等领域。2012年,Amazon收购语音技术公司Evi。Evi是一家应该创业公司,原名True Knowledge,在获得了Nuance语音识别技术的授权后,基于自主的自然语言搜索引擎开发了一款与苹果Siri类似的应用。2013年,Amazon收购语音技术公司Ivona Software。Ivona是一家波兰公司,是Nuance的竞争对手,主要做文本语音转换,被收购时支持17种语言44种声音。英特尔收购语音识别技术公司Indisys2013年,英特尔收购了语音识别技术公司Indisys。这是一家西班牙公司,但自称一直在做多语音。在计算语言学、人工智能、认知科学和机器学习领域有研究,不少西班牙公司都采购了他们家的技术。此外,他们还开发了与苹果Siri相似的助手界面。三星或收购语音识别软件商Nuance关于三星和Nuance的绯闻已经传了段时间。Nuance的语音识别技术在智能手机、电视和GPS导航设备上都有广泛应用,比如苹果的Siri就是用的它的技术;其他一些企业级市场也有需要用到语音识别的地方,比如医院里的电子病历业务,医生直接口述就能生成电子病历。2013年9月份时,Nuance还同三星达成合作。雅虎收购SkyPhrase,牵手Robin Labs2013年12月,雅虎收购了自然语言处理技术初创公司SkyPhrase。Gmail和Twitter的相关技术支持就是SkyPhrase提供的,允许用户跟机器说“人话”得到个性化的搜索结果。比如“NANA 发的带图微博”,或者“Jane 发给我的包含照片的电子邮件”——这样复杂的信息 Siri 是理解不动的。SkyPhrase还开发了两款应用,其中一款能让用户查看梦幻足球的比分统计数据,另一款应用与Google Analytics整合发挥作用。为了推雅虎语音助手,雅虎还找到了合作伙伴Robin Labs,后者主要做自然语言识别和导航。除开发自己的私人助手的导航应用外,现在它还为客户提供语音助手白标产品的开发。”也就是说,理论上讲,每个应用都可以添加一个特定的语音助手模块。既然雅虎语音助手其实是Robin Labs开发的,那它会被收购么?其实,除了这些大公司和被他们收购的小公司,还有几家初创公司做的也挺有意思。比如,下面这两家。全球首个通过语音来识别情绪的公司Beyond VerbalBeyond Verbal是一家以色列公司,成立于2012年,在情绪识别领域一直领先。Beyond Verbal系统创建的算法可以通过识别音域变化,从而分析出像愤怒、焦虑、幸福或满足等情绪,心情、态度的细微差别也能被识别到。Beyond Verbal的情绪识别系统可以分析出11个类别, 400个复杂情绪的变量。2013年1月,他们开发的情绪识别app moodies在iOS平台发布;2014年8月,他们开发了moodies的安卓版。2013年5月,获得了280万美元融资;2013年7月,又获得了100万追加融资。2014年9月,又追加了330万美元种子融资。在2014年耶路撒冷召开的TEDMEDLive上,就引入了Beyond Verbal的技术来对所有与会人员的情绪进行分析,进而总结整个会议的整体反馈情况。英国语音识别初创企业EI英国的初创企业EI Technologies也是一家做语音情绪识别的公司,可以分析人声的音调,监控用户的情绪。之前从孵化器Wayra London和英国政府的Technology Strategy Board拿到了15万英镑的种子期融资。目前系统可识别5种基本情绪:高兴、悲伤、害怕、愤怒及无感情。识别的准确率约为70-80%左右,这个数字要高于人类60%的平均水平。而受过训练的心理学家的判断准确率约为70%,从这些数据来看,EI的算法准确率已经非常可观。其未来目标是进一步提高到80-90%。通过识别并恰当响应语言内容和情绪来增强自然语言处理算法似乎是人工智能系统的下一步发展方向。《银翼杀手》里面的复制人的致命缺陷正是缺乏“移情(empathy)”能力。现在这三家公司的技术正帮助机器朝着具备“移情”能力迈出一小步—首先学会感受人类的情绪。不过这也是个庞大又复杂的工程。作者:小石头原文来自:
推荐阅读相关主题:
CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
相关热门文章数据挖掘,机器学习,自然语言处理这三者是什么关系_百度知道
数据挖掘,机器学习,自然语言处理这三者是什么关系
我有更好的答案
数据挖掘与机器学习是两个不同的概念;数据挖掘中使用到机器学习的各种工具,而自然语言处理也是是一种机器学习的方式,属于数据挖掘的范畴。数据挖掘(英语:Data mining),又译为资料探勘、数据采矿。它是数据库知识发现(英语:Knowledge-Discovery in Databases,简称:KDD)中的一个步骤。数据挖掘一般是指从大量的数据中自动搜索隐藏于其中的有着特殊关系性(属于Association rule learning)的信息的过程。数据挖掘通常与计算机科学有关,并通过统计、在线分析处理、情报检索、机器学习、专家系统(依靠过去的经验法则)和模式识别等诸多方法来实现上述目标。机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域。
主营:教育信息咨询;文化活动的组织与策划;商务信息咨询;企业管理咨
  是个我也说不太清楚的问题,简而言之:  机器学习,是一类过程的统称;  (参考定义:在不直接针对问题进行编程的情况下,赋予计算机学习能力的研究领域)  数据挖掘,是机器学习+数据库;  自然语言处理,是机器学习在文本、语音等自然语言数据集上的应用;  差不多就是这样吧~
本回答被提问者和网友采纳
为您推荐:
其他类似问题
自然语言处理的相关知识
&#xe675;换一换
回答问题,赢新手礼包&#xe6b9;
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。一篇很好的参考文章:深度学习算法在自然语言处理中的一些心得
我的图书馆
一篇很好的参考文章:深度学习算法在自然语言处理中的一些心得
更多深度文章,请关注:&作者简介:Frank Chung,HTC Research Engineering Blog编辑,专注于各种计算机技术的研究和探索。个人主页:https://medium.com/@frank_chung以下为译文:深度学习逐渐在NLP(自然语言处理)上发挥重要作用。 在此我就NLP问题的一些技术演变做一些简单阐述。N元语法模型连续文本序列“to be or not to be”可以通过以下方式来建模:一元语法(单个词): to,be,or,not,to,be二元语法(两个词): to be, be or, or not, not to, to be三元语法(三个词): to be or, be or not, or not to, not to beN元语法模型可以解决下一个词预测的问题,例如,如果前面的词是“to be or not to”,6元语法模型可以预测下一个词的可能是“be”:P(be|to be or not to) = C(to be or not to be) / C(to be or not to)词频-逆向文件频率(TF-IDF)TF-IDF表示了单词的重要性。一个单词的词频(TF)是该单词在文档中出现的次数:TF(“cow” in document) = C(“cow” in document)/C(all words in document)一个单词的文件频率是指包含这个单词的文件在所有文件中占的数量DF(“cow”) = log(C(all documents)/C(documents contain “cow”))例如,如果文档1中的“cow”出现4次,并且文档1包含100个词,则文档1上的单词“cow”的词语频率为0.04。 如果“cow”存在于100个文档中并且总共有10000个文档,则“cow”的文档频率为log()= 2。因此,TF-IDF为0.04 * 2 = 0.08。潜在语义分析(LSA)LSA应用TF-IDF来计算词和文档之间的关系。m个单词和n个文档令X是一个矩阵,其中元素(i,j)意味着文档j中的词i的TF-IDF。 然后我们可以通过矩阵乘积?????获得两个词的相关性,并通过矩阵积获得两个文档的相关性。词向量通过神经网络,出现了一种共享矩阵C的概念,该矩阵C可以将每个词投影到特征向量中,并且将该向量作为神经网络的输入来训练主要任务。假设特征空间的维数为M,词汇量为V,矩阵C为| V | * M,C(Wt)的映射结果为1 * M向量假设特征空间的维度为M,词汇为V,则投影C为| V | * M矩阵。 输入层包含N元语法模型中的N-1个之前的单词,其由1到| V |编码表示。 输出层由| V |组成词汇表中单词的概率。词嵌入Word2vec是一个两层神经网络,可以提取一个词的特征向量,这被称为“词嵌入”。word2vec应用CBOW或Skip-gram网络来训练投影矩阵,而不是通过训练预测下一个单词的方式。连续单词包(CBOW)通过将周围单词输入到输入层来预测中心词的方式来训练投影矩阵。 而Skip-gram网络则是通过应用中心词来预测其周围词来训练投影矩阵。 这两种方式都可以用来训练用于词嵌入提取的投影矩阵。词相似与'Sweden'相关的单词为了找出目标词的相关词,我们可以计算词汇表中所有其他词的余弦相似性(距离)。向量偏移给出China->Beijing, 找出Japan->?给定单词a,绑定c的单词向量,如果a:b = c:d这样的关系,我们可以通过V??=V??+(V??-V??)找到结果d。 然后在词汇表中找出的词向量具有V??的最小余弦距离的单词。通过向量偏移找到的相关单词递归神经网络无论CBOW还是Skip-gram模型都只考虑相邻的N个词来训练神经网络。因此如果N变得非常大,则这两种方式都可能行不通。 为了克服这个缺点,递归神经网络(RNN)应运而生:传统神经网络考虑上述用于训练NLP问题的传统神经网络,每个词被输入到用于词向量的投影矩阵W,并且由隐藏层R转换为输出S.在这种情况下,R的输入大小固定为5 * M(假设词向量中有M个特征)。 如果N被改变为6,则R不能被扩展。递归神经网络在递归神经网络中,代替隐藏层R,我们一次只训练两个向量与隐藏层A,并递归地合并两个词。 这样,A的输入大小始终为2 * M。循环神经网络由于递归神经网络不容易实现,因此就提出了循环神经网络(RNN)来处理相同的问题。循环神经网络的输入只有一个词,并将隐藏层的输出重定向到输入的一部分。 整个输入大小为| V | + M(M是前面单词的特征数,V是词汇表的大小)。上述示例是用于下一字符预测的示例。 “h”被反馈到隐藏层以获得其词向量,并且该向量被反馈到具有“e”的输入的一部分。 在训练所有词之后,可以训练隐藏层(投影矩阵)的参数。案例学习表1.&不同方法训练的词向量的句法规则表2.&词向量的不同的训练方法的语义规律表1和表2表明:1.无论在语法或语义实验中,来自RNN的单词向量都比LSA更准确。2. 如果在应用RNN时增加单词向量的维度,则准确度会因此增加。表3&微软的完成句子挑战表3表明,如果使ship-gram网络将投影矩阵预训练到已存在的RNN,则测试精度会变得更好。表4. CBOW与Skip-gram的对比表4表明Skip-gram训练结果比CBOW的好。引用: 词之间的语义关系。: 填写一个句子中错过的单词本文由北邮@爱可可-爱生活 老师推荐,阿里云云栖社区组织翻译。文章原标题《Notes for deep learning on NLP》,作者:Frank Chung,译者:friday012文章为简译,更为详细的内容,请查看
喜欢该文的人也喜欢(三角铁艺术家)
(成都男二号)
(一一的译译)
(一一的译译)
第三方登录:

我要回帖

更多关于 java 协同过滤算法 的文章

 

随机推荐