机器学习这么火,想跳坑该怎么做

966,690 十一月 独立访问用户
语言 & 开发
架构 & 设计
文化 & 方法
您目前处于:
对话机器学习大神Yoshua Bengio(下)
对话机器学习大神Yoshua Bengio(下)
ArchSummit全球架构师峰会(北京站)-03日举办,
问:据我所知,您是机器学习领域唯一公开的以深度学习来研究社会学的科学家。在你那篇大作“”中,您的阐述非常精彩,我有如下几个问题期待您的解答:
文章中您描述了个体是如何通过浸入社会来自学习的。众所周知,个体通常无法学到很多大局观念。如果您是这个世界的主宰,你有能力,设定一些观念,让所有个体从童年就开始学习,您会如何选择这些观念?
“文化浸入”的一个必然结果,会让个体意识不到整个学习过程,对它来讲世界就是这个样子。作家David Foster Wallace曾经生动的将其比喻为“鱼需要知道水是什么”。在您的观点里,这种现象是神经网络结构的副产品还是它的确有一些益处?
您觉得文化趋势是否会影响个体并且导致它们赖在局部优化情况?比如各种宗教机构和启蒙哲学之间的争端,家长式社会和妇女参政之间的冲突。这种现象是有益还是有害的?
您对于冥想和认知空间如何看待?
答:我不是社会学或者哲学科学家,所以大家在看待我的回答的时候,需要用分析和辩证的眼光。我的看法是,非常多的个体固守自己的信念,因为这些信念已经变成了他们身份的一部分,代表了他们是怎么样的一个群体。改变信念是困难而且可怕的。我相信,我们大脑的很大一部分工作,就是试着让我们的所有经验和谐并存,从而形成一个良好的世界观。从数学的角度来讲,这个问题和推理(Inference)有关系,即个体透过观察到的数据,来寻找合适的解释(隐变量)。在随机模型里,推理过程通过一种给定配置的随机探索完成(比如马尔科夫网络是完全随机探索)。冥想之类的行为,从某种程度上帮助了我们提升推理能力。冥想的时候,有些想法灵光一现,而后我们发现它具有普适意义。这恰恰是科学进步的方法。
相关厂商内容
问:在讨论和积网络(sum product network,SPN)的时候,Google Brain小组的一个成员告诉我他对可计算的模型(tractable model)不感兴趣,您对此有何看法?
答:各种学习算法都不同程度地有很多不可计算性。通常来讲,越具有可计算性的模型的模型越简单,但是从表达能力上来讲就越弱。我并没有确切的计算过,和积网络将联合分布拆分之后,会损失多少计算能力。通常来讲,我所知道的模型都会受到不可计算性的影响(至少从理论上看,训练过程非常困难)。SVM之类的模型不会受到此类影响,但是如果你没有找到合适的特征空间,这些模型的普适性会受到影响。(寻找是非常困难的,深度学习正是解决了寻找特征空间的问题)。
网友补充:什么是模型的可计算性?
就和积网络来讲,可计算性的意思就是,模型的推理能力在加入更多变量的时候,在计算要求上不会有指数级别的增加。可计算性是有代价的,和积网络只能表现某些特定的分布,详情可以参考Poon和Dmingo的论文。
实际上,所有的图模型都能够表示成因子的乘积形式,深度信念网络也一样。图模型的推理,其可计算性主要取决于图的宽度(treewidth)。因此,低宽度的图模型被认为是可计算的,而高宽度则是不可计算的,人们需要使用MCMC、信念传播(BP)或者其他近似算法来寻求答案。
任何的图模型网络,都可以转换成类似和积网络的形式(一种算数电路,AC)。问题在于,在极坏的情况下,转换生成的网络通常都是指数级别。所以,哪怕推理是跟网络规模线性相关的,在图模型大小增长的情况下,计算性也会呈指数下降。但是,值得一提的是,有一些指数级别的,或者说高宽度的图模型可以被转换成紧致(compact)算数电路,使得我们仍然可以在其上进行推理,即可计算,这个发现曾经让图模型社区非常振奋。
我们可以把AC和SPN理解成一种紧致的表示图模型上下文无关的方式。它们能够将一些高宽度的图模型表示成紧致形式。AC和SPN的区别在于,AC是通过贝叶思网络转换而来,SPN则是直接表示概率分布。所以,取代传统图模型的训练,我们可以将其转换成紧致电路(AC),或者学出来一个紧致电路(SPN)。
为什么深度网络会比浅层网络效果更好?众所周知,有一个隐含层的网络实际上是一个全局逼近器,添加更多全联通层次通常会改进效果,这种情况有没有理论依据呢?我所接触到的论文都声称确实改进了效果,但是都语焉不详。
在您没有发表的想法里面,您最中意哪一个?
您曾经审阅过的最可笑或者最奇怪的论文是什么?
如果我没弄错的话,您用法语授课,这是个人爱好还是学校的要求?
答:全局逼近器并不会告诉你需要多少个隐含层。对于不确定的函数,增加深度并不会改进效果。然而,如果函数能够拆分成变量组合的形式,深度能够起到很大作用,无论从统计意义(参数少所需训练数据就少)来讲,还是从计算意义(参数少,计算量小)来讲。
我用法语教书是因为Montreal大学的官方语言是法语。不过我的毕业生里面四分之三都不是以法语为主要语言的,感觉没什么影响。关于在Montreal生活,我的学生写了一个生活描述,提供给申请的同学们。Montreal 是个很大的城市,有四所大学,非常浓厚的文化氛围,贴近自然,生活质量(包括安全)全北美排第四。生活成本相对其他类似城市也低很多。
问:众所周知,深度学习已经在图像、视频和声音上取得了突破,您觉得它能否在文本分类上也会取得进展呢?大部分用于文本分类的深度学习,结果看起来跟传统的SVM和贝叶思相差无几,您怎么认为?
答:我预感深度学习肯定会在自然语言处理方面产生非常大的影响。实际上影响已经产生了,跟我在NIPS 2000年和JMLR 2003年的论文有关:用一个学习出来的属性向量来表示单词,从而能够对自然语言文本中单词序列的概率分布建模。目前的工作主要在于学习单词、短语和句子序列的概率分布。可以看一看Richard Socher的工作,非常的深入。也可以看看Tomas Mikolov的工作,他用递归神经网络击败了语言模型的世界纪录,他研究出来的分布,在一定程度上揭示了单词之间某些非线性的关系。例如,如果你用“意大利”这个单词的属性向量来减去“罗马”的属性向量,再加上“巴黎”的属性向量,你能得到“法国”这个单词或者相近的意思。类似的,用“国王”减去“男人”加上“女人”,能得到“王后”。这非常令人振奋,因为他的模型并没有刻意的设计来做这么一件事。
问:我看到越来越多的杂志报道深度学习,称之为通往真正人工智能(AI)的必经之路,连线杂志是“罪魁祸首”啊。鉴于人工智能在七八十年代的低潮(当时的人们也是对此期望颇高),您觉得深度学习和机器学习研究者应该做一些什么来防止类似再次发生呢?
答:我的看法是,还是要以科学的方式来展示研究进展(就这一点,很多标榜自己从事深度研究的公司都做不到)。别过度包装,要谦虚,不能将目前取得的成绩过度消费,而是立足一个长远的愿景。
问:首先您实验室开发的theano和pylearn2非常赞。四个问题:
您对于Hinton和Lecun转战工业界啥看法?
比起私人公司里闷头赚大钱,您觉得学术研究和发表论文的价值在于?
您觉得机器学习会不会变得和时间序列分析领域一样,很多研究都是封闭的,各种知识产权限制?
鉴于目前判别式神经网络模型取得的进展,您觉得产生式模型未来能有什么发展?
答:我觉得Hinton和Lecun投身工业界,会带动更多更好的工业级神经网络应用,来解决真正有趣的大规模问题。遗憾的是深度学习领域可能短期少掉很多给博士申请同学们的offer。当然,深度研究领域的第一线还是有很多成长起来的年轻研究者,很愿意招收有能力的新同学。深度学习在工业界的深入应用,会带动更多的同学了解和理解这个领域,并投身其中。
个人来讲,我喜欢学术界的自由,而非给薪水上多加几个零。我觉得就论文发表来讲,学术界会持续产出,工业界的研究所也会保持热情高涨。
产生式模型未来会变得很重要。你可以参考我和Guillaume Alain关于非监督学习方面的(注意这两者并不是同义词,但是通常会一起出现,尤其是我们发现了自动编码器(auto-encoder)的产生式解释之后)。
问:在您工作的启发下,我去年用概率模型和神经网络完成了关于自然语言处理(NLP)的本科论文。当时我对此非常感兴趣,决定从事相关领域的研究,目前我在攻读研究生,还听了一些相关课程。
但是,过了几个月,我发现NLP并没有我想象的那么有意思。这个领域的研究人员都有那么一点迟钝和停滞,当然这是我的个人片面看法。您觉得NLP领域的挑战是什么?
答:我相信,NLP里面真正有意思的挑战,即“自然语言理解”的关键问题,是如何设计学习算法来表示语意。例如,我现在正在研究给单词序列建模的方法(语言模型)或者将一个语言里的一句话翻译成另一个语言里同样意思的一句话。这两种情况,我们都是在尝试学习短语或者句子的表示(不仅仅是一个单词)。就翻译这个情况来讲,你可以把它当成一个自动编码器:编码器(比如针对法语)将一句法语句子映射到它的语意表示(用一个通用方法表示),另一个解码器(比如针对英语),可以将这个表示依照概率分布映射到一些英文句子上,这些句子跟原句都有一样或者近似的语意。同样的方法,我们显然可以应用到文本理解,稍微加上一点额外的工作,我们就可以做自动问答之类的标准自然语言处理任务。目前我们还没有达到这个水平,主要的挑战我认为存在于数值优化部分(训练数据量大的时候,神经网络很难训练充分)。此外,计算方面也存在挑战:我们需要训练更大模型(比如增大一万倍)的能力,而且我们显然不能容忍训练时间也变成一万倍。并行化并不简单,但是会有所帮助。目前的情况来讲,还不足以得到真正好的自然语言理解能力。好的自然语言理解,能通过一些图灵测试,并且需要计算机理解世界运行所需要的很多知识。因此我们需要训练不光仅仅考虑了文本的模型。单词序列的语意可以同图像或者视频的语意表示相结合。如上所述,你可以把这个结合过程认为是从一个模态向另一个模态的转化,或者比较两个模态的语意是否相似。这是目前Google图片搜索的工作原理。
问:我正在写本科论文,关于科学和逻辑的哲学方面。未来我想转到计算机系读硕士,然后攻读机器学习博士学位。除了恶补数学和编程以外,您觉得像我这样的人还需要做些什么来吸引教授的目光呢?
阅读深度学习论文和教程,从介绍性的文字开始,逐渐提高难度。记录阅读心得,定期总结所学知识。
把学到的算法自己实现一下,从零开始,保证你理解了其中的数学。别光照着论文里看到的伪代码复制一遍,实现一些变种。
用真实数据来测试这些算法,可以参加Kaggle竞赛。通过接触数据,你能学到很多;
把你整个过程中的心得和结果写在博客上,跟领域内的专家联系,问问他们是否愿意接收你在他们的项目上远程合作,或者找一个实习。
找个深度学习实验室,申请;
这就是我建议的路线图,不知道是否足够清楚?
问:教授您好,蓝脑项目组的研究人员试图通过对人脑的逆向工程来建造一个能思考的大脑。我听说Hinton教授在某次演讲的时候抨击了这个想法。这给了我一个印象,Hinton教授觉得机器学习领域的方法才更可能造就一个真正的通用人工智能。
让我们来假想一下未来的某一个时候,我们已经创造出了真正的人工智能,通过了图灵测试,它活着并且有意识。如果我们能看到它的后台代码,您觉得是人脑逆向工程造就了它,还是人造的成分居多?
答:我不认为Hinton教授实在抨击人脑逆向工程本身,即他并不反对从人脑中学习如何构建智能机器。我猜测他可能是对项目本身的质疑,即一味的尝试拿到更多大脑的生理细节,而没有一个全局的计算理论来解释人脑中的计算是如何进行和生效的(尤其是从机器学习的角度)。我记得他曾经做过这么一个比喻:想象一下我们把汽车所有的细节都原封不动的复制过来,插上钥匙,就期待汽车能够在路上自己前进,这根本就不会成功。我们必须知道这些细节的意义是什么。
问:有没有人将深度学习应用到机器翻译中呢?您觉得基于神经网络的方法,什么时候才能在商业机器翻译系统中取代基于概率的方法呢?
答:我刚开了一个,罗列一些机器翻译方面的神经网络论文。简单来说,由于神经网络已经从语言模型上胜出了n-grams,你可以首先用它们来替代机器翻译的语言模型部分。然后你可以用它们来代替翻译表(毕竟它只是另一个条件概率表)。很多有意思的工作都正在开展。最宏大和让人兴奋的是完全摒弃现在的机器翻译流水线方法,直接用深度模型从头到尾学习一个翻译模型。这里有意思的地方在于,输出结果是结构化的(是一个单词序列的联合分布),而不简单的是一个点预测(因为对于一个原句来说,有很多翻译的可能性)。
网有补充资料:纽约时报有一篇谈到了从英语到普通话的,微软出品。
问:教授您好,我在各种项目里应用最多的还是决策树和随机森林。您能给讲讲深度学习对比而来的好处么?
答:我曾经写过一篇,阐述为什么决策树的普适性比较差。这里面的核心问题是,决策树(以及其他机器学习算法)将输入空间划分,而后每个区域分配独立的参数。因此对于新的区域以及跨区域的情况,算法的效果就会变差。你没办法学到这么一个函数,能够覆盖比训练数据要多的独立区域。神经网络没有这个问题,具有全局特性,因为它的参数可以被多个区域公用。
问:在深度学习领域,您有什么好书或者论文推荐?
答:好文章太多了,我们组内有一个给新同学的。
问:今日的机器学习技术是否会成为明日人工智能的基石?人工智能发展的最大困难在哪里?是硬件还是软件算法的问题?您对于Ray Kurzweil'预言2029年机器会通过图灵测试怎么看? 他还写了一篇打赌的呢。
答:我不敢说2029年机器会通过图灵测试,但是我能确定的是,机器学习会成为研发未来人工智能的核心技术。
人工智能发展的最大问题,是改进机器学习算法。要想得到足够好的机器学习算法,有很多困难,比如计算能力,比如概念理解上的。比如学习一些联合概率。我觉得我们在训练超大规模神经网络的优化问题上,还是浮于表面。接着就是增强学习,非常有用,亟待改善。可以参看一下最近DeepMind公司的工作,他们用神经网络来自动进行八十年代的Atari游戏,非常有意思。文章发表在我组织的NIPS的讨论会上。
问:您对Jeff Hawkins对深度学习的批评有什么看法?Hawkins是On Intelligence一书的作者, 该书2004年出版,内容关于大脑如何工作,以及如何参考大脑来制造智能机器。他声称深度学习没有对时间序列建模。人脑是基于一系列的传感数据进行思考的,人的学习主要在于对序列模式的记忆,比如你看到一个搞怪猫的视频,实际是猫的动作让你发笑,而不是像Google公司所用的静态图片。参见
答:时间相关的神经网络其实有很多工作,递归神经网络模型对时间关系隐性建模,通常应用于语音识别。比如下面这两个工作。
还有这篇文章:.
自然语言处理中的序列也有所考虑:
问:深度学习到底在什么领域很有前途?什么领域是它的弱项呢?为什么栈式RBM效果很好?其原理能否解释清楚?还是仍然类似魔术黑箱一样?聚合学习和深度学习之间有何联系?
答:完全不是魔术黑箱。我相信我已经给出了栈式RBM或者自动编码器为何有效的解释。参见我和Courville 以及Vincent的文章:
除了dropout技术的解释以外,我不知道聚合学习和深度学习之间的关系,可以参考这篇文章:
问:根据我的理解,深度神经网络训练上的成功跟选取正确的超参数有关系,比如网络深度,隐含层的大小,稀疏约束值等等。有些论文基于随机搜索来寻找这些参数。可能跟代码写得好也有关系。有没有一个地方能让研究者找到某些特定任务的合理超参数呢?在这些参数的基础上,可能更容易找到更优化的参数。
答:可以看上文关于超参数的部分。James Bergstra 继续了这部分工作。我觉得有这么一个数据库,存储着许多推荐的超参数设置,对于神经网络训练是非常有好处的。Github上面的项目,做了类似的事情。hyperopt项目聚焦于神经网络、卷积网络,给出一些超参数设置的建议。以简单的因子分布的形式给出。比如隐含层的数量应该是1到3,每一层的隐含单元数目应该是50到5000。其实超参数还有很多,以及更好的超参数搜索算法等等。下面是更多的参考论文:
问:有没有什么应用,传统机器学习方法都失败了,而深度学习成功了?
答:有一个构造出来的应用,由两个简单的任务构成(物体检测,逻辑推理),该应用聚焦于隐变量的内在表示,传统黑盒机器学习算法都失败了,有一些深度学习算法结果还不错,但也有深度学习算法失败了。可以看看这篇。这个应用有意思的地方在于它比那两个任务随便一个都复杂得多。
问:Bengio教授,在深度学习中,有那么一类方法,采用比较高级的数学如代数和拓扑集合。John Healy几年前声称通过通过范畴论(Category Theory)改进了神经网络(ART1)。您对于这类尝试有什么看法?是儿戏还是很有前途?
答:可以看看Morton和Montufar的工作,参考附加材料:
热带几何以及概率模型中的热带几何
问:Bengio教授,我即将完成计算神经学的博士,我对于神经科学和机器学习交叉产生的“灰色地带”非常感兴趣。您觉得脑科学的那些部分和机器学习有关?您想要了解脑科学的什么方面?
答:我认为,理解大脑的计算过程跟机器学习强相关。我们尚未知晓大脑的工作机制,它的高效学习模式会对我们设计和实现人工神经网络有很大的指导意义,所以这个是非常重要的,也是机器学习领域和脑科学的交叉区域。
英文原文:
感谢对本文的审校。
给InfoQ中文站投稿或者参与内容翻译工作,请邮件至。也欢迎大家通过新浪微博()或者腾讯微博()关注我们,并与我们的编辑和其他读者朋友交流。
Author Contacted
告诉我们您的想法
允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p
当有人回复此评论时请E-mail通知我
允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p
当有人回复此评论时请E-mail通知我
允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p
当有人回复此评论时请E-mail通知我
赞助商链接
InfoQ每周精要
通过个性化定制的新闻邮件、RSS Feeds和InfoQ业界邮件通知,保持您对感兴趣的社区内容的时刻关注。
架构 & 设计
文化 & 方法
<及所有内容,版权所有 &#169;
C4Media Inc.
服务器由 提供, 我们最信赖的ISP伙伴。
北京创新网媒广告有限公司
京ICP备号-7
注意:如果要修改您的邮箱,我们将会发送确认邮件到您原来的邮箱。
使用现有的公司名称
修改公司名称为:
公司性质:
使用现有的公司性质
修改公司性质为:
使用现有的公司规模
修改公司规模为:
使用现在的国家
使用现在的省份
Subscribe to our newsletter?
Subscribe to our industry email notices?
我们发现您在使用ad blocker。
我们理解您使用ad blocker的初衷,但为了保证InfoQ能够继续以免费方式为您服务,我们需要您的支持。InfoQ绝不会在未经您许可的情况下将您的数据提供给第三方。我们仅将其用于向读者发送相关广告内容。请您将InfoQ添加至白名单,感谢您的理解与支持。深度 | 机器学习初学者最常见的5个错误:你该怎么避开它们?_科技_微头条
&#xe600;&&深度 | 机器学习初学者最常见的5个错误:你该怎么避开它们?
选自MLMastery作者:Jason Brownlee机器之心编译参与:吴攀、李亚洲本文作者 Jason Brownlee 是一位学术研究者、作者、专业开发者和机器学习实践者,他非常热衷于传播机器学...
选自MLMastery作者:Jason Brownlee机器之心编译&参与:吴攀、李亚洲本文作者 Jason Brownlee 是一位学术研究者、作者、专业开发者和机器学习实践者,他非常热衷于传播机器学习的学习方法和经验。机器之心还曾编译过他的文章《给默片配音、自动生成手写体,盘点 8 个最具启发意义的深度学习应用》和《提升深度学习模型的表现,你需要这 20 个技巧》。本文介绍了机器学习初学者最常出现的 5 种错误以及避免它们的方法。我一直在帮助初学者入门机器学习,但我也一直看到初学者在思想和行动上屡屡犯错。在这篇文章中,你将看到我总结的初学者上手机器学习时最常出现的 5 种错误。我坚定地认为任何人都可以入门机器学习并且很好地应用它们。希望这篇文章能够帮助你避开或解决你学习和实践中的一些错误。下面就让我们开始吧!一、不要从理论开始入手传统的机器学习教学是自下而上的:努力掌握数学背景知识努力学习机器学习理论努力从头开始实现算法未知???(一些神奇事情发生)最后开始使用机器学习(这是你的目标)这种方法非常慢,而且很困难。这是为想要拓展该领域前沿的学者设计的,并不适合只是想要得到结果的实践者。陷阱如果你在想以下问题,你就掉入了这个陷阱:我需要先完成线性代数的课程;我需要回去先拿个博士学位;我必须先读完教科书。避开陷阱4 年的数学或深奥的算法理论学习能够怎样帮助你实现目标?你多半会停下来。会失败。不会离你的目标更进一步。解决的方法是鼓捣模型。如果机器学习对市场的有价值的贡献是准确的预测,那么你就学习对问题进行建模并得出准确的预测吧。就从现在开始!然后努力掌握它,做到非常擅长。如果你需要,就阅读、窃取、收割别人的理论,但你只需要你的目标所需要的——只要它能帮助你实现更好的价值。二、不要学习所有的机器学习机器学习是一个非常大的研究领域。它是指计算机学习过程的自动化,与人工智能有很大的交叠。从深奥的学习理论到机器人技术——这个领域的范围非常广。你不可能将它们整个拿下。陷阱如果你在想下面这些,你就落套了:我需要学习一个新网站上提到的每一种新技术;我首先需要学习计算机视觉、自然语言处理、语音等等;我需要了解每项技术的每个方面。避开陷阱选择一个小方向并且保持专注。然后进一步收窄。机器学习中最有价值的领域是预测建模——创建数据的模型以做出预测。就从这里开始。接下来,专注于一种与你最相关或你最感兴趣的预测建模。然后保持专注。也许你是根据技术选择的(比如深度学习),也许你是根据问题类型选择的(比如推荐系统);也许你不确定,只是随便选了一个。不管怎样,努力掌握它或至少做到精通。接下来才开始进入下一个领域。三、不要在算法上花费太多时间机器学习实际上就是算法。算法实在太多了。每一个算法都是一个复杂的系统而且拥有自己的小研究领域和生态系统。你可以将自己迷失在算法之中,这么做的人被称为学者。陷阱如果你在说这些,你就已经在陷阱里了:在我使用它之前我需要知道它的工作原理;我首先需要深入理解超参数;在进行微调时,我需要解释其因果关系。避开陷阱算法并非结果。它们只是实现结果的方法。事实上,机器学习算法是一种商品。切换它们。在你的问题上实验各种各样的算法。你可以对其中一些进行调节,但不要把自己困在这一步。使用一个系统过程(systematic process)。设计调试实验并将它们的执行和分析自动化。机器学习的关键是好好利用算法,而应用算法不只是鼓捣算法本身。你的目标应该是为每一个项目得出一个结果——一组预测或一个能给出预测的模型。四、不要从头开始实现所有东西从头开始实现算法能够教会你很多东西。有时候你需要实现一项技术,因为没有合适的或可用的实现。但是,通常来说,你不一定要也不应该这么做。很抱歉地说:你的实现结果可能很糟糕。有各种漏洞速度很慢非常吃内存无法很好地解决边缘情况甚至可能是错的陷阱如果你在做下面这些事,你已经掉入陷阱了:你在编写载入 CSV 文件的代码(搞什么鬼!?);你在编写线性回归这种标准算法的代码;你在编写用于交叉验证或超参数调整的代码。避开陷阱别这么做就好了!使用一个已被成千上万的开发者所使用过的能够处理所有边缘情况的库,众所周知它是正确的;使用一个经过了高度优化的库,它能充分利用你的硬件的每一个计算周期和你的内存的每一个字节;为你的项目使用一个图形用户界面,从而完全避开代码。每次都自己实现你想要使用的算法是非常缓慢的入门机器学习的方式。如果你是为了学习而实现它们,那么就要对自己诚实:你的实现还不够好,你不能通过这样应用机器学习来带来价值。五、不要总改变使用的工具目前有很多的很棒的机器学习工具。事实上,很棒的工具加上数据的可用性和更快的硬件使得机器学习的复兴成为了可能。但你可能陷入这样一个坑中:跳入每个你偶然发现的新工具中。陷阱如果发现自己符合以下三点那你就陷入了该陷阱中:使用每个你听到过的新工具发现自己每周或每个月都学习一项新工具或语言学习一个库时半途而废并转向新的库避开陷阱有策略的学习和使用新工具,在解决机器学习问题的系统处理过程中融合你学到的新工具。如果你选择一个主要的大型平台并坚持使用它,那在解决机器学习问题时会更加高效,至少也要足够精通该平台。这里我推荐 3 个顶尖的平台:Weka WorkbenchPython EcosystemR Platform该领域也有其他的更专门化的工具,根据个人兴趣和专业的不同可跟进。总结在该博文中,你可以看到初学者进入机器学习常见的 5 个错误。总结如下:不要从理论开始入手不要学习所有的机器学习不要在算法上花费太多时间不要从头开始实现所有东西不要总改变使用的工具你陷入了这些坑中了吗?(C)本文由机器之心编译,转载请联系本公众号获得授权。?------------------------------------------------加入机器之心(全职记者/实习生):投稿或寻求报道:广告&商务合作:
你已经点过赞了!
&#xe60c;&#xe60b;
&#xe612;&#xe611;&#xe610;&#xe60f;&#xe613;&#xe614;&#xe615;&#xe616;&#xe60e;

我要回帖

 

随机推荐