如何评价论文 SIGMOD 2015 最佳论文《DBSCAN Revisited》

一般来说,数据结构和算法这本书上提到的任何算法/数据结构,你都不会有机会重新实现一次。&br&&br&&br&因为,早有就各种各样的库,对外提供了工业级的、充分泛化的实现,只需拿来用就是了。&br&&br&重写的话,一个代码质量/执行速度,显然都极难超过经过千锤百炼的、在无数项目中经过充分测试的库实现;另一个,书上都是为了教学而做的简化实现,实际使用中,需要对算法做一定的泛化。(比如,c的qsort库函数,只要保证数据是以指针数组索引的、对自定义数据须传入比较大小的功能函数,那么任何数据都可以用这个qsort算法排序;C++里面呢,则是和容器、迭代器之类东西结合通盘考虑的,可泛用于任何符合规范的容器和原生数据类型。而课本上的实现,仅能支持数组中的整数。想做到工业水平,没有足够的经验是不可能的。)&br&&br&&br&&br&但,另一方面,所有这些算法/数据结构的设计思路,却会贯穿于绝大部分项目之中。&br&&br&比如说,简单的冒泡算法,它是不是只是“多次扫描一个数组,交换遇到的每一对相邻的、顺序反了的数字;当不再发生交换时,数组已完成排序”甚至”好不容易才死记硬背下来的一段代码“?&br&&br&如果你只学会了这个,那么,你真就完全白学了。&br&&br&作为一个表现一般的排序算法,冒泡排序本身出场率就不高;何况还有各种提供了泛化的sort算法的库:如果仅仅记下了这个,那么你一辈子都不会遇到”必须重写冒泡算法“的场合。&br&&br&&br&&br&但,如果你把冒泡算法记成:&br&就好象水中的气泡一样,每次只执行“相邻的元素比较密度(或其它特征),密度小的上浮,密度大的下沉”这个局部物理过程;多次进行后,局部有序就会变成(相关特征上的)整体有序。&br&&br&甚至:&br&模仿各种会导致整体有序现象的局部过程去处理数据,可以使得数据整体上满足类似的排布。&br&&br&甚至:&br&考察任何自然规律,看它会产生什么有趣的后果;那么当需要达到类似的效果时,不妨尝试用程序模拟出这个规律,很可能就已经得到了想要的效果。&br&&br&那,你这一生,可就受用不尽了。&br&&br&&br&&br&比如说,”高大上“的”神经网络“”遗传算法“”蚁群算法“等等等等,其实骨子里不都是这个”冒泡思路“吗?&br&&br&&br&&br&类似的,各种树都是链表的”钩挂“思想+数组的”索引“思想的结合体;”模拟退火算法“又是冒泡思路结出来的另一颗果子;音频滤波算法就是简谐振动计算公式;面向对象的”继承“不过是常见的”归一化“手法的另一个表述方式……&br&&br&&br&可以说,如果能像对冒泡算法的真正理解一样,彻底弄明白各种算法的设计思路并加以借鉴,那么你对这个世界的各种规律了解的有多透彻,你的程序就可以写的有多灵动。&br&&br&&br&一旦掌握这个,从此,你再不必像那些菜鸟一样,绞尽脑汁敲出无数代码去”凑“需求;而是只需用代码编织出需要的规律,然后丢给CPU执行,你真正想要的东西就会自然”涌现“:现在,你只要找出”结果已经出现“的识别方法,用它来结束你的逻辑就行了。&br&(当然,达成一个目的往往可以有多个不同的途径,不同途径利用不同的规律;那么哪个途径最优呢?算法课教过你:这就是所谓的“算法复杂度”)&br&&br&——冒泡算法可不就是用代码编织了一个”数值大者靠前(或靠后)“的规律,然后丢给CPU一跑,一大片数据就有序了?&br&——遗传算法呢,不正是”抄袭“了自然界的自然选择规律吗?把这个规律丢给CPU一跑,居然连AI都弄出来了!&br&&br&这些只是一些特别经典、特别著名的案例而已。&br&实际工作中,也是时刻都可能遇到一些新鲜的需求/场景;要完成工作,除了出苦力一行行码代码外,一样可以通过观察找到其中的规律,然后用代码编织规律,再让这些规律去替你完成需求:后者往往会比前者简洁的多得多,执行速度一般也会快得多得多。&br&这类随时随地“发明”的算法实在不值一提,不能让你像那些著名案例一样一举成名;但它们却实实在在可以提高你的工作效率,让其他人望尘莫及。&br&&br&——经常有高手骄傲的宣称,别人几万、几十万行代码都解决不了的问题,他数百行代码就清楚漂亮的解决了,执行效率还高出许多倍:他们就是这样做到的。
一般来说,数据结构和算法这本书上提到的任何算法/数据结构,你都不会有机会重新实现一次。 因为,早有就各种各样的库,对外提供了工业级的、充分泛化的实现,只需拿来用就是了。 重写的话,一个代码质量/执行速度,显然都极难超过经过千锤百炼的、在无数项…
我选择的是DELL P2415Q,搭配的电脑是MBPR 15寸低配。完美显示。&br&在此感谢 Sean 的回答,很具体还有图片搭配,尤其最后一句“工作忙的时候,可能你面对显示器的时间比面对自己老婆还长。善待自己工位。。。”,坚定了购买的决心:)。还有 &a class=&& href=&/people/chester1997& data-editable=&true& data-title=&CHeSTer&&CHeSTer&/a& 和 &a class=&& href=&/people/yylyyl& data-editable=&true& data-title=&yylyyl&&yylyyl&/a&的回答。&br&用的显示器自配的mini dp - dp线接驳,电脑端使用雷电接口,显示器使用DP接口。初次接驳,需要使用显示器上的按钮选择信号输入源(Input Source),选择 DP 就可以了。&br&使用感受,字体不虚,电脑系统自动识别。显示器下面的线缆归纳口很实用。提供多个USB3.0接口(显示器背面也有一个,这个必须赞)。外观方面不是无边的,我可以接受,这点见仁见智了。&br&最后帮助商家做个推广,中关村鼎好大厦4372柜台的刘哥,老中关村了,人很好。价格上面优惠不少,找他攒过不少机器了。
我选择的是DELL P2415Q,搭配的电脑是MBPR 15寸低配。完美显示。 在此感谢 Sean 的回答,很具体还有图片搭配,尤其最后一句“工作忙的时候,可能你面对显示器的时间比面对自己老婆还长。善待自己工位。。。”,坚定了购买的决心:)。还有
里面链接无效的pdf文件 英文版 基本均可从 &a href=&///?target=http%3A//zh.bookzz.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&电子书库.免费下载图书.查找图书&i class=&icon-external&&&/i&&/a&
bookzz上下载 看好作者和版本就好了
最近比较忙 有空了 会把所有链接从新设置下 不好意思啊 各位&br&-------------原答案分割线-------------------&br&转自:
&a href=&///?target=http%3A//www.52ml.net/1974.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习经典书籍&i class=&icon-external&&&/i&&/a&&br&&ul&&li&&ol&&li&数学基础&ol&&li&《矩阵分析》 &a href=&///?target=http%3A//ishare..cn/f/.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&Roger Horn。矩阵分析领域无争议的经典&/li&&li&《概率论及其应用》 &a href=&///?target=http%3A///share/link%3Fshareid%3Duk%3D%26fid%3D& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&威廉·费勒。极牛的书,可数学味道太重,不适合做机器学习的&/li&&li&《All Of Statistics》 &a href=&///?target=http%3A//ishare..cn/f/.html%3Fretcode%3D0& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF 扫描版&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//ishare..cn/f/.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF 高清版&i class=&icon-external&&&/i&&/a&机器学习这个方向,统计学也一样非常重要。推荐All of statistics,这是CMU的一本很简洁的教科书,注重概念,简化计算,简化与Machine Learning无关的概念和统计内容,可以说是很好的快速入门材料。&/li&&li&《Nonlinear Programming, 2nd》 &a href=&///?target=http%3A//ishare..cn/f/9995599.html%3Ffrom%3Ddl& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&最优化方法,非线性规划的参考书。&/li&&li&《Convex Optimization》 &a href=&///?target=http%3A///share/link%3Fshareid%3D%26uk%3D%26fid%3D& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.stanford.edu/%7Eboyd/cvxbook/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&配套代码&i class=&icon-external&&&/i&&/a&Boyd的经典书籍,被引用次数超过14000次,面向实际应用,并且有配套代码,是一本不可多得的好书。&/li&&li&《Numerical Optimization》 &a href=&///?target=http%3A//ishare..cn/f/.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&第二版,Nocedal著,非常适合非数值专业的学生和工程师参考,算法流程清晰详细,原理清楚。&/li&&li&《Introduction to Mathematical Statistics》 &a href=&///?target=http%3A///share/link%3Fshareid%3D%26uk%3Dfid%3D& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&第六版,Hogg著,本书介绍了概率统计的基本概念以及各种分布,以及ML,Bayesian方法等内容。&/li&&li&《An Introduction to Probabilistic Graphical Models》 &a href=&///?target=http%3A//ishare..cn/f/.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&Jordan著,本书介绍了条件独立、分解、混合、条件混合等图模型中的基本概念,对隐变量(潜在变量)也做了详细介绍,相信大家在隐马尔科夫链和用Gaussian混合模型来实现EM算法时遇到过这个概念。&/li&&li&《Probabilistic Graphical Models-Principles and Techniques》 &a href=&///?target=http%3A//ishare..cn/f/.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&Koller著,一本很厚很全面的书,理论性很强,可以作为参考书使用。&/li&&li&具体数学 &a href=&///?target=http%3A//ishare..cn/f/7290549.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PDF&i class=&icon-external&&&/i&&/a&经典&/li&&/ol&&p&欢迎补充。&/p&&p&文中提供的PDF下载链接,均来自于网络,如有问题,请站内告知。&/p&&br&&/li&&li&&p&&a href=&///?target=http%3A///profile/166/bind& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&bind&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A///discussion/comment/105%23Comment_105& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&一月 4&i class=&icon-external&&&/i&&/a&&/p&&br&&ol&&li&线性代数 (Linear Algebra):我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要。这门学科对于Learning是必备的基础,对它的透彻掌握是必不可少的。我在科大一年级的时候就学习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是&p&Introduction to Linear Algebra (3rd Ed.) by Gilbert Strang.&/p&&p&这本书是MIT的线性代数课使用的教材,也是被很多其它大学选用的经典教材。它的难度适中,讲解清晰,重要的是对许多核心的概念讨论得比较透彻。我个人觉得,学习线性代数,最重要的不是去熟练矩阵运算和解方程的方法——这些在实际工作中MATLAB可以代劳,关键的是要深入理解几个基础而又重要的概念:子空间(Subspace),正交(Orthogonality),特征值和特征向量(Eigenvalues and eigenvectors),和线性变换(Linear transform)。从我的角度看来,一本线代教科书的质量,就在于它能否给这些根本概念以足够的重视,能否把它们的联系讲清楚。Strang的这本书在这方面是做得很好的。&/p&&p&而且,这本书有个得天独厚的优势。书的作者长期在MIT讲授线性代数课(18.06),课程的video在MIT的Open courseware网站上有提供。有时间的朋友可以一边看着名师授课的录像,一边对照课本学习或者复习。&/p&&p&&a href=&///?target=http%3A//ocw.mit.edu/OcwWeb/Mathematics/18-06Spring-2005/CourseHome/index.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Linear Algebra&i class=&icon-external&&&/i&&/a&&/p&&/li&&li&概率和统计 (Probability and Statistics):概率论和统计的入门教科书很多,我目前也没有特别的推荐。我在这里想介绍的是一本关于多元统计的基础教科书:&p&Applied Multivariate Statistical Analysis (5th Ed.) by Richard A. Johnson and Dean W. Wichern&/p&&p&这本书是我在刚接触向量统计的时候用于学习的,我在香港时做研究的基础就是从此打下了。实验室的一些同学也借用这本书学习向量统计。这本书没有特别追求数学上的深度,而是以通俗易懂的方式讲述主要的基本概念,读起来很舒服,内容也很实用。对于Linear regression, factor analysis, principal component analysis (PCA), and canonical component analysis (CCA)这些Learning中的基本方法也展开了初步的论述。&/p&&p&之后就可以进一步深入学习贝叶斯统计和Graphical models。一本理想的书是&/p&&p&Introduction to Graphical Models (draft version). by M. Jordan and C. Bishop.&/p&&p&我不知道这本书是不是已经出版了(不要和Learning in Graphical Models混淆,那是个论文集,不适合初学)。这本书从基本的贝叶斯统计模型出发一直深入到复杂的统计网络的估计和推断,深入浅出,statistical learning的许多重要方面都在此书有清楚论述和详细讲解。MIT内部可以access,至于外面,好像也是有电子版的。&/p&&/li&&li&分析 (Analysis):我想大家基本都在大学就学过微积分或者数学分析,深度和广度则随各个学校而异了。这个领域是很多学科的基础,值得推荐的教科书莫过于&p&Principles of Mathematical Analysis, by Walter Rudin&/p&&p&有点老,但是绝对经典,深入透彻。缺点就是比较艰深——这是Rudin的书的一贯风格,适合于有一定基础后回头去看。&/p&&p&在分析这个方向,接下来就是泛函分析(Functional Analysis)。&/p&&p&Introductory Functional Analysis with Applications, by Erwin Kreyszig.&/p&&p&适合作为泛函的基础教材,容易切入而不失全面。我特别喜欢它对于谱论和算子理论的特别关注,这对于做learning的研究是特别重要的。Rudin也有一本关于functional analysis的书,那本书在数学上可能更为深刻,但是不易于上手,所讲内容和learning的切合度不如此书。&/p&&p&在分析这个方向,还有一个重要的学科是测度理论(Measure theory),但是我看过的书里面目前还没有感觉有特别值得介绍的。&/p&&/li&&li&拓扑 (Topology):在我读过的基本拓扑书各有特色,但是综合而言,我最推崇:&p&Topology (2nd Ed.) by James Munkres&/p&&p&这本书是Munkres教授长期执教MIT拓扑课的心血所凝。对于一般拓扑学(General topology)有全面介绍,而对于代数拓扑(Algebraic topology)也有适度的探讨。此书不需要特别的数学知识就可以开始学习,由浅入深,从最基本的集合论概念(很多书不屑讲这个)到Nagata-Smirnov Theorem和Tychonoff theorem等较深的定理(很多书避开了这个)都覆盖了。讲述方式思想性很强,对于很多定理,除了给出证明过程和引导你思考其背后的原理脉络,很多令人赞叹的亮点——我常读得忘却饥饿,不愿释手。很多习题很有水平。&/p&&/li&&li&流形理论 (Manifold theory):对于拓扑和分析有一定把握时,方可开始学习流形理论,否则所学只能流于浮浅。我所使用的书是&p&Introduction to Smooth Manifolds. by John M. Lee&/p&&p&虽然书名有introduction这个单词,但是实际上此书涉入很深,除了讲授了基本的manifold, tangent space, bundle, sub-manifold等,还探讨了诸如纲理论(Category theory),德拉姆上同调(De Rham cohomology)和积分流形等一些比较高级的专题。对于李群和李代数也有相当多的讨论。行文通俗而又不失严谨,不过对某些记号方式需要熟悉一下。&/p&&p&虽然李群论是建基于平滑流形的概念之上,不过,也可能从矩阵出发直接学习李群和李代数——这种方法对于急需使用李群论解决问题的朋友可能更加实用。而且,对于一个问题从不同角度看待也利于加深理解。下面一本书就是这个方向的典范:&/p&&p&Lie Groups, Lie Algebras, and Representations: An Elementary Introduction. by Brian C. Hall&/p&&p&此书从开始即从矩阵切入,从代数而非几何角度引入矩阵李群的概念。并通过定义运算的方式建立exponential mapping,并就此引入李代数。这种方式比起传统的通过“左不变向量场(Left-invariant vector field)“的方式定义李代数更容易为人所接受,也更容易揭示李代数的意义。最后,也有专门的论述把这种新的定义方式和传统方式联系起来。&/p&&/li&&/ol&&/li&&/ol&&/li&&/ul&
里面链接无效的pdf文件 英文版 基本均可从
bookzz上下载 看好作者和版本就好了 最近比较忙 有空了 会把所有链接从新设置下 不好意思啊 各位 -------------原答案分割线-------------------…
工业界情况一目了然,学术界我不清楚,我就搬砖吧,来自周志华师兄。&br&&br&大家正好对比题主截图中的最后一段话,挺有意思。总体来说我觉得没啥好争的,要是有时间,多学点数学没坏处,奈何任何一个方向要做出成绩,都需要太多时间。&br&&blockquote&&p&机器学习现在是一大热门,研究的人特多,越来越多的新人涌进来。&/p&&p&不少人其实并没有真正想过,这是不是自己喜欢搞的东西,只不过看见别人都在搞,觉着跟大伙儿走总不会吃亏吧。&/p&&p&问题是,真有个“大伙儿”吗?就不会是“两伙儿”、“三伙儿”?如果有“几伙儿”,那到底该跟着“哪伙儿”走呢?&/p&&p&很多人可能没有意识到,所谓的machine learning community,现在至少包含了两个有着完全不同的文化、完全不同的价值观的群体,称为machine learning &communities&也许更合适一些。&/p&&br&&p&第一个community,是把机器学习看作人工智能分支的一个群体,这群人的主体是计算机科学家。&/p&&p&现在的“机器学习研究者”可能很少有人读过1983年出的“Machine Learning: An Artificial Intelligence Approach”这本书。这本书的出版标志着机器学习成为人工智能中一个独立的领域。它其实是一部集早期机器学习研究之大成的文集,收罗了若干先贤(例 如Herbert Simon,那位把诺贝尔奖、图灵奖以及各种各样和他相关的奖几乎拿遍了的科学天才)的大作,主编是Ryszard S. Michalski(此君已去世多年了,他可算是机器学习的奠基人之一)、Jaime G. Carbonell(此君曾是Springer的LNAI的总编)、Tom Mitchell(此君是CMU机器学习系首任系主任、著名教材的作者,机器学习界没人不知道他吧)。Machine Learning杂志的创刊,正是这群人努力的结果。这本书值得一读。虽然技术手段早就日新月异了,但有一些深刻的思想现在并没有过时。各个学科领域总有 不少东西,换了新装之后又粉墨登场,现在热火朝天的transfer learning,其实就是learning by analogy的升级版。&/p&&p&人工智能的研究从以“推理”为重点到以“知识”为重点,再到以“学习”为重点,是有一条自然、清晰的脉络。人工智能出身的机器学习研究者,绝大部分 是把机器学习作为实现人工智能的一个途径,正如1983年的书名那样。他们关注的是人工智能中的问题,希望以机器学习为手段,但具体采用什么样的学习手 段,是基于统计的、代数的、还是逻辑的、几何的,他们并不care。&/p&&p&这群人可能对统计学习目前dominating的地位未必满意。靠统计学习是不可能解决人工智能中大部分问题的,如果统计学习压制了对其他手段的研 究,可能不是好事。这群人往往也不care在文章里show自己的数学水平,甚至可能是以简化表达自己的思想为荣。人工智能问题不是数学问题,甚至未必是 依靠数学能够解决的问题。人工智能中许多事情的难处,往往在于我们不知道困难的本质在哪里,不知道“问题”在哪里。一旦“问题”清楚了,解决起来可能并不 困难。&/p&&br&&p&第二个community,是把机器学习看作“应用统计学”的一个群体,这群人的主体是统计学家。&/p&&p&和纯数学相比,统计学不太“干净”,不少数学家甚至拒绝承认统计学是数学。但如果和人工智能相比,统计学就太干净了,统计学研究的问题是清楚的,不象人工智能那样,连问题到底在哪里都不知道。在相当长时间里,统计学家和机器学习一直保持着距离。&/p&&p&慢慢地,不少统计学家逐渐意识到,统计学本来就该面向应用,而机器学习天生就是一个很好的切入点。因为机器学习虽然用到各种各样的数学,但要分析大 量数据中蕴涵的规律,统计学是必不可少的。统计学出身的机器学习研究者,绝大部分是把机器学习当作应用统计学。他们关注的是如何把统计学中的理论和方法变 成可以在计算机上有效实现的算法,至于这样的算法对人工智能中的什么问题有用,他们并不care。&/p&&p&这群人可能对人工智能毫无兴趣,在他们眼中,机器学习就是统计学习,是统计学比较偏向应用的一个分支,充其量是统计学与计算机科学的交叉。这群人对统计学习之外的学习手段往往是排斥的,这很自然,基于代数的、逻辑的、几何的学习,很难纳入统计学的范畴。&/p&&p&两个群体的文化和价值观完全不同。第一个群体认为好的工作,第二个群体可能觉得没有技术含量,但第一个群体可能恰恰认为,简单的才好,正因为很好地 抓住了问题本质,所以问题变得容易解决。第二个群体欣赏的工作,第一个群体可能觉得是故弄玄虚,看不出他想解决什么人工智能问题,根本就不是在搞人工智 能、搞计算机,但别人本来也没说自己是在“搞人工智能”、“搞计算机”,本来就不是在为人工智能做研究。&/p&&p&两个群体各有其存在的意义,应该宽容一点,不需要去互较什么短长。但是既然顶着Machine Learning这个帽子的不是“一伙儿”,而是“两伙儿”,那么要“跟进”的新人就要谨慎了,先搞清楚自己更喜欢“哪伙儿”。&/p&&p&引两位著名学者的话结尾,一位是人工智能大奖得主、一位是统计学习大家,名字我不说了,省得惹麻烦:&/p&&p&“I do not come to AI to do statistics”&/p&&p&“I do not have interest in AI”&/p&&/blockquote&
工业界情况一目了然,学术界我不清楚,我就搬砖吧,来自周志华师兄。 大家正好对比题主截图中的最后一段话,挺有意思。总体来说我觉得没啥好争的,要是有时间,多学点数学没坏处,奈何任何一个方向要做出成绩,都需要太多时间。 机器学习现在是一大热门,研…
取决于你想学的程度,只是想混口饭吃没有太多必要花很多时间补别的东西,不用看懂证明,你知道的大概,能用软件做出个结果就够了。&br&&br&想认真学的话:&br&1. 数学方面:微积分、矩阵论&br&矩阵这一块,了解的越多对你推倒计算方面能力的提升提高非常多。当然,只想看懂不要求证明的话,本科的线性代数够用了(我指的是真的好好学线性代数...)&br&&br&2. 凸优化&br&这一块的重要性非常显然了,比如你连牛顿法、梯度下降法、一维搜索等基本的凸优化都不了解 的话会非常吃力。但短期来说的话,基本上Boyd的convex optimization懂前三章就够用了。&br&&br&3.概率、统计&br&对基本的期望啊mean啊之类的计算,极大似然,bayes,多元正太等很多相关方面的统计一定要比较熟悉,否则对涉及统计和对数据的直觉上会差很多。&br&&br&4.泛函&br&我本科没好好学泛函,到学到一些ML的方法比如kernel相关的方法的时候就凸显出来对泛函不熟,对函数空间理解不够的话会比较吃力。但重要性上比如前面几个方面。&br&&br&但我整体想说的是,对于大多数只学过微积分线性代数+基本统计的人不大会有时间和精力说把上面这些一门一门学了才开始学ML,大多数时候都是慢慢去补的。比如上面有人提到Andrew Ng的coursera课程上会有一些hangouts。这是一个很好的比较快速掌握急切所需的东西的方面。毕竟上面每一门课都需要花很多时间去学。但是,如果你能真的好好学了之后,再回过头来把ML再学一遍,你收获一定会多的多!
取决于你想学的程度,只是想混口饭吃没有太多必要花很多时间补别的东西,不用看懂证明,你知道的大概,能用软件做出个结果就够了。 想认真学的话: 1. 数学方面:微积分、矩阵论 矩阵这一块,了解的越多对你推倒计算方面能力的提升提高非常多。当然,只想看…
我是你的学长,电子科大信号处理方向,现在博二,研究计算机视觉与深度学习。&br&&br&我们的专业跟机器学习不算完全契合,但也是很接近的。但是据我观察,我们专业很多人缺乏机器学习的两大必备技能:数学和编程。&br&数学方面,我们本科学到的除了数学基础课之外,专业方面有用的就只有信号与处理和模式识别,其中模式识别还是选修课。专业课中用到得更多的是微分积分,对概率、最优化、算法等科目普遍要弱一些,而这些是机器学习中最重要的数学基础。&br&编程能力上就更差了,我们学的脚本语言是matlab,搞机器学习的人用matlab的已经很少了(我本人也还在使用matlab,感觉有点积重难返)。C++也没有学,只有C语言课程。很多人甚至从来没有接触过linux。不知道题主是不是这样的,但这些都是我们要补上来的。&br&&br&现在还是研一上吧,研一要做的事就是把上边我说的基础补好,研一有几门数学课很不错,矩阵、最优化、数值分析、图论、模式识别(自动化程洪教授的)都是必选的。至于我们专业那一堆信号相关的课程,一个也不要选。&br&&br&现在还需要把linux和python装起来,开始学着在linux下编程。不过这方面我也做得不好,我的电脑中至今没有安装linux,你可以看看知乎上其他人的建议。&br&&br&研一下的时候课程压力就小很多了,这时可以开始看看论文,挑选自己感兴趣的方向尝试着复现一下,看看能否提出改进策略。&br&&br&至于读博,你先把上边几步做好,如果能在研一下至研二上做出成绩能够发表论文,那可以继续深造。如果做不到,建议放弃,现在机器学习岗位也很多,去工作的话一样是要看论文研究算法的。&br&&br&我走过很多弯路,做事往往事倍功半。以上是我的经验之谈,视野可能不是很开阔,题主有选择性地看看就好。
我是你的学长,电子科大信号处理方向,现在博二,研究计算机视觉与深度学习。 我们的专业跟机器学习不算完全契合,但也是很接近的。但是据我观察,我们专业很多人缺乏机器学习的两大必备技能:数学和编程。 数学方面,我们本科学到的除了数学基础课之外,专…
为什么不安心读书读论文?你们真以为看看所谓牛人发的博客就能学好机器学习了?naive!看看那些公众号发那么多资料,恐怕他们自己一个都没看过吧。&br&&br&如果想follow高大上的东西,就去看看Berkeley Simons Institute上的讲座,那才是干货。&a href=&///?target=https%3A//simons.berkeley.edu/workshops& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Workshops & Symposia&i class=&icon-external&&&/i&&/a&
为什么不安心读书读论文?你们真以为看看所谓牛人发的博客就能学好机器学习了?naive!看看那些公众号发那么多资料,恐怕他们自己一个都没看过吧。 如果想follow高大上的东西,就去看看Berkeley Simons Institute上的讲座,那才是干货。
仅从顶级会议(ICML,NIPS,再加上更理论的COLT)角度考虑,国内机器学习界几大山头:&br&&br&南大周志华老师&br&上交张志华老师&br&清华朱军老师&br&港科杨强老师&br&浙大何晓飞老师&br&&br&另外列出几个目前(暂时)在国内工业界工作的世界级机器学习大牛:&br&&br&百度的Tong Zhang,已经离职的Kai Yu&br&阿里巴巴的Rong Jin, Shenghuo Zhu (Shenghuo的名气可能较其他几位略小,但他却是我见过的learning theory和coding结合最好的人之一)&br&滴滴的Jieping Ye&br&&br&有幸和以上的多位老师合作或者交流过,非常佩服他们的实力。
仅从顶级会议(ICML,NIPS,再加上更理论的COLT)角度考虑,国内机器学习界几大山头: 南大周志华老师 上交张志华老师 清华朱军老师 港科杨强老师 浙大何晓飞老师 另外列出几个目前(暂时)在国内工业界工作的世界级机器学习大牛: 百度的Tong Zhang,已经…
常见会议和期刊如下(其他回答者也提到CCF已经有目录 &a href=&///?target=http%3A//www./sites/ccf/biaodan.jsp%3FcontentId%3D0& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&CCF推荐排名&i class=&icon-external&&&/i&&/a&)&br&&br&机器学习领域会议:COLT、NIPS、ICML、AISTATS、UAI&br&机器学习领域期刊:JMLR、PAMI&br&&br&机器学习的工作也常常发表在人工智能相关会议上,比如&br&人工智能会议:IJCAI、AAAI&br&人工智能期刊:AI&br&&br&除了机器学习和人工智能的会议,CV和NLP方面也有大量机器学习相关的工作,因此不少与机器学习相关的工作也会发在CV和NLP相关会议上。
常见会议和期刊如下(其他回答者也提到CCF已经有目录 ) 机器学习领域会议:COLT、NIPS、ICML、AISTATS、UAI 机器学习领域期刊:JMLR、PAMI 机器学习的工作也常常发表在人工智能相关会议上,比如 人工智能会议:IJCAI、AAAI 人工智能期刊:AI 除…
前几位说的都是ML的会议期刊,那我给个data mining的list好了&br&&br&会议:&br&SIGKDD:这个想必大家都知道了,而且今年又发生了被打脸事件,看这里&a href=&/question/& class=&internal&&如何评价 SIGMOD 2015 最佳论文《DBSCAN Revisited》? - 计算机科学&/a&&br&SIGMOD:接上一个,主要偏数据库的研究,看得不多,不过不乏好的DM的文章&br&SIGIR:也是ACM的会,原是信息检索的会,不过有好多质量高的DM文章,值得一看&br&ICDE、VLDB:这两个应该都是偏数据库的会,不怎么有看过&br&WSDM:08年第一届,比较新,虽然CCF上只是C类(15年升到B类了),但是文章质量还不错,有些文章的idea挺好,值得一看&br&WWW:关于web的会议,涉及的topic的可以多一些,也有很多DM的文章&br&CIKM:不怎么有看过,直接看这里吧&a href=&///?target=http%3A//www.cikm-2015.org/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cikm-2015.org/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&br&&br&期刊:&br&IEEE Transactions on Knowledge and Data Engineering (TKDE)&br&ACM Transactions on Information Systems (TOIS)&br&ACM Transactions on Intelligent Systems and Technology (TIST)&br&&br&感谢&a href=&/people/luau-lawrence& class=&internal&&Luau Lawrence&/a&的补充&br&&br&此外,如果对data mining感兴趣的话,建议可以看下SIGMETRICS、IMC这类会议,在对数据的认识上可以给你一定的启发
前几位说的都是ML的会议期刊,那我给个data mining的list好了 会议: SIGKDD:这个想必大家都知道了,而且今年又发生了被打脸事件,看这里 SIGMOD:接上一个,主要偏数据库的研究,看得不…
已有帐号?
无法登录?
社交帐号登录
296 人关注
174 条内容
4727 人关注
506 条内容
151 人关注
159 人关注
260 条内容
3763 人关注
3373 条内容

我要回帖

更多关于 如何评价论文的优缺点 的文章

 

随机推荐