深度学习保存数据模型应用案例遇到的问题

深度学习史上最全总结(文末有福利)
我的图书馆
深度学习史上最全总结(文末有福利)
深度学习(Deep Learning),这是一个在近几年火遍各个领域的词汇,似乎所有的算法只要跟它扯上关系,瞬间就显得高大上起来。但其实,从2006年Hinton在Science上的论文算起,深度学习发展至今才不到十年。
四大金刚镇楼
在这短短几年时间里,深度学习颠覆了语音识别、图像分类、文本理解等众多领域的算法设计思路,渐渐形成了一种从训练数据出发,经过一个端到端(end-to-end)的模型,然后直接输出得到最终结果的一种新模式。这不仅让一切变得更加简单,而且由于深度学习中的每一层都可以为了最终的任务来调整自己,最终实现各层之间的通力合作,因而可以大大提高任务的准确度。随着大数据时代的到来以及GPU等各种更加强大的计算设备的发展,深度学习如虎添翼,可以充分利用各种海量数据(标注数据、弱标注数据或者仅仅数据本身),完全自动地学习到抽象的知识表达,即把原始数据浓缩成某种知识。
当然,深度学习不见得是最完美的框架,离最终所谓的智能也还差得很远,而且目前还基本没有理论上的有效性解释。但是,无论如何,深度学习之风已经势不可挡!
深度学习本质上其实就是多层神经网络,而神经网络这个东西几十年前大家就开始研究了。我们知道,神经网络的一层,其实就是一个线性变换加上一个简单的非线性操作,而多层神经网络其实就是多个简单的非线性函数的复合。一层、两层的网络用途比较有限,往往很难刻画输入与输出之间的复杂关系。但是深层的网络,历史上又一直无法进行有效训练。这大概是因为有以下三个难点难以突破:
优化方面(1)优化策略的核心就是梯度下降法,但对于一个深层的网络,它的函数的梯度也非常复杂。于是,误差反向传播算法就经常在参数初始值选择不当的时候产生梯度消失或者梯度爆炸现象,导致优化无法正常进行。(2)深层网络由于是高度非线性的,有着太多的局部极值,很难保证能够得到一个可以接受的好的解。数据方面早期,各种数据集往往都非常小,经常是几百几千的规模。人们都侧重于解决如何在小数据情形下的算法过拟合问题,典型的就是SVM。这时候,复杂的多层神经网络根本用不上,他们在数据量不足的情况下会过拟合的非常严重。计算能力方面深度学习的经典模型卷积神经网络(CNN)其实在上世纪八九十年代就出现了,而且其中LeNet-5模型在简单的手写体识别问题上已经取得了很大的成功。但是当时的计算能力无法支持更大规模的网络,而LeNet-5在复杂物体识别上的表现也并不好,所以影响了人们对这一系列算法的进一步研究。
由于以上种种原因,神经网络一度曾经非常低调。直到2006年,著名的学者Geoffrey Hinton在Science上发表了一篇论文,给出了训练深层网络的新思路。大概想法是先分层进行预训练,然后把预训练的结果当成模型参数的初始值,再从头进行正常的训练过程。这个想法现在看起来很简单,但对于全连型的深层网络来说却是非常有效的。
关于语音识别
2009年,Hinton把深层神经网络介绍给做语音识别的学者们。然后2010年,语音识别就产生了巨大突破。本质上是把传统的混合高斯模型(GMM)替换成了深度神经网络(DNN)模型,但相对识别错误率一下降低20%多,这个改进幅度超过了过去很多年的总和。这里的关键是把原来模型中通过GMM建模的手工特征换成了通过DNN进行更加复杂的特征学习。在此之后,在深度学习框架下,人们还在不断利用更好的模型和更多的训练数据进一步改进结果。现在语音识别已经真正变得比较成熟,并且被广泛商用,且目前所有的商用语音识别算法没有一个不是基于深度学习的。
关于视觉问题
人们初步看到了深度网络的优势,但还是有很多人质疑它。语音识别是成功了,那么图像分类呢?2012年之前,深度学习好像还是只能处理像MNIST手写体分类这样的简单任务。说来也巧,这时候正举行了两届ImageNet比赛。这是一个比手写体分类复杂得多的图像分类任务,总共有100万张图片,分辨率300x300左右,1000个类别。前两届的冠军采用的都是传统人工设计特征然后学习分类器的思路。第一届是2010年,当时冠军的准确率(top 5精度)是71.8%,而2011年是74.3%。由于Hinton经常被其它研究人员“嘲讽”说深度学习在图像领域没有用,于是2012年,Hinton和他的学生Alex等人参赛,把准确率一下提高到84.7%。
当然,他们的成功借助了ImageNet这个足够大的数据集,借助了GPU的强大计算能力,借助了比较深层的CNN网络,借助了随机梯度下降(SGD)和Dropout等优化技巧,借助了训练数据扩充策略(Data Augmentation)。但无论如何,他们靠着深度学习震惊了机器学习领域,从此大量的研究人员开始进入这个领域,一发不可收拾。2013年是89%,2014年是93.4%,截止到现在(2015年5月份),ImageNet数据集的精度已经达到了95%以上,某种程度上跟人的分辨能力相当了。
不仅仅是图像分类,在更广泛的视觉问题上,深度学习都产生了重大影响。简要列举几个如下:
人脸识别——LFW数据库上的结果,从最早的90%左右的正确率,一路被研究人员刷到了99.5%以上。人脸相关的应用受此影响,也越来越多。
通用物体检测——ImageNet上的检测任务结果,MAP从最早的0.3左右,一路提高到0.66,感觉提高空间还有不少。
图像分割——现在深度学习已经可以做到输入是一张图片,输出就是逐个像素分割后的结果,中间也不需要任何预处理,并且精度远超非深度学习的结果。
光学字符识别——这里指一般意义的字符序列识别。这个问题的传统做法也是非常复杂的,需要进行字符分割,各种预处理,然后单个字符预测完成后如何拼成完整输出等等。深度学习的做法也是端到端的,输入是图片形式的文字,输出直接就是识别结果了,简单、方便还更准确。所以,现在很多简单点的验证码,想作为图灵测试,分辨人还是robot的话,已经没太大用处了。
玩游戏——DeepMind团队的杰作。基于深度学习和强化学习(Reinforcement Learning),计算机已经可以自己学习玩一些简单游戏了,整个过程不需要任何人的干预。对于打砖块这样的简单游戏,甚至已经超过了普通玩家的水平。
简单总结一下视觉的部分。我们经常在媒体上看到深度学习在某领域又超过人的水平了。还有些乐观的人说,深度学习可以处理所有人的视觉在0.1秒内可以解决的问题。这些或许言过其实,不过毫无疑问体现了深度学习带给人们的强烈震撼!
关于文本理解
除了语音和图像之外,另一个机器学习的重要前沿阵地就是文本理解了,深度学习的大量研究人员都集中于此。这里简单介绍三点。
关于文本,一个很重要的工作是词向量(word2vec)。词向量是指通过对大量文本的学习(不需要标注),根据前后文自动学习到每个词的语义,然后把每个词映射为一个紧凑的实数向量形式的表达,而且具有很多好的性质,比如vec(中国)减去vec(北京)约等于vec(英国)减去vec(伦敦)。这里强调一句,这种向量化的紧凑表达形式在深度学习中是非常重要和普适的。任何抽象的知识都可以建模成这种紧凑的向量形式。类似的还有很多扩展性工作,比如,人们研究如何把一句话映射为一个向量,甚至把一段文字映射为一个向量。文本的各个词之间是有顺序的,而传统做法总是采用词袋模型忽略掉这些顺序。为了更好的挖掘和利用这个性质,人们渐渐倾向于采用递归神经网络(RNN)来描述它。RNN也不是什么新鲜事物,其实就是允许节点之间的连接有环的存在。不过就像我们之前说的,大数据、GPU、优化、深度学习在其它领域的突破等等又给它带来了新的活力。RNN做文本理解的大概思路是,按顺序处理一段话的每个单词,在它看到后面内容的时候,它的某些参数里还保留着对前面看到过的信息的“整合和抽象”。没错,它是有一定的记忆功能的,而且不需要人为告诉它应该记住什么,它会从训练数据中自然的进行学习,然后记忆在“环”里。可以想像,RNN的结构比普通神经网络复杂,而且优化过程更加困难,但目前已经有了BPTT、LSTM等很多解决方案,在这方面有着很多的相关工作,总体来看,结果让人觉得很有希望。最近产生了深度图灵机(DeepTuring Machine)。它简单来说就是RNN加上一块专门用于记忆的部分。这是个更加一般化的计算模式,和图灵机计算能力等价。它的记忆体其实就是一个实数矩阵。呵呵,我们又一次见到了这种连续的紧凑向量或者矩阵的表达形式。它可以记录信息而且方便梯度传递,经常被研究人员拿来各种建模,是构建端到端的模型,进行统一优化的利器。
深度学习工具(福利)
说了这么多,大家可能还是云里雾里。毕竟各种模型都有很多细节,而且还有很多的所谓“trick”,甚至深度学习也曾经因此而戏称为是一种“艺术”而不是“科学”。
所以下面列举几个工具包,并配上一点非常简单的说明,方便大家进行实战演练。
首先你最好要有个能支持cuda的GPU,否则纯CPU是很慢的,尤其是处理图像的问题。
Theano(基于Python), http://deeplearning.net/tutorial/系列教材就是基于Theano工具的。它的最大优点是支持自动符号求导,避免了初学者很害怕的BP推导,有很多扩展包,比如keras等,支持各类模型。其实列举这一个就够了。因为,如果仔细的话,你会在这个网站看到无数的深度学习相关工作链接,足够慢慢扩展到深度学习的所有前沿研究和工具了。
Torch (https://github.com/torch/torch7/wiki/Cheatsheet),基于lua编程语言(类matlab)。用的人非常多,因此很多常见模块的实现都很全面。
DeepLearnToolbox (https://github.com/rasmusbergpalm/DeepLearnToolbox),基于matlab。代码逻辑清楚,适合跟着代码学习深度学习的每个细节。
Caffe (http://caffe.berkeleyvision.org/),纯c++,科学研究中很多学者常用的工具,文档也很齐全。做物体检测相关任务的话,非常推荐!
Cuda-convnet2 (https://code.google.com/p/cuda-convnet2/),效率高,支持单机多卡。ImageNet2012年冠军Alex的作品!不过代码有点抽象难改,而且只支持GPU并且是特定的几款GPU(也就是说是Alex大神是做过特定GPU优化的)。做简单的分类、回归问题推荐!不支持RNN。
Cxxnet (https://github.com/dmlc/cxxnet),纯c++。优点:支持多机多卡训练,适合公司级的部署。
交个朋友吧→ → 本文作者张德兵,格灵深瞳视觉工程师,博士毕业于浙江大学计算机科学与技术专业,主攻机器学习方向。在校期间,师从著名的计算机视觉和机器学习专家、浙江大学何晓飞教授。
深度学习不管未来发展如何,至少在目前看来是非常有效的一种机器学习方法。但是,它的不确定性也让很多人又爱又恨。
你在使用深度学习算法的过程中有没有经历过让你头疼的甚至哭笑不得的时候呢?来,留个言,小编来陪你聊聊~
[转]&[转]&
喜欢该文的人也喜欢但行好事,莫问前程
当你的深度学习模型走进死胡同,问问自己这5个问题
深度学习是一项庞大又复杂的工程,在建立深度学习模型时,走进死胡同被迫从头再来似乎是常事。
近日,Semantics3网站的联合创始人Govind Chandrasekhar在官方博客上发表了一篇文章,讲述了程序员在解决深度学习问题时的应该自问的五个问题。
Semantics3是一家2012年成立的数据科学初创公司,它创建了一个数据库,跟踪产品在网上的销售过程,为零售商提供数据。对于Govind Chandrasekhar写的这篇文章,量子位全文翻译如下:
研究数据科学是一件悲喜交加的事情。喜在当你偶然的发现提高了算法的性能,可能让你拥有持久的兴奋感;悲在你会经常发现自己站在一条单行道的尽头,苦苦探索到底哪里出了问题。
在这篇文章里,我将详述走过无数条深度学习死路后,得到的五个教训。在处理新问题或新方法前,我都会用想想下面这五个问题。
先不管神经网络,一个没有先验知识、只受过你的数据集训练的人能解决这个问题吗?
这个问题对解决监督学习的困境尤为受用——这些问题的典型前提是,一个小的高质量数据集(比如N个实体)可以帮助你的模型近似得到一个潜在的功能,之后泛化到包含1000N个实体的整个数据集。
这些方法的好处在于,人类只需要研究很小部分数据就可以了,机器会学会把它运用到大范围的示例中。
但是在现实世界中,问题不总是含有可以被优先识别的模式。人们利用外部常识来解决的认知挑战比我们意识到的还要多,这经常导致我们错误地期望我们的算法在没有常识的情况下能够解决同样的挑战。
举个例子吧,看下面这三种描述:
Pets First Arkansas Dog Jersey, X-Small, Pink
Pets First Arizona Dog Jersey, X-Small, Pink
Pets First AR Dog Jersey, X-Small, Pink
这三组描述中,有两个表示的含义相同,你能找出那个含义不同的吗?
大多数美国人都不难解决这个问题,因为AR=Arkansas,AR!=Arizona是个常识。但是,一个对美国并不熟悉的人,可能就不知道答案是什么了。
你会发现,你创建的神经网络也没有能力解决这个问题,因为在语言应用这方面,没有特定的缩写规则可以供神经网络去模仿。当然指定了Arkansas等同于AR的情况除外。
类似这样的问题还有很多(可能在一开始你并不理解这些问题),并且它们在实际工作中还经常出现。回头审视之前建造的神经网络,并且明确需要补充的新知识是非常困难的。所以,在构建神经网络时,要及时跳出自己的思维定式。
你构建的神经网络能通过正确的视角理解你的数据吗?
假设地区的缩写始终是名字的前两个字母,同时这个缩写不会重复。那么,我们再来用不同的示例回看刚刚的匹配问题:
“Pets First Arkansas Dog Jersey, X-Small”
“Pets First Arkansas Dog Jersey, Extra-Small”
“Pets First AR Dog Jersey, X-Small”
“Pets First Arkansas Dog Jersey, Large”
“Pets First MA Dog Jersey, Large”
你的目标是建立一个神经网络用于识别1、2、3等价而4、5不同。这个任务是在考验神经网络对“大小”这个概念理解——它们是否知道X-Small=Extra-Small ?也是在考验它对缩写的理解能力,比如Arkansas=ARkansas=AR因为前两个字母相同,而Arkansas不等于MA,等等。
你可能会通过Word2Vec来构建一个嵌入空间,将 X-Small映射为Extra-Small来解决这个问题。
尽管这种方法是一个标准解法,但可能你会妨碍神经网络找到你想让它学习的内容。如果把AR换成小写的ar,对人类来说就比较难识别了,我们会纠结ar到底指的的Arizona还是are。
同样,如果你选择建立词汇的嵌入空间,有效地将每一个单词映射到唯一的标记,那么你就掐断了神经网络理解组成字符“ARkansans”的机会。
这种模糊网络问题在你构建网络时经常出现,尤其是在建立考虑不同类型的输入信号的模型时。
你的网络是在钻你训练集里的牛角尖,还是帮你解决手头的问题?
假设你正在构建一个二分的图像分类器,来检查文档中的文本是计算机打印的还是手写的。为了构建计算机打印文本的训练数据集,你用电脑上的软件直接生成了带文字的jpeg图片;为了获取手写文本的样本,你把这些jpeg图片发送到做数据标注的公司,让他们把这些图片转录成文字,并将扫描成jpeg文件。
之后,就可以运行你的分类器了。不要高兴得太早,虽然目前它的训练准确率已经超过了99%,但当我们用实际场景来测试时,分类器表现并不好。这是为什么呢?
你构建的神经网络可能带有简单的指示性偏差,扫描手写的图片可能带有灰白的背景色,而软件生成的JPEG是纯白色的背景。你的神经网络为了解决你交给它的问题,可能并没有去分析内容、上下文、形状和颜色等要素,而是只抓住了背景色的这一点微小差别。
需要记住的是,你的神经网络永远都不会明白你的大方向,它所做的就是基于手头的目标和数据,以最简单的方式尽快给出一个答案。
彻底审查你的数据集,消除可供神经网络钻牛角尖的特征,可以节约成本和时间。
你的网络有兄弟问题可以为它提供支持吗?
在特定领域的问题上,诸如GloVe和Inception之类的预先训练模型可能并不好用。这将迫使你开始随机初始化神经网络,也就意味着可能经过好几天的训练,你还不知道自己的模型效果如何。
你的模型可能还面临着一个问题:数据集太小了或者质量太差了,即使通过旋转、变形等手段扩充之后,也还是达不到训练的要求。
在这种情况下,寻找它的兄弟问题可能是个解决办法。但要注意,这些问题需要符合两个标准:
它们不能和你手头的数据集有同质量和数量的问题。
它们的神经网络需要有一组层,能捕捉到你的模型所需的概念。
你的网络是做不到还是懒?如果它懒,如何逼迫它学习?
假如你是一个绘画外行,让你猜测三幅昂贵的绘画作品价格。有三个可用信息可供你查看——作品的年限、作品十年前的价格和这幅画的高分辨率图像。
在没有经过前期训练的情况下,让你完成这个任务,给出尽可能正确的答案,你会怎么办?
你是会报名参加一个为期两月的绘画课程,来学习复杂的绘画技艺,还是会考虑用作品的年限和十年前的价格做一个方程来猜测价格?
即使你能意识到理想的价格方程式包含这三种信息的组合,但你还是很愿意接受一个懒惰的选项:、用两种信息来进行预测。虽然这个选项不是最优解,但也是在能接受范围的。你会更倾向只依赖容易理解和表达的信息。
在用机器学习解决真实问题时,如果你的模型有多个输入信息,它们的复杂度差异很大时,也会遇到这个问题。对这样的模型进行训练,几个周期之后,你可能会发现你的模型好像已经接近完成,并且拒绝进一步学习。
在这种情况下,最好的解决方法是去掉一个输入项,看整体指标的变化。如果一个输入项和结果相关,去掉了之后却对结果毫无影响,你就应该考虑单独用这个输入项来训练模型,当模型学会了依据这个输入项做判断之后,再逐渐将其余的信息也加入进来。
扫码向博主提问
非学,无以致疑;非问,无以广识
深度学习12大常见问题解答(附答案)
深度学习模型构建面临的问题及“吴恩达”的建议
没有更多推荐了,深度学习和图模型的关系 - 简书
深度学习和图模型的关系
Neil Zhu,简书ID Not_GOD,University AI 创始人 & Chief Scientist,致力于推进世界人工智能化进程。制定并实施 UAI 中长期增长战略和目标,带领团队快速成长为人工智能领域最专业的力量。
作为行业领导者,他和UAI一起在2014年创建了TASA(中国最早的人工智能社团), DL Center(深度学习知识中心全球价值网络),AI growth(行业智库培训)等,为中国的人工智能人才建设输送了大量的血液和养分。此外,他还参与或者举办过各类国际性的人工智能峰会和活动,产生了巨大的影响力,书写了60万字的人工智能精品技术内容,生产翻译了全球第一本深度学习入门书《神经网络与深度学习》,生产的内容被大量的专业垂直公众号和媒体转载与连载。曾经受邀为国内顶尖大学制定人工智能学习规划和教授人工智能前沿课程,均受学生和老师好评。
我经常被问起“深度学习与图模型如何比较?”。这个问题没有答案——因为深度学习和图模型是正交的概念,它们可以(并已经)被组合起来使用了。
让我说得更加清楚一些:这两个模式并不是对立的,它们可以有效地组合起来。
当然,DBM(Deep Boltzmann Machine)是概率因子图的一种形式。但是这些概念用其他的一些方式也可以组合在一起。
例如,你可以想象一个因子图,这些因子本身包含一个DNN(Deep Neural Net)。最能说明这种情况的,就是动态因子图(Dynamic Factor Graph),在这样的图中,在$$t$$时刻的状态向量,$$Z(t)$$ 是由之前的状态和输入,通过一个 DNN (可能使用了一个时态卷积网络)得到的。比如说当log 因子为 $$||Z(t) - G(Z(t-1, X(t)))||^2$$,其中 $$G$$ 是一个 DNN。
这个例子简要说明了,在给定 $$Z(t-1)$$ 和 $$X(t)$$下 $$Z(t)$$ 的条件概率分布是一个以均值为 $$G(Z(t-1), X(t))$$ 的高斯分布,协方差为单位元。
这种类型的动态因子图可以用来建模高维度的时间序列。当序列 $$X(t)$$ 被观测到时,我们可以通过最小化log 因子的和(也常常被称为能量函数)来推断最可能的隐藏状态 $$Z(t)$$ 的序列。
一旦最优的 $$Z(t)$$ 被找到,我们可以更新网络 $$G()$$ 的参数来让能量变得更小。
更加高级的处理方式是可以用来学习高斯分布的协方差,或者来对 $$Z(t)$$ 的序列进行边缘化,而不仅仅使用后验最大推断(仅仅考虑有最低能量的序列)。
这种深度因子的因子图在 ECML 2009 上提出,这也是我和我的学生 Piotr Mirowski(现在 Bell 实验室)。“”
相似的模型出现在使用 auto-encoder 的非监督预学习进行语言建模的论文中 “”
另外将深度学习和图模型组合起来的方式是通用结构化预测(structured prediction)。尽管这听起来是一个新的想法,但是其历史要追溯到90年代早期。Leon Bottou 和 Xavier Driancourt 使用一个序列在时态卷积网络上进行语音识别。他们同时训练这个卷积网络和灵活的词模型,在词的层次上,通过在时间相关的模块(这个可以看做是一种因子图,其中时间相关的函数是一个隐含变量)上进行梯度的后向传播进行。
在90年代早期,Leon、Yoshua Bengio 和 Patrick Haffner 设计了一个混合的语音识别系统,其中在词(或者句子)的层次使用一个辨别式的规则同时训练得到一个时态卷及网络和一个隐马尔科夫模型。
在多年以后,Leon、Yoshua、Patrick 和 我使用了相似的想法来训练我们的手写识别系统。我们放弃了规范化的HMM,使用了没有进行规划化的基于能量的因子图。当训练是辨别式的时候,规范化操作是多余的(甚至有害的)。我们称这个为“”。这个最初在 CVPR 1997 和 ICASSP 1997上发表。
一些关于这个的历史在“”上有较为详细的介绍。
我是 Neil 朱小虎,University AI 创始人 & Chief Scientist,UniversityAI-AI-Unconference Meetup 组织者,致力于推进世界人工智能化进程。制定并实施 UAI 中长期增长战略和目标,带领团队快速成长为人工智能领域最专业的力量。
作为行业领导者,UAI一起在2014年创建了TASA(中国最早的人工智能社团), DL Center(深度学习知识中心全球价值网络),AI growth(行业智库培训)等,为中国的人工智能人才建设输送了大量的血液和养分。此外,我还参与或者举办过各类国际性的人工智能峰会和活动,产生了巨大的影响力,书写了60万字的人工智能精品技术内容,生产翻译了全球第一本深度学习入门书《神经网络与深度学习》,生产的内容被大量的专业垂直公众号和媒体转载与连载。曾经受邀为国内顶尖大学制定人工智能学习规划和教授人工智能前沿课程,均受学生和老师好评。
大家对我们的事业感兴趣可以通过微信联系我或者加入meetup:
https://www.meetup.com/UniversityAI-AI-Unconference/
如果大家想要进一步学习人工智能,也可以加入我们UAI的成长社,那里会有更加系统的进阶式课程:https://h5.xiaoeknow.com/content_page/eyJ0eXBlIjozLCJyZXNvdXJjZV90eXBlIjoiIiwicmVzb3VyY2VfaWQiOiIiLCJwcm9kdWN0X2lkIjoicF81OTkyNmU3ODE2NmUxXzZ1dEJRdWRlIiwiYXBwX2lkIjoiYXBwUXRWV0dsUFk1NjQ2In0
前面的文章主要从理论的角度介绍了自然语言人机对话系统所可能涉及到的多个领域的经典模型和基础知识。这篇文章,甚至之后的文章,会从更贴近业务的角度来写,侧重于介绍一些与自然语言问答业务密切相关,且已经商业化,已被证明可行的技术。 本篇文章准备从技术的角度从头捋一下百度度秘事业部...
承接前面的《浅谈机器学习基础》、《浅谈深度学习基础》和《浅谈自然语言处理基础》,主要参考了《解析深度学习:语音识别实践》以及其它相关博客和Wikipedia。 简介 其实自动语音识别(Automatic Speech Recognition,ASR)这个研究领域已经活跃了五...
深度神经网络(DNN)目前是许多现代AI应用的基础。自从DNN在语音识别和图像识别任务中展现出突破性的成果,使用DNN的应用数量呈爆炸式增加。这些DNN方法被大量应用在无人驾驶汽车,癌症检测,游戏AI等方面。在许多领域中,DNN目前的准确性已经超过人类。与早期的专家手动提取...
机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 1) 注:机器学习资料篇目一共500条,篇目二开始更新 希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友...
机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 1) 廖君机器学习资料 注:机器学习资料篇目一共500条,篇目二开始更新 希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新....
说起P2P这个行业,相信很多人都觉得这是一个不靠谱的行业。因为负面的新闻看多了,所以这个行业不被大家所看好。但是,你真的了解P2P这个行业吗?又或许你只是人云亦云的认为P2P行业是一个骗子行业? 但是好与坏,是与非,我们都应该剖析其本质,明白这到底是怎么一回事,相信这对投资...
和男朋友谈了三年多了,这期间也有分分合合。现在同一个城市但是不同的大学,距离其实也没多远,因为我们课都比较多,所以只能周末见面,但因为我这几个周有党课所以我们也没见着。这周我们体育节不上课,再加上明天他生日,本来准备去找他的。给他说了但是他一直拒绝我说他要上课,其实我们已...
大家好,这是我的原创日记第67篇!相信日积月累的力量!如果你想挑战自己的耐力,快来成为我们的同学和伙伴,2017我们携手一起奔跑,也许人生就此发生变! 日
晴 今天我整理了一下课堂笔记!来讲解关于速记的知识! 记忆是既记又忆。“记忆”,从...
之前很喜欢的一双鞋子,可惜没有适合我的尺码,店员说要不等等吧,过段时间还会补货,我说好吧毕竟是自己喜欢的东西,等等就等等吧。在我等它补货的那段时间,我幻想了无数个我穿上它的场景,无一例外都是百搭又好看的,简直是我这辈子最中意的一双鞋子了。可等它补货之后我在穿上它站在镜子前的...
先表白吧:本人杨敏,已经在莱檬工作一年半。莱檬在成长,我也在成长。我喜欢教育,喜欢跟孩子们在一起。 我有很多毛病:喜欢孩子的单纯,天真。经常跟孩子搅在一起。会因为游戏中的一点两点意见不合,争个你低我高。喜欢跟孩子拌嘴,每次都要他们听我的才行。当然是在他们游走在要开始调皮的边...

我要回帖

更多关于 bim模型深度分为几级 的文章

 

随机推荐