自己动手写一个神经网络的程序cpa难度有多大大

小木虫 --- 500万硕博科研人员喜爱的学术科研平台
&&查看话题
自己动手写一个神经网络的程序难度有多大呢?
本人今年研一,刚上研究生,对神经网络比较感兴趣,实验室这边没人怎么用过,老师觉得这个方向挺好的,去年都是直接用的matlab自带的工具箱,但是老师觉得还是自己写一个比较好,所以楼主这个学期就开始着手写。那么问题来了~
楼主先构建了一个神经网络的框架,花了半个月吧,这个还好,就是为了以后好扩展所以检查了很久。但是弄完之后开始写训练算法,刚开始梯度下降法还行,花了几天搞出来了,但是效果一般,所以想转战LM算法,这个时候问题出来了,单独调lm算法都快花了两周多了,现在调好了,用在神经网络上的时候又遇到问题了,正在努力看书中……
现在问题就是写的过程特别没自信,总感觉应该不算难的一部分怎么花了这么长时间,而且还是怀疑自己弄出来效果会好吗?求过来人指导啊!小弟感谢不尽
时隔这么久又看到很多人回复,楼主说一下现在的心得吧。
人工智能发展的如火如荼,相比各位研究深度学习的同学肯定知道各种开源框架吧。其实说实话是没有必要自己去写一个的,matlab的虽然容易上手,但是的确是源码不公开而且不好用……现在可以用caffe,谷歌的tenserflow,mxnet,微软的cntk等各种优秀的开源框架。自己主要精力集中在怎么应用在自己的系统当中就可以了。
但是不得不说当时自己花很多时间和精力去写自己的工具箱让我对神经网络的认识更加深刻,也算是巩固了一下基础吧。
我就想知道大家用神经网络都是自己写的还是用的工具箱
用神经网络的都是自己写的吗?
貌似很难找到比较好的源码啊,单独用的话感觉工具箱又够了,所以特别纠结
二十年前我自己用 C 写过 BP 神经网络的算法, 所花费的时间和精力...全是眼泪啊:(
主要看你们想干啥. 如果是想学习算法, 那可以自己编. 如果是想应用在某个问题上, 用现成的有什么不好呢? 即节省时间有保证准确性.
工具箱的源码看不到吗?
我去,竟然真有,我记得好久之前是看不到源码的,思维定势害死人啊,多谢多谢了,我好好研究一下人家的吧,太感谢了,小弟刚开始混,金币不多,剩下的就给你吧
最核心的代码还是不可读的。。。。
= calcLib.perfsJEJJ(calcNet);
就这个函数,里面可以算出雅克比矩阵,这个过程很麻烦,能找到源码的话就多谢你了。
做出来的效果太差,写到这里准备就此收手了。。。。
我没能直接找到源码, 不过这个帖子里提到了一些信息 (/matlabcentral/newsreader/view_thread/327217). 这个源码应该是存在文件 perfsJEJJ.m 里. 你不妨搜索一下所有 Matlab 的文件, 看看能不能找到.
大神,会用MATLAB编程求权重吗:hand:
大神,用模糊数学的方法怎么实现MATLAB权重计算。金币有赏
大神,求MATLAB算权重的程序&&用模糊复合物元法的相关数学知识,只算两个权重
事实证明是没有任何卵用的,自己写的过程中发现高效的数值优化牵扯了太多的精力,还是用工具箱或者是开源的工具包吧
就用的matlab呀,首先搭出来正向的计算函数,然后再搭训练算法,再配套一些调试函数。前期一定要把网络的结构体写好!
我也是准备这样做,但就在搭建网络的结构体这块,就是我查看了一下matlab自带的newff函数,发现它把结构体生成了一个类,我就仿照它的也生成类,但就是我的类在workspace中就不显示属性什么的,就卡在这儿了,就想问你是不是也生成了类,还是直接就用结构体
恩,好的,谢谢
没办法,老板让写的啊
恩,我也写了几个,怎么说呢,实现基础功能都还行,但是想做的特别优化还是需要很多精力的。比如为了加快遗传算法的速度并行设计,bp算法最后怎么调节学习率、批处理收敛……等等。总之感觉找开源的代码基础上开发更好,从头开始太牵扯精力。
如果想深入学习这方面的知识,个人觉得敲敲代码利大于弊;只有你跳过坑,才会填坑。比如,模拟退火表现局部收敛特性、遗传算法具有全局寻优能力,他俩怎么结合会出一个高效率的混合智能算法等等
楼主,我现在就在干你这个事情,各种神经网络编程,工具箱那个LM我曾经花了很长时间去读,终于找到计算雅可比矩阵的函数,但是它是*.p文件格式的,这是一种加密格式,只能调用,不能看。我自己编了LM,还有标准BP,以及几个基于标准BP的改进算法,但是我的问题出在,只要输入样本一多,程序就不收敛,我也是疯了:cry::cry::cry::cry::cry:
这个……说实话我也没法帮你。的确很复杂,尤其是大规模的数值优化真的很多文献上都没有说清楚,我也没研究透
这个求导过程是我自己推导出来的。其实只对两层网络使用的时候比较好使,如果是三层网络的话还得再加公式……
建议你可以参考一下目前比较好的框架是怎么实现的,现在貌似都是采用dataflow的方式。你可以参考一下theano的设计思想。
我当时是直接搜索lm创造者的论文,你可以看看matlab的lm算法的参考文献
我在网上搜的都是类似曲线拟合的问题,但我做的更侧重于曲面拟合,我不知道应该怎么去搜了……你能不能再帮我一下?
你有没人工蜂群算法的程序!?
研究生必备与500万研究生在线互动!
扫描下载送金币
浏览器进程
打开微信扫一扫
随时随地聊科研后使用快捷导航没有帐号?
自己动手实践神经网络
查看: 18368|
评论: 0|原作者: 岸岸
快速报名:
此课程所属【】该专业内有15门推荐课程,目前平台推出【专业课程0元学】活动,只需0元即可在15门专业课程中任选5门学习,超值优惠,助您快速成长!课程简介:
随着大数据时代的到来,数据分析和显得越来越重要。作为人工智能的重要分支,其重要性也与日俱增。作为对人脑的仿真,它是目前最接近人脑的人工智能解决方案。然而,人工神经网络的知识背景理论性极强,不易理解,令许多初学者望而却步。本课程正是看到了人工神经网络的学习难点和痛点,大胆地抛开复杂晦涩的理论知识,使用实践性的方式构造并使用神经网络。所有案例均有代码实现和案例分析,可以大大帮助初学者理解神经网络的原理和功能。为大家进一步深入神经网络打下扎实基本理论基础的实践功底。
课程大纲:
第1课 人工神经网络简介
& && && &&&什么是人工神经网络
& && && &&&人工神经网络发展历史
& && && &&&来自生物学的启发
& && && &&&人工神经网络能做什么
第2课 人工神经元模型与感知机
& && && &&&神经元模型的组成
& && && &&&输入
& && && &&&输入权值
& && && &&&输出
& && && &&&传输函数
& && && &&&使用感知机进行分类
& && && &&&感知机学习规则
第3课 、神经网络与neuroph框架
& && && &&&Java介绍
& && && &&&使用Java实现神经网络——neuroph
& && && &&&使用Java实现感知机
& && && &&&使用Java实现感知机学习
AdaLine网络
& && && &&&LMS算法
& && && &&&AdaLine网络的Java实现
& && && &&&使用Java识别0-9图像
第5课 多层感知机
& && && &&&回顾单层感知机
& && && &&&单层感知机的局限性
& && && &&&多层感知机案例与实现
第6课 BP神经网络的实现
& && && &&&多层感知机学习算法
& && && &&&BP神经网络的Java实现
& && && &&&再看异或问题
& && && &&&一些细节优化
第7课 BP神经网络的案例
& && && &&&奇偶性判别(分类问题)
& && && &&&函数逼近(预测)
& && && &&&使用Java实现简单的手写体识别
第8课 联想网络
& && && &&&Hopfield网络
& && && &&&结构和原理 Hebb规则
& && && &&&存储容量
& && && &&&使用Java实现Hopfiled网络
& && && &&&简单的污染字体识别(Java案例)
& && && &&&自联想的案例(Java实现)
& && && &&&BAM网络
& && && &&&结构和原理
& && && &&&使用Java实现BAM网络
& && && &&&电话号码和人名的双向记忆案例(Java实现)
第9课 竞争学习网络
& && && &&&原理
& && && &&&SOM介绍
& && && &&&聚类案例 动物分类
& && && &&&Java实现SOM以及案例
第10课PCA网络
& && && &&&什么是PCA
& && && &&&使用Java实现PCA网络
& && && &&&PCA案例(Java实现)
授课时间:
课程将于1月17日开课,课程持续时间为12周。
授课对象:
希望了解神经网络内部工作原理,并且将神经网络用于实践的同学。只需有一点Java基础知识,或者C/C++的编程基础亦可。
收获预期:
熟悉神经网络的原理,具备使用Java实现、修改神经网络的能力。完成课程后,可以使用神经网络解决一些问题。
授课讲师:
葛一鸣:计算机软件与理论专业硕士学位。取得了国家认证系统分析师职称)。10余年Java学习和开发经验,参与开发过多个软件项目。对Java程序设计,JVM有一定的研究。对设计模式、人工智能、神经网络、数据挖掘等技术有浓厚兴趣。
炼数成金优秀客座讲师,已成功开设《实战Java高并发程序设计》、《深入JVM内核—原理、诊断与优化》,授课思路清晰,乐于与学员互动,课程好评率一直保持在95%以上。
《实战Java虚拟机——JVM故障诊断与性能优化 》
《实战Java高并发程序设计》
《Java程序性能优化:让你的Java程序更快、更稳定》课程试听:
新颖的课程收费形式:“逆向收费”约等于免费学习,仅收取100元固定收费+300元暂存学费,学习圆满则全额奖励返还给学员!
本门课程本来打算完全免费,某位大神曾经说过“成功就是正确的方向再加上适度的压力”。考虑到讲师本身要付出巨大的劳动,为了防止一些朋友在学习途中半途而废,浪费了讲师的付出,为此我们计划模仿某些健身课程,使用“逆向收费”的方法。
在报名时每位报名者收取400元,其中100元为固定 收费,另外300是暂存学费,即如果学员能完成全部课程要求,包括完成全部的书面和互动作业,则300元全款退回,优秀的学员还可以获得礼品 奖励。如果学员未能坚持到完全所有的学习计划任务,则会被扣款。期望这种方式可以转化为大家强烈的学习愿望和驱动力!
课程授课方式:
1、 学习方式:老师发布教学资料、教材,幻灯片和视频,学员通过网络下载学习。同时通过论坛互动中老师对学员进行指导及学员之间相互交流。
2、 学习作业:老师每周布置书面及互动作业,学员需按时按质完成作业。
3、 老师辅导:根据作业批改中发现的问题,针对性给予辅导,帮助大家掌握知识。
4、 结业测验:通过测验,完成学业。
您是否对此课程还有疑问,那么请 ,您的问题将基本得到解答全国统一咨询热线
课程现开始接受报名,报名方式
网上报名 请点击:咨询Email :,
课程入门讨论咨询群:(群内有培训公开课视频供大家免费观看) 咨询QQ:
(上班时间在线)
最新技术热点、 最新行业资讯,最新培训课程信息,尽在炼数成金官方微信,低成本传递高端知识!技术成就梦想!欢迎关注!
打开微信,使用扫一扫功能,即刻关注炼数成金官方微信账户,不容错过的精彩,期待您的体验!!!
快速报名:
刚表态过的朋友 ()
上一篇:下一篇:TensorFlow人工智能引擎入门教程之九 RNN循环神经网络使用
& & & & &失眠 。。。。上一章 讲了 最强网络之一 RSNN 深度残差网络 这一章节 我们来讲讲 &还有一个很强的网络模型,就是双向LSTM 也就是前一阵阿里吹牛逼的小AI的 实现的一个重要网络部分,当然实际上 比这还要复杂 层数 以及 多个网络配合,其实就好像 alphaGo 一样,其实多个网络配合 多层 复用 效果是最好的,这就像 我们有大脑第一中枢系统 ,但是我们脊髓 是第二中枢系统一样,脊髓可以控制我们身体的某些肌肉 关节运动,与大脑相互配合调节,通过神经传输 相互传递信息,互相配合调节,大脑为主 脊髓为辅。 & & &其实有人说 朱遇平 你怎么分享一些人工智能的东西,不分享spring java那些,其实我觉得那些东西 很简单 很精通 很简单,网上也很多,自己也觉得没什么必要,其实现在我去学一些其他东西都是很简单的事情,所以没什么必要,大不了看源代码,在这个开源的时代,看懂源代码,知道怎么写的。其他的都是小儿科,所以那些简单的东西我博客里面也就不写了,我博客后面分析的全部都是比较有用稍微高端一点的东西,我们知道 其实很多比较有用的东西,网上是找不到任何资料的 是需要自己理解的。每次这种状况 我也挺无语的,没办法 这些东西毕竟是那些研究院 那些高薪的工程师的为生资本,但是对我这个IT民工来说,这些东西对我来说也并不重要,我也很鄙视这种垄断,其实他们不知道 真正有用的东西是自己感悟的东西,别人永远教不会的,我也教不会别人,最近在学钢琴,那真难。有些东西境界到的人 懂的人自然会懂。所以我博客分享一下我的理解,这都是自己自学摸索研究的东西,主要一是 希望可以给自己 做个整理,无聊写写东西,其实这些东西 对我来说都是不重要的东西,但是可以让大家 学习了解下人工智能,人工智能 就这么点么,这是基础,前面所有章节全部是基础 ,基础知识,你全部掌握了这些,你还只是一个门外汉,最主要的是要能够熟练的使用 ,无论是用来做什么,随心所欲,因地制宜,能够知道怎么运用,这才是最重要的。所以我把这些对我来说还算很简单的知识吧,这里以及后面,至于方向,我将的东西也许有些是自己的理解,但是绝对不会影响大家的使用,本人去年一年创业 就是使用tensorflow ,然后把它在spark上整合实现了,重新改写了bp反馈层&ff前向层 同时改写了部分代码、实现了0.6时候的tensorflow的与spark 并行 训练,所以对人工智能方面 也许没有很好的数学基础,但是对代码 对理解方面 还是算可以的吧。创业项目基本就是人工智能的运用 以及 使用。 & & & &双向LSTM&阿里的小AI 就是使用它,我估计是使用了双向LSTM 之后接着一个RNN层 并 增强学习。 但是小AI 里面最重要的还是这个双向LSTM,结合RNN 结合 其他的几种网络 还有增强学习 .&& & & & & LSTM 是为了解决 RNN的一些问题,对隐藏层进行改进,让前面上下文信息 能够有更远的印象,也就是记忆, & & & &LSTM网络本质还是RNN网络,基于LSTM的RNN架构上的变化有最先的BRNN(双向) &LSTM引入了Cell&与其说LSTM是一种RNN结构,倒不如说LSTM是RNN的一个魔改组件,把上面看到的网络中的小圆圈换成LSTM的block,就是所谓的LSTM了。那它的block长什么样子呢?& & & &&
Cell,就是我们的小本子,有个叫做state的参数东西来记事儿的 Input Gate,Output Gate,在参数输入输出的时候起点作用,算一算东西 Forget Gate:遗忘门 就像人体的遗忘曲线一样,正是因为遗忘的调节才能知道 那些更重要,因为原始的LSTM在这个位置就是一个值1,是连接到下一时间的那个参数,以前的事情记太牢了,最近的就不住就不好了,所以要选择性遗忘一些东西。通过遗忘进行调节,这样知道那些更重要。那些值得记忆。
& & & & & & 上上一章我们讲了RNN/LSTM 的使用,所以 那些操作 不理解的可以到上上一章去看。 &这里讲一下双向LSTM& & & &LSTM网络本质还是RNN网络,基于LSTM的RNN架构上的变化有最先的BRNN(双向)
& &在大多数 应用里面 NLP 自动问答 基于时间有关的 上下文有关的,一般都是双向LSTM+LSTM/RNN横向扩展 来实现的 ,效果非常好。好像国内很多吹逼的 都是这样的机构实现的,虽然叫的名字不同但是 其实是一个东西。 双向LSTM 顾名思义采用了 能够双向的LSTM cell单元。是的每次能够访问 下文 也能访问下文 & & &下面看看BIRNN的结构 & && 而 LSTM 我们上面讲了 其实就是RNN 把其中的组件部位换了 加上了cell 也就是记忆单元。 所以双向LSTM 就是把上面双向RNN 里面h 那些园的单元全部换成LSTM单元 就是双向LSTM. 阿里的小AI 就是使用它,我估计是使用了双向LSTM 之后接着一个RNN层 吧。 但是小AI 里面最重要的还是这个双向LSTM,结合RNN 结合 其他的几种网络 还有增强学习 .& & &双向LSTM 在tensorflow中 与 上上篇文章 不同的地方就是 & 我们直接使用rnn.rnn 来构建RNN 然后传入的LSTMcell(单元) ,这里双向是 & & rnn.bidirectional_rnn 其他基本与上上章基本相同 ,替换一下 稍微修改下即可,不理解的可以跳回去 看看 上上章 LSTM/RNN的内容 下面贴出 示例代码& import&input_data mnist&=&input_data.read_data_sets(&/tmp/data/&,&one_hot=True) import&tensorflow&as&tf from&tensorflow.python.ops.constant_op&import&constant from&tensorflow.models.rnn&import&rnn,&rnn_cell import&numpy&as&np #&Parameters learning_rate&=&0.001 training_iters&=&100000 batch_size&=&128 display_step&=&10 #&Network&Parameters n_input&=&28&#&MNIST&data&input&(img&shape:&28*28) n_steps&=&28&#&timesteps n_hidden&=&128&#&hidden&layer&num&of&features n_classes&=&10&#&MNIST&total&classes&(0-9&digits) #&tf&Graph&input x&=&tf.placeholder(&float&,&[None,&n_steps,&n_input]) #&Tensorflow&LSTM&cell&requires&2x&n_hidden&length&(state&&&cell) istate_fw&=&tf.placeholder(&float&,&[None,&2*n_hidden]) istate_bw&=&tf.placeholder(&float&,&[None,&2*n_hidden]) y&=&tf.placeholder(&float&,&[None,&n_classes]) #&Define&weights weights&=&{ &&&&#&Hidden&layer&weights&=&&2*n_hidden&because&of&foward&+&backward&cells &&&&'hidden':&tf.Variable(tf.random_normal([n_input,&2*n_hidden])), &&&&'out':&tf.Variable(tf.random_normal([2*n_hidden,&n_classes])) } biases&=&{ &&&&'hidden':&tf.Variable(tf.random_normal([2*n_hidden])), &&&&'out':&tf.Variable(tf.random_normal([n_classes])) } def&BiRNN(_X,&_istate_fw,&_istate_bw,&_weights,&_biases,&_batch_size,&_seq_len): &&&&#&BiRNN&requires&to&supply&sequence_length&as&[batch_size,&int64] &&&&#&Note:&Tensorflow&0.6.0&requires&BiRNN&sequence_length&parameter&to&be&set &&&&#&For&a&better&implementation&with&latest&version&of&tensorflow,&check&below &&&&_seq_len&=&tf.fill([_batch_size],&constant(_seq_len,&dtype=tf.int64)) &&&&#&input&shape:&(batch_size,&n_steps,&n_input) &&&&_X&=&tf.transpose(_X,&[1,&0,&2])&&#&permute&n_steps&and&batch_size &&&&#&Reshape&to&prepare&input&to&hidden&activation &&&&_X&=&tf.reshape(_X,&[-1,&n_input])&#&(n_steps*batch_size,&n_input) &&&&#&Linear&activation &&&&_X&=&tf.matmul(_X,&_weights['hidden'])&+&_biases['hidden'] &&&&#&Define&lstm&cells&with&tensorflow &&&&#&Forward&direction&cell &&&&lstm_fw_cell&=&rnn_cell.BasicLSTMCell(n_hidden,&forget_bias=1.0) &&&&#&Backward&direction&cell &&&&lstm_bw_cell&=&rnn_cell.BasicLSTMCell(n_hidden,&forget_bias=1.0) &&&&#&Split&data&because&rnn&cell&needs&a&list&of&inputs&for&the&RNN&inner&loop &&&&_X&=&tf.split(0,&n_steps,&_X)&#&n_steps&*&(batch_size,&n_hidden) &&&&#&Get&lstm&cell&output &&&&outputs&=&rnn.bidirectional_rnn(lstm_fw_cell,&lstm_bw_cell,&_X, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&initial_state_fw=_istate_fw, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&initial_state_bw=_istate_bw, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&sequence_length=_seq_len) &&&&#&Linear&activation &&&&#&Get&inner&loop&last&output &&&&return&tf.matmul(outputs[-1],&_weights['out'])&+&_biases['out'] pred&=&BiRNN(x,&istate_fw,&istate_bw,&weights,&biases,&batch_size,&n_steps) #&Define&loss&and&optimizer cost&=&tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred,&y))&#&Softmax&loss optimizer&=&tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)&#&Adam&Optimizer #&Evaluate&model correct_pred&=&tf.equal(tf.argmax(pred,1),&tf.argmax(y,1)) accuracy&=&tf.reduce_mean(tf.cast(correct_pred,&tf.float32)) #&Initializing&the&variables init&=&tf.initialize_all_variables() #&Launch&the&graph with&tf.Session()&as&sess: &&&&sess.run(init) &&&&step&=&1 &&&&#&Keep&training&until&reach&max&iterations &&&&while&step&*&batch_size&&&training_iters: &&&&&&&&batch_xs,&batch_ys&=&mnist.train.next_batch(batch_size) &&&&&&&&#&Reshape&data&to&get&28&seq&of&28&elements &&&&&&&&batch_xs&=&batch_xs.reshape((batch_size,&n_steps,&n_input)) &&&&&&&&#&Fit&training&using&batch&data &&&&&&&&sess.run(optimizer,&feed_dict={x:&batch_xs,&y:&batch_ys, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_fw:&np.zeros((batch_size,&2*n_hidden)), &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_bw:&np.zeros((batch_size,&2*n_hidden))}) &&&&&&&&if&step&%&display_step&==&0: &&&&&&&&&&&&#&Calculate&batch&accuracy &&&&&&&&&&&&acc&=&sess.run(accuracy,&feed_dict={x:&batch_xs,&y:&batch_ys, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_fw:&np.zeros((batch_size,&2*n_hidden)), &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_bw:&np.zeros((batch_size,&2*n_hidden))}) &&&&&&&&&&&&#&Calculate&batch&loss &&&&&&&&&&&&loss&=&sess.run(cost,&feed_dict={x:&batch_xs,&y:&batch_ys, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_fw:&np.zeros((batch_size,&2*n_hidden)), &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_bw:&np.zeros((batch_size,&2*n_hidden))}) &&&&&&&&&&&&print&&Iter&&&+&str(step*batch_size)&+&&,&Minibatch&Loss=&&&+&&{:.6f}&.format(loss)&+&\ &&&&&&&&&&&&&&&&&&&,&Training&Accuracy=&&&+&&{:.5f}&.format(acc) &&&&&&&&step&+=&1 &&&&print&&Optimization&Finished!& &&&&#&Calculate&accuracy&for&128&mnist&test&images &&&&test_len&=&128 &&&&test_data&=&mnist.test.images[:test_len].reshape((-1,&n_steps,&n_input)) &&&&test_label&=&mnist.test.labels[:test_len] &&&&print&&Testing&Accuracy:&,&sess.run(accuracy,&feed_dict={x:&test_data,&y:&test_label, &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_fw:&np.zeros((test_len,&2*n_hidden)), &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&istate_bw:&np.zeros((test_len,&2*n_hidden))}) 下面贴出运行测试截图。 &
05:34&&&[]
也无法解决通用问题。 & 神经网络和机器学习 差不多在专家系统发展的同时,现在所称的人工智能就出现了。一个方向是研究神经细胞,并模仿神经细胞的方式来解决问题,叫做人工神经网络(可简称神经网络);另外一个方向是建模,并用统计的方法来解决问题,叫做机器学习。这时候,基本上专家系统就被排除在
09:51&&&[]
?,neuronError为误差e,input为神经元的输入p。若将learningRate设置1,则此更新算法效果等同于感知机学习规则。 至此,一个感知机网络已经完全建立了。现在,可以让这个网络进行学习和记忆了。
购买《自己动手写神经网络》电子书你将会获得: 1.&QQ群跟
16:43&&&[]
学家W.A.Pitts在论文《神经活动中所蕴含思想的逻辑活动》中最先提出,并从此澎湃发展。
人工神经网络与线性代数和微积分紧密相关,对神经网络的基本原理以及证明几乎都使用高等数学进行,这些复杂而难懂的公式给许多希望进行神经网络学习的初学者造成不少困扰。本书深刻考虑到这点,从实际应用出发,尽可能避免出现
21:52&&&[]
人工智能实战——人工神经网络
给最近人工智能辣摸火,让我忍不住也想一探究竟,首先从目前来讲我是一个人工智能领域的门外汉,尽管恶补了几天基本知识,机器学习算法看得差不多,神马线性回归啊,逻辑回归啊,SVM啊,k临近算法啊,决策树啊,随机森林啊,看的我吐血了,不过也不难理解,然后尝试
20:22&&&[]
来自: //kabot/
Adam Harley的卷积神经网络3D视觉化模型能够让你一窥人工智能的内部工作。
除了邪恶AI将会统治地球这样的惊悚事件之外,人工智能领域让局外人感到害怕。Facebook的人工智能负责人
17:44&&&[]
/tensorflow & &详细的教程类似于
这样我们就可以在window 下使用docker 安装 好相应的环境了 ,主要是比VM直接的方便。
附录 DOCKER 常用命令& 3.1 情景:使用centos:latest 启动一个容器,然后在容器中,安装
14:05&&&[]
学了一段时间神经网络,又看了些讲人脑的书,有两个想法和大家分享,希望有大神能解惑
1、和现在的人工神经网络相比,人的神经间的连接更为复杂,不是全连接或者随机的连接一部分。我觉得人脑神经元的连接是在进化过程中不断演变来的,那么人工神经网络是否也能像人一样,在训练的过程中不断改变神经元的连接
14:04&&&[]
人工神经网络(Artificial Neural Networks,ANN)提供了一种普遍而实用的方法从样例中学习值为实数、离散值或向量的函数。 人工神经网络由一系列简单的单元相互密集连接构成,其中每一个单元有一定数量的实值输入(可能是其他单元的输出),并产生单一的实数值输出(可能成为其他单元的
12:13&&&[]
我正在写一个Delphi和Matlab实现人工神经网络的程序,用的是ActiveX自动化服务实现的,但是嵌套在Delphi中的Matlab语句好像并没有被执行。
如有哪位高人做过这方面的程序,请帮帮忙吧,小女感激不尽哦。
回复讨论(解决方案)
高深了。。
是要用过才了解
20:27&&&[]
感知器的类似,只是在后向传送方法中神经元使用的是S形的激活函数:
后向传送方法的算法:
步骤一:初始化。 用很小的范围均匀分布的随机数设置网络的权重和阈值
其中Fi是网络中神经与的输入的总数。 步骤二:激活。 通过应用输入和期望的输出来激活后向传送神经网络。 (1)计算隐藏层神经网络的实际
12:24&&&[]
主循环就对训练样例进行反复的迭代。对于每一个训练样例,它应用目前的网络到这个样例,计算对于这个样例网络输出的误差,然后更新网络中所有的权值。对这样的梯度下降步骤进行迭代,直到网络的性能达到可接受的精度(经常是上千次,多次使用同样的训练样例)。 和delta法则的比较 &&nbsp
12:24&&&[]

我要回帖

更多关于 cma考试难度有多大 的文章

 

随机推荐