比较linearregersugessionn和梯度下降的结果二者的异同

统计与数学学院
统计与数学学院
毕业院校:
yljiaostatistics@zuel.edu.cn
出生年月:
办公地点:
部门: 统计与数学学院
出生年月:
专业技术职务: 副教授
学位: 博士
毕业院校: 武汉大学
联系电话:
电子邮箱: yljiaostatistics@zuel.edu.cn
通讯地址:
办公地址:
教育经历:
焦雨领,2014年毕业于武汉大学数学与统计学院, 现就职于中南财经政法大学统计与数学学院统计学系,文澜学者。主要从事统计计算,高维统计推断,机器学习,反问题,图像处理,数据科学中的建模和随机、并行、分布式算法的研究。主持国家自然科学基金青年项目和湖北省自然科学基金面上项目各一项,中央高校研究项目3项。在包括 SIAM Journal on Numerical Analysis, &SIAM Journal on Scientific Computing, Applied and Computational Harmonic Analysis,&Inverse Problems, IEEE Transactions on Signal Processing, IEEE Transactions on Geoscience and Remote Sensing, Journal of Scientific Computing, Advanced in Computational Mathematics 等在内的国际一类、二类期刊上发表20余篇SCI论文并制作了10个MATLAB软件包。
中国现场统计学会计算统计分会理事湖北省计算数学会理事
统计学习, 深度学习中的正则化高维统计推断数据科学中的随机、并行、分布式快速算法与分析统计计算带稀疏约束的反问题的理论与算法图像复原Statistical Learning, Regularization in Deep learningHigh-dimensional InferenceFast stochastic, parallel, distributed algorithms and analysis in data scienceStatistical computingTheory and algorithm of inverse problem with sparse constraintsImage restoration
Statistical Learning, a summer school short course at SHUFE.(统计学习,上海财大短课程, -6.9)(感谢 Machine Learning Club, ZUEL 的所有成员)Lec1: High-dimensional estiamtion and inference theorical understanding.Lec2: High-dimensional statistics computation.Lec3: Computational methods for big data.Lec4: Statistical learning theory.Lec5: Deep learning.Statistical Computing, master course at ZUEL (mainly on numerical linear algebra)(Thanks for the materials collected from Intenet of a&lot of people, especially thanks Prof. X.P.Zhang at WHU.)Lec1: Review some mathematics ,,,Lec2: Review Matlab and R ,Lec3: Introduction Lec4: Direct methods for linear equations Lec5: Iterative methods for linear equations Lec6: Page rank and eigen problems ,Lec7: Roots of nonliner equations Lec8: Basic optimization Lec9: Radomized linear algebra ,,Lec10: Stochastic gradient descent Convex optimization, master course at ZUEL (Mainly on first and second order methods)(Thanks for the materials collected from Intenet of a&lot of people.)Lec1: Review some mathematics ,,,Lec2: Review Matlab and R ,Lec3: Introduction why we need optimization Lec4: Convex analysis basics Lec5: First oder methods ,,Lec6: Optimal first order methods ,Lec7: Coordinate descent ,Lec8: Stochstic and online optimization Lec9: ADMM Lec10: Dual and optimality condition Lec11: Newton methodsLec12: Semi-smooth Newton methods Machine Learning (PHD&course at ZUEL) (Thanks for the materials collected from Intenet of a&lot of people.)Lec1: Introduction and content ,Lec2: Review some mathematics ,,,Lec3: Review Matlab and R,Lec4: Review basic probability and statistics,Lec5: Supervise learningLec6: Classification methodsLec7: SVMLec8: ClusteringLec9: Dimension reductionLec10: Learning theoryLec11: Low complexity regularization Lec12: Graphical modelLec13: Image restorationLec14: Dictionary learningLec15: Reenfocement and online learningLec16: Deep learningLec17: Generalization error of DLLec18: Compution issuesLec19: Why randomized Kaczmarz running fast at first stages?Lec20: Parallel and distributed sparse learningStatistics, (undergraduate &course at ZUEL)Lec1Lec2Lec3Lec4Lec5Lec6,,,Lec7Lec9,
NSFC, 8,12. (No.).Fundamental Research Funds for the Central Universities, 6,12. (No.
and No. ).Natrual Science Foundation of Hubei Province, 8,8. (No. 2016CFB486).
News: Paper 29 is accepted by SIAM Journal on Scientific Computing, we show regularized/ordinary least squares are robust decoders in 1-bit CS.News: Paper 34 is submitted, we develop REMI- a methodology for sparse regression from marginal information with application to GWAS.News: Paper 30 is submitted, we develop a fast unified algorithm (UPDAS) for nonconvex h-d linear regression. And prove consistency of UPDAS,MATLAB and R&code are oneline.News: Paper 25 is published by Inverse problems.&News: Paper 24 is published by IEEE Signal Processing Letters.News: Paper 22 is published by Inverse Problems.News: Paper 18 is published by IEEE Transactions on Signal Processing.News: Paper 17 is published by SIAM Journal on Numerical Analysis.News: Paper 13 is published by IEEE Transactions on Geoscience and Remote Sensing.News: Paper 9 is published by Applied and Computational Harmonic Analysis.News: Paper 6 is published by IEEE Transactions on Signal Processing.CV:Google Scholar ID:Matlab Pckages:10:(with paper 31 below)&9:(with paper 30 below)8: &(with paper 29 below)7:(with paper 24 below)6:(with paper 20 below)5:(with paper 19 below)4:(with paper 18 below)3:(with paper 17 below)2:(with paper 9 below)1:(with paper 6 below)R Package links:2. (with paper 34 below)&:1. (with paper &30 below): Research Papers34. REMI: Regression with Marginal Information with Application to GWAS,with (Jian Huang, Jin Liu and Can Yang), Submitted, &2018.&R code:.33.&Detecting Change Points With Di erent Jump Locations in High-dimensional Regression. Submitted, 2018.32. Sparse Recovery Decaying Signals Based on l0 Regularization via&PDASC. &Submitted, &2018.&31. &Semi-smooth Newton Algorithm&for Non-Convex Penalized Linear Regression. &Submitted, 2018. (SCI).30. A Unifed Primal Dual Active Set Method&for Nonconvex Sparse Recovery. (With Jian Huang, Bangti Jin, Jin Liu, Xiangliang Lu and Can Yang), Submitted, 2018. (SCI),&R code: https://github.com/gordanliu810822/pdas29. Robust Decoding from 1-bit Compressive Sampling by Ordinary and Regularized Least Squares. (with Jian Huang, Xiliang Lu and Liping Zhu), Accepted,&SIAM Journal on Scientific Computing,&&2018. &(SCI).&28. &An Nonconvex Model with Minimax Convave Penalty for Image Restoration, &(with Xiliang Lu, Juntao You and Tieyong Zeng), Submitted. &2017. &(SCI).27. &Alternating Direction Method of Multipliers for MCP-penalized Regression with High-dimensional Data,&(with Yongxiu Cao, Yanyan Liu and Yueyong Shi), &Accepted &by &&Acta Mathematica Sinica, English Series,&2017, &(SCI).26. &, (with Yongxiu Cao and Yueyong Shi),&Jounal of Mathematics(China), &2017,&37(4), 723-730.25.&Preasymptotic Convergence of Randomized Kaczmarz Method, (wtih Xiliang Lu and Bangti Jin), Inverse problems. ), 125012, (SCI).&24. &Iterative Soft/Hard Thresholding Homotopy Algorithm for Sparse Recovery, (wtih Xiliang Lu and Bangti Jin),&IEEE Signal Processing Letters,&24(6), 784-788, 2017.&(SCI).23.&Variable selection via generalized SELO-penalized linear regression models, (wtih Yongxiu Cao and Yueyong Shi and Jichang Yu), Applied Mathematics: A Journal of Chinese Universities Seriese B,&2018, &33(2),145-162.&(SCI).22.&Preconditioned alternating direction method of multipliers for solving inverse problems with constraints, (wtih Qinian Jin, &Xiliang Lu and Weijie Wang), &Inverse problems, ), 025004.&(SCI).21.&Variable Selection via Generalized SELO-Penalized Cox Regression Models, (wtih Yongxiu Cao, Yue Yong Shi and Deyi Xu), Accepted&by Journal of Systems Science and Complexity,2018,&(SCI).20.&SNAP: A Semismooth Newton Algorithm for Pathwise Optimization with Optimal Local Convergence Rate and Oracle Properties,&Submitted, 2016,&(SCI).19. &A Constructive Approach for High-Dimensional Linear Regression, (with Jian Huang, Yanyan Liu and Xiliang Lu), &(Revised), &2018,&(SCI).&18.&Group Sparse Recovery via the l0(l2) Penalty: Theory and Algorithm,(wtih Bangti Jin and Xiliang Lu),&IEEE Transactions on Signal Processing, ), 998-1012.&(SCI).17.&Alternating Direction Method of Multiplier for Linear Inverse Problems, (wtih Qinian Jin, Xiliang Lu and Weijie Wang),&SIAM Journal on Numerical Analysis, ), .&(SCI).16. &A Primal Dual Active set Method for SICA Penalized High-dimensional Regression.&(with Yueyong Shi and Wenyuan Wang), Submitted, 2017. (SCI)15. &Variable Selection via Seamless-$\ell^0$ for Cox Proportional Hazards Model, (with Yongxiu Cao, Yanyan Liu and Yueyong Shi), Science China&Mathematics,&3-660.&(SCI).&14.&&An ADMM with continuation algorithm for nonconvex SICA-penalized regression in high dimensions,&(with Yueyong Shi, Deyi Xu and Yuanshan Wu), &Journal of Statistical Computation And Simulation,&), .&(SCI).13.&Stripe Noise Separation and Removal in Remote Sensing Images by Consideration of the Global Sparsity and Local Variational Properties, (wtih Xinxin Liu, Xiliang Lu, Huanfeng Shen, Qiangqiang Yuan and Liangpei Zhang), &IEEE Transactions on Geoscience and Remote Sensing, &2016, &54(5), &.&(SCI).12.&A Group Bridge Approach for Variable Selection in High Dimensional Linear Regression Models. (with Yongxiu Cao, Jian Huang and Yanyan Liu),&Communications in Statistics Simulation and Computation,&), .&(SCI).11.&An Alternating Direction Method with Continuation for Nonconvex Low Rank Minimization, (with Zhengfen Jin, Zongping Wan&and Xiling Lu),&Jounal of Scientific Computing, ), 849-869.&(SCI).10.&Lq Regularization for Robin Inverse Problem, (with Qibin Fan, Xiliang Lu and Zhiyuan Sun),&Journal of Inverse and Ill-posed Problem, ), 3-12.&(SCI).9.&A Primal Dual Active Set with Continuation Algorithm for the l0-regularized Optimization  Problem,(with Bangti Jin and Xilaing Lu),&Applied and Computational Harmonic Analysis, &), 400-426,&(SCI).8.&A Multi-Parameter Regularization Model for Image Restoration,&Signal Processing, (with Qibin Fan,Dandan Jiang), -142. (SCI).7.&Numerical Identication of a Sparse Robin Coefficient, (with Zhiyuan Sun, Bangti Jin and Xiliang Lu),&Advances in Computational Mathematics, ), 131-148.&(SCI).6.&A Primal Dual Active Set Algorithm with Continuation in Compressed Sensing, (with Qibin Fan and XilaingLu),&IEEE Transactions on Signal Processing, ), ,&(SCI).5.&Image Deblurring via Combined Total Variation and Framelet, (with Fenge Chen, Liyu Lin and Qianqing Qin),&Circuits, Systems, and Signal Processing, ),,&(SCI).4.&Sica for Cox’s Proportional Hazards Model with a Diverging Number of Parameters,(with Yueyong Shi, Yongxiu Cao and Yanyan Liu),&Acta Mathematicae Applicatae Sinica, ), 887–902,&(SCI).3.&Hybrid Regularization&Image Deblurring in the Presence of Impulsive Noise,(with Fenge Chen,&&Guorui Ma, and Qianqing Qin),&Journal of Visual Communication and Image Representation, 2013, &24(8):,&(SCI).2.&An Overview of Image Restoration Based on Variational Regularization, (with Qibin Fan),&Advances in Mathematics(China),&), 531-546.1.&Containment Measure of Semicircular Region, (with Yuan Luo and Tao Li),&Journal of Mathematics(China),&), 163-166.Main Collaboraters1. Prof. Jian Huang, University of Iowa,&2. Prof. Xiliang Lu, Wuhan University,&3. Prof. Bangti Jin, University of College Landon,&4. Prof. Qinian Jin,&Australian National University,&随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。
下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的记录条数,j是参数的个数。
1、批量梯度下降的求解思路如下:
(1)将J(theta)对theta求偏导,得到每个theta对应的的梯度
(2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向,来更新每个theta
(3)从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果m很大,那么可想而知这种方法的迭代速度!!所以,这就引入了另外一种方法,随机梯度下降。
2、随机梯度下降的求解思路如下:
(1)上面的风险函数可以写成如下这种形式,损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:
(2)每个样本的损失函数,对theta求偏导得到对应梯度,来更新theta
(3)随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。
3、对于上面的linear regression问题,与批量梯度下降对比,随机梯度下降求解的会是最优解吗?
(1)批量梯度下降---最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小。
(2)随机梯度下降---最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近。
4、梯度下降用来求最优解,哪些问题可以求得全局最优?哪些问题可能局部最优解?
对于上面的linear regression问题,最优化问题对theta的分布是unimodal,即从图形上面看只有一个peak,所以梯度下降最终求得的是全局最优解。然而对于multimodal的问题,因为存在多个peak值,很有可能梯度下降的最终结果是局部最优。
5、随机梯度和批量梯度的实现差别
以前一篇博文中NMF实现为例,列出两者的实现差别(注:其实对应python的代码要直观的多,以后要练习多写python!)
public void updatePQ_stochastic(double alpha,double beta) {
for (int i =0; i & M; i++) {
ArrayList&Feature& Ri = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rij : Ri) {
double PQ =
for (int k =0; k & K; k++) {
PQ += P[i][k] * Q[k][Rij.dim];
double eij = Rij.weight - PQ;
for (int k =0; k & K; k++) {
double oldPik = P[i][k];
P[i][k] += alpha
* (2 * eij * Q[k][Rij.dim] - beta * P[i][k]);
Q[k][Rij.dim] += alpha
* (2 * eij * oldPik - beta * Q[k][Rij.dim]);
public void updatePQ_batch(double alpha,double beta) {
for (int i =0; i & M; i++) {
ArrayList&Feature& Ri = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rij : Ri) {
double PQ =
for (int k =0; k & K; k++) {
PQ += P[i][k] * Q[k][Rij.dim];
Rij.error = Rij.weight - PQ;
for (int i =0; i & M; i++) {
ArrayList&Feature& Ri = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rij : Ri) {
for (int k =0; k & K; k++) {
double eq_sum =
double ep_sum =0;
for (int ki =0; ki & M; ki++) {
ArrayList&Feature& tmp = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rj : tmp) {
if (Rj.dim == Rij.dim)
ep_sum += P[ki][k] * Rj.
for (Feature Rj : Ri) {
eq_sum += Rj.error * Q[k][Rj.dim];
P[i][k] += alpha * (2 * eq_sum - beta * P[i][k]);
Q[k][Rij.dim] += alpha * (2 * ep_sum - beta * Q[k][Rij.dim]);
public void updatePQ_stochastic(double alpha,
double beta) {
for (int i =
0; i & M; i++) {
ArrayList&Feature& Ri = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rij : Ri) {
double PQ =
for (int k =
0; k & K; k++) {
PQ += P[i][k] * Q[k][Rij.dim];
double eij = Rij.weight - PQ;
for (int k =
0; k & K; k++) {
double oldPik = P[i][k];
P[i][k] += alpha
* (2 * eij * Q[k][Rij.dim] - beta * P[i][k]);
Q[k][Rij.dim] += alpha
* (2 * eij * oldPik - beta * Q[k][Rij.dim]);
public void updatePQ_batch(double alpha,
double beta) {
for (int i =
0; i & M; i++) {
ArrayList&Feature& Ri = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rij : Ri) {
double PQ =
for (int k =
0; k & K; k++) {
PQ += P[i][k] * Q[k][Rij.dim];
Rij.error = Rij.weight - PQ;
for (int i =
0; i & M; i++) {
ArrayList&Feature& Ri = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rij : Ri) {
for (int k =
0; k & K; k++) {
double eq_sum =
double ep_sum =
for (int ki =
0; ki & M; ki++) {
ArrayList&Feature& tmp = this.dataset.getDataAt(i).getAllFeature();
for (Feature Rj : tmp) {
if (Rj.dim == Rij.dim)
ep_sum += P[ki][k] * Rj.
for (Feature Rj : Ri) {
eq_sum += Rj.error * Q[k][Rj.dim];
P[i][k] += alpha * (2 * eq_sum - beta * P[i][k]);
Q[k][Rij.dim] += alpha * (2 * ep_sum - beta * Q[k][Rij.dim]);
没有更多推荐了,
加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!基于值函数估计的强化学习算法研究--《南京大学》2013年博士论文
基于值函数估计的强化学习算法研究
【摘要】:近年来,强化学习得到了机器学习研究人员的广泛关注。基于值表的强化学习算法在小规模状态空间的强化学习问题上,不仅得到了优异的实验效果验证,而且获得了完美的收敛性证明。
然而,在实际应用中,强化学习算法通常面临大规模或者连续的状态空间,甚至是连续的动作空间(如自动驾驶的转向控制问题)。这使得基于值表的强化学习算法无法存储值表,并且无法遍历整个状态和动作空间。即强化学习算法遭遇了“维度灾难”问题的挑战。通常的解决方法是通过将经典的强化学习算法与函数估计相结合,以增强值函数对状态空间和动作空间的抽象和泛化能力。
从函数估计角度,本文的主要工作和取得的创新如下:
(1)简要介绍了强化学习的基本模型,综述了基于线性值函数估计的强化学习算法以及基于核方法的强化学习算法。
(2)基于线性函数估计的强化学习试图求解一个最小二乘解,其预测误差受界于最优值函数与最优值函数投影后的残差,其中投影函数为Ⅱ=Φ(ΦΤDΦ)-1ΦΤD。可以看出,投影函数与特征函数有密切的关系,也直接影响到预测误差界。对于实际问题,受限于线性值函数的表达能力,当专家知识不足或者特征Φ的定义不够好时,该误差界会变得很大。
为了解决该问题,本文提出了基于分段线性基的时间差分学习(Temporal Difference learning with Piecewise Linear Value Function:PLVF-TD)以更进一步的减小误差界。PLVF-TD学习框架有两个过程:对于不同维度的问题建立分段线性基;以及用复杂度为O(n)的时间差分学习算法来学习值函数的参数。经分析,误差界随着分段线性基个数的增加而减小。当分段线性基个数趋向于无穷时,误差界趋向于0。实验结果验证了PLVF-TD算法的有效性。
(3)与基于线性函数估计的强化学习不同,根据表达定理,基于核方法的强化学习具备非常强大的表达能力。然而面对现实的强化学习问题,由于精度和复杂度两方面的问题,传统的基于核方法的强化学习算法不能满足在线学习的要求。
针对该问题,本文提出了基于核方法的在线选择时间差分学习(Online Selective Kernel-based Temporal Difference:OSKTD)。OSKTD有两个在线过程:在线稀疏化和值函数的参数更新。在线稀疏化中,我们根据选择性集成学习,提出了基于核距离的在线稀疏化方法,其算法复杂度为O(n),比其它稀疏化方法的复杂度都低。在函数的参数更新中,我们根据局部有效性原理,提出了基于核方法的选择性值函数,并根据经典的时间差分学习结合梯度下降方法迭代学习值函数的参数。实验结果验证了OSKTD算法的有效性。
(4)现实世界的问题通常是连续的状态空间、连续的动作空间并存的,为了精确控制,连续动作空间问题成为了一个新的研究热点。
为了解决该问题,本文结合了Actor-Critic方法在处理连续动作空间的优点以及核方法在处理连续状态空间的优势,提出了基于核方法的连续动作Actor Critic学习算法(Kernel-based Continuous-action Actor Critic Learning:KCACL)。其中,Actor根据奖赏不作为原则更新动作执行的概率,Critic根据OSKTD学习算法更新状态值函数。实验结果验证了KCACL学习算法在求解连续动作空间强化学习问题上的有效性。
【学位授予单位】:南京大学【学位级别】:博士【学位授予年份】:2013【分类号】:TP181
欢迎:、、)
支持CAJ、PDF文件格式
【参考文献】
中国期刊全文数据库
王皓;高阳;陈兴国;;[J];电子学报;2008年S1期
高阳,陈世福,陆鑫;[J];自动化学报;2004年01期
【共引文献】
中国期刊全文数据库
张冬梅;刘强;;[J];北京交通大学学报;2010年03期
杨博;王向华;邵利平;覃征;于维虎;;[J];兵工学报;2012年02期
任红格;阮晓钢;;[J];北京工业大学学报;2012年01期
程晓北;顾国昌;;[J];边疆经济与文化;2007年05期
李小勇;周锋;杨旭东;倪晖;;[J];北京邮电大学学报;2010年06期
李鑫;井元伟;任涛;张阳;;[J];东北大学学报(自然科学版);2008年01期
李东华;江驹;姜长生;;[J];电光与控制;2009年10期
吴元斌;;[J];电脑与信息技术;2009年01期
夏丽丽;;[J];电脑知识与技术;2011年19期
周济;陈锋;;[J];电子技术;2010年09期
中国重要会议论文全文数据库
刘智勇;马凤伟;;[A];第二十六届中国控制会议论文集[C];2007年
张晓艳;唐吴;韩江洪;周雷;;[A];第二十九届中国控制会议论文集[C];2010年
李鑫;井元伟;;[A];2007中国控制与决策学术年会论文集[C];2007年
陈春林;;[A];'2008系统仿真技术及其应用学术会议论文集[C];2008年
陈希;侯德文;朱祥玉;;[A];山东省计算机学会2005年信息技术与信息化研讨会论文集(二)[C];2005年
卓睿;陈宗海;陈春林;;[A];’2004系统仿真技术及其应用学术交流会论文集[C];2004年
蔡文澜;王俊生;陶军;徐惠斌;马宏绪;;[A];中国仪器仪表学会第九届青年学术会议论文集[C];2007年
叶道年;陈卫东;;[A];2004中国机器人足球比赛暨学术研讨会论文集[C];2004年
刘锟;邢延;蔡延光;;[A];2011年中国智能自动化学术会议论文集(第一分册)[C];2011年
陈一铭;陈月辉;;[A];山东计算机学会2013学术年会论文集[C];2013年
中国博士学位论文全文数据库
甘良志;[D];浙江大学;2010年
林龙信;[D];国防科学技术大学;2010年
陈学松;[D];广东工业大学;2011年
尚晶;[D];武汉理工大学;2011年
李红梅;[D];上海交通大学;2011年
徐一帆;[D];国防科学技术大学;2011年
董孟高;[D];国防科学技术大学;2011年
牛建军;[D];清华大学;2010年
王文渊;[D];大连理工大学;2011年
金卓军;[D];浙江大学;2011年
中国硕士学位论文全文数据库
沈扬;[D];郑州大学;2010年
张红;[D];长春工业大学;2010年
苏保君;[D];浙江大学;2010年
吴晓庆;[D];西安电子科技大学;2011年
梁英波;[D];武汉理工大学;2011年
柴雪霞;[D];合肥工业大学;2011年
刘文静;[D];合肥工业大学;2011年
任玲;[D];合肥工业大学;2011年
毛沙;[D];合肥工业大学;2011年
杜俊卫;[D];山西财经大学;2011年
【二级参考文献】
中国期刊全文数据库
高阳,周志华,何佳洲,陈世福;[J];计算机研究与发展;2000年03期
李宁,高阳,陆鑫,陈世福;[J];计算机研究与发展;2001年09期
高阳,陆鑫,李宁,陈世福;[J];南京大学学报(自然科学版);2003年02期
【相似文献】
中国期刊全文数据库
刘升贵;朱旦晨;;[J];计算机与现代化;2010年12期
张化祥;黄上腾;;[J];计算机科学;2004年04期
喻建鹏;桂建平;;[J];电脑知识与技术;2008年15期
祝宇虹;毛俊鑫;;[J];机械与电子;2011年07期
黄炳强;曹广益;王占全;;[J];河北工业大学学报;2006年06期
王雪松;田西兰;程玉虎;马小平;;[J];系统仿真学报;2008年14期
高阳;胡景凯;王本年;王冬黎;;[J];电子学报;2007年02期
唐亮贵;刘波;唐灿;程代杰;;[J];计算机科学;2007年11期
吴继伟,萧蕴诗,许维胜;[J];同济大学学报(自然科学版);2003年08期
刘博;雷汝海;;[J];中国科技论文在线;2010年02期
中国重要会议论文全文数据库
文锋;陈宗海;陈春林;;[A];’2004系统仿真技术及其应用学术交流会论文集[C];2004年
卓睿;陈宗海;陈春林;;[A];’2004系统仿真技术及其应用学术交流会论文集[C];2004年
敬斌;田野;;[A];2005中国机器人大赛论文集[C];2005年
张伟;李建更;张家旺;;[A];2005年中国智能自动化会议论文集[C];2005年
陈希;侯德文;朱祥玉;;[A];山东省计算机学会2005年信息技术与信息化研讨会论文集(二)[C];2005年
张家旺;韩光胜;张伟;;[A];2005中国机器人大赛论文集[C];2005年
陈春林;陈宗海;卓睿;;[A];’2004系统仿真技术及其应用学术交流会论文集[C];2004年
涂自然;王维;梁以业;禹建丽;;[A];2003年中国智能自动化会议论文集(上册)[C];2003年
叶道年;陈卫东;;[A];2004中国机器人足球比赛暨学术研讨会论文集[C];2004年
方宝富;王浩;姚宏亮;杨静;周晋;;[A];2004中国机器人足球比赛暨学术研讨会论文集[C];2004年
中国重要报纸全文数据库
孙佳宇;[N];人民公安报;2009年
刘琰;[N];周口日报;2009年
朱丽华;[N];盘锦日报;2009年
王良豪 记者
龙先华;[N];六盘水日报;2008年
书分;[N];焦作日报;2006年
谭育才;[N];赤峰日报;2008年
章斌、特约记者夏吉龙;[N];人民武警;2010年
马全有;[N];甘肃法制报;2007年
李北川;[N];凉山日报(汉);2007年
张玮(作者单位:市交通局公路处);[N];廊坊日报;2006年
中国博士学位论文全文数据库
陈兴国;[D];南京大学;2013年
金钊;[D];云南大学;2010年
徐明亮;[D];江南大学;2010年
陈学松;[D];广东工业大学;2011年
朱美强;[D];中国矿业大学;2012年
仲宇;[D];哈尔滨工程大学;2003年
李誌;[D];太原理工大学;2012年
郭庆;[D];浙江大学;2003年
陈春林;[D];中国科学技术大学;2006年
戴朝晖;[D];中南大学;2012年
中国硕士学位论文全文数据库
尹晓虎;[D];国防科学技术大学;2003年
宋梅萍;[D];哈尔滨工程大学;2003年
卢方国;[D];广东工业大学;2004年
郭一明;[D];合肥工业大学;2011年
钱征;[D];北京工业大学;2005年
王瑞霞;[D];北京工业大学;2005年
肖莉;[D];湖南师范大学;2009年
顾鑫;[D];哈尔滨工程大学;2004年
王保强;[D];哈尔滨工程大学;2006年
薛丽华;[D];长沙理工大学;2008年
&快捷付款方式
&订购知网充值卡
400-819-9993

我要回帖

更多关于 梯度下降法 的文章

 

随机推荐