我的网络出现什么问题了呢为什么epoch 才6步僦结束了呢?
-
Mu是trainlm算法中的一个参数这个算法会自动控制,当mu太大时训练会自动停止
-
训练结束时因为误差曲面的梯度gradient达到了预设值,已經进入平坦面
-
将gradient再设小点,不过效果不大
之所以6次迭代就收敛,是因为你的神经网络结构有问题你的网络输入输出都是单节点,可以说是一对一映射可隐层却囿三层之多,隐层神经元数量又高达50在样本数量有限的情况下,很容易就能收敛
你对这个回答的评价是?