用SAS做matlab非线性回归分析析,拟合优度怎样得出

第三十四课&&&&&&&&&非线性回归分析
第三十四课&&&&&&&&
非线性回归分析
&现实世界中严格的线性模型并不多见,它们或多或少都带有某种程度的近似;在不少情况下,非线性模型可能更加符合实际。由于人们在传统上常把“非线性”视为畏途,非线性回归的应用在国内还不够普及。事实上,在计算机与统计软件十分发达的令天,非线性回归的基本统计分析已经与线性回归一样切实可行。在常见的软件包中(诸如SAS、SPSS等等),人们已经可以像线性回归一样,方便的对非线性回归进行统计分析。因此,在国内回归分析方法的应用中,已经到了“更上一层楼”,线性回归与非线性回归同时并重的时候。
对变量间非线性相关问题的曲线拟合,处理的方法主要有:
&首先决定非线性模型的函数类型,对于其中可线性化问题则通过变量变换将其线性化,从而归结为前面的多元线性回归问题来解决。
&若实际问题的曲线类型不易确定时,由于任意曲线皆可由多项式来逼近,故常可用多项式回归来拟合曲线。
&若变量间非线性关系式已知(多数未知),且难以用变量变换法将其线性化,则进行数值迭代的非线性回归分析。
可变换成线性的非线性回归
在实际问题中一些非线性回归模型可通过变量变换的方法化为线性回归问题。例如,对非线性回归模型
即可作变换:
将其化为多元线性回归模型。一般地,若非线性模型的表达式为:
则可作变量变换:
将其化为线性回归模型的表达式,从而用前面线性模型的方法来解决,其中式(34.3)中的xt
也可为自变量构成的向量。
这种变量变换法也适用于因变量和待定参数 bi 。如:
时上式两边取对数得:
现作变换:
则可得线性表达式:
利用前面方法确定了 ,并由 得到 &的值。
变量变换的线性化方法可推广到下列形式的非线性模型:
其中x=(x1,x2,…,xp),而h(yt)、ci(bi)、gi(xt)则分别化为新的因变量、线性回归参数和自变量,即可归结为线性回归模型来解。表34.1给出了一些常见的可线性化的非线性模型。
表34.1&&&&&&&&&
&典型的函数及线性化方法
函数表达式
线性化方法
双曲线函数
当曲线的函数类型未确定时,我们常采用上述非线性模型作为其拟合曲线,即将自变量的各种初等函数的组合作为新自变量,用逐步回归法(或正交筛选法等)对新变量进行筛选,以确定一个项数不多的线性函数表达式。该方法对表达式形式没限制且精度要求不高的问题颇为有效。
多项式回归分析
在式(34.2)中,若取
,则为多项式回归模型。由数学分析知识可知,一般函数都可用多项式来逼近,故多项式回归分析可用来处理相当广泛的非线性问题。
对观测数据(xt,yt)(t=
1,…,N),多项式回归模型为:
&&&&&&&&&&&&&
,t=1,2,L,N
则模型可表示为:
当X列满秩时,由前面的讨论知,其最小二乘估计为:
由此即可求得其多项式回归方程。但由于 的计算既复杂又不稳定,故我们一般采用正交多项式法来进行多项式回归。
不可变换成线性的非线性回归分析
假设因变量y与自变量(x1,x2,…,xp)之间满足非线性模型:
其中, &为未知参数,F为已知表达式,e 为误差项。
现将观察数据:
&&&&&&&&&&&&&&&&&&&&
&t=1,2,L,N
代人式(34.9)得非线性回归模型:
&&&&&&&&&&&&&&&&&&&&
其中, 为y的观察向量, 为非线性回归系数,E = 为观察误差向量,F为未知参数
的函数向量。非线性回归分析就是利用最小二乘准则来估计回归系数 ,即求 &使得残差平方和:
&&&&&&&&&&&&&
在 &处达到最小。
非线性回归分析一般用数值迭代法来进行,其共同特点是:由选定 的初值 出发,通过逐步迭代:
即选择适当的步长t ( &0 )
及确定搜索方向向量D=(D1,D2,…,Dm),使得:
再由 取代 ,重复上述迭代过程,直至 Q(b)可认为达到最小值为止,即可将所得的 作为其最小二乘估计
,从而得到非线性回归方程
&&&&&&&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&
下降方向和步长的选择
首先考察 的梯度向量(即导数):
&&&&&&&&&&&&&&&&&&&&
其中, 为F的梯度矩阵。
为使 迭代收敛到 ,其迭代公式应满足下降性质(34.11)。现考虑一元函数 ,它从 出发以
D为方向的射线上取值。由复合求导公式得:
&&&&&&&&&&&&&
&&&&&&&&&&&
可以证明,当 d&0 时,在以 D为方向向量的射线上可以找到 ,使得 。我们将满足
的D称为下降方向,Bard于1974年给出了D为下降方向的充要条件为:
其中,P为对称正定阵,由此我们可得下降算法的迭代公式为:
其中,P为任意正定阵,G为F的梯度,t为满足 的正实数,即步长。
如何计算D以便修改参数向量
有五种常用的非线性回归迭代方法:高斯-牛顿法(Gauss-Newton)、最速下降法(梯度法,Gradient)、牛顿法(Newton)、麦夸特法(Marquardt)、正割法(DUD)。以下我们介绍高斯-牛顿法。
&&&&&&&&&&
高斯-牛顿法
首先选取 的一切初始近似值 ,令 ,则只要确定D的值即可确定 。为此,考虑 在
处的Taylor展开式,并略去二次以上的项得:
&&&&&&&&&&&&&
其中, 为F的梯度。此时其残差平方和:
由 ,得其D的正则方程为:
由此即可用前面线性回归法求D,只需将 、 视为前面(34.1)式中的X、Y即可。此时,对给定精度 、
&,当 或 时,即得 最小二乘法估计 ;否则用所得的 代替 ,重复上述步骤,直至
或Q(b)满足精度要求为止。该法称为高斯-牛顿法,其一般迭代公式为:
其中,D为 的解,ti为 的最小值点。
高斯-牛顿法在初值 选取适当,且
可逆时非常有效,但在其他情形,其求解较为困难,对此,Marguardt对(34.14)中D的正则系数阵作适当修正,得到了改进算法。
nlin非线性回归过程
在很多场合,可以对非线性模型进行线性化处理,尤其是关于变量非线性的模型,以运用OLS进行推断。对线性化后的线性模型,可以应用SAS的reg过程进行计算。
多项式模型可以直接应用glm(广义线性模型)求解。对于不能线性化的非线性模型。其估计不能直接运用经典的最小二乘法,而需要运用其他估计方法,如直接搜索法、直接最优法与Taylor级数展开法进行线性逼近。此时,可以利用SAS/STAT的nlin过程实现相应的计算。
&&&&&&&&&&
proc nlin过程
proc nlin采用最小误差平方法(Least Squares Method)及循环推测法(Iterative
Estimation Method)来建立一个非线性模型。一般而言,用户必须自定参数的名字、参数的启动值(starting
va1ue)、非线性的模型与循环推测法所用的准则。若用户不指明,则nlin 程序自动以高斯-牛顿迭代法(Gauss-Newton
iterative procedure)为估计参数的方法。另外此程序也备有扫描(Grid
search)的功能来帮助读者选择合适的参数启动值。由于非线性回归分析十分不易处理,nlin程序不保证一定可以算出符合最小误差平方法之标准的参数估计值。
nlin过程的功能,计算非线性模型参数的最小二乘估计LS及加权最小二乘估计。与reg过程不同的是:模型的参数要命名、赋初值、求偏导数;model语句与参数名、解释变量的表达式有关;可以使用赋值语句及条件语句。
nlin过程一般由下列语句控制:
proc& nlin&
&data=数据集&
&/选项列表&;
parameters 参数名=数值 ;
&&&&&因变量=表达式
&/选项列表&;
bounds&&&&
der.参数名{.参数名}= 表达式;
id&&&&&&&&
变量列表;
output&&&&
out=数据集 &/选项列表&;
by&&&&&&&&
变量列表;
其中,parameters语句和model语句是必需的,而其余语句供用户根据需要选择。
&&&&&&&&&&
proc nlin语句中的主要选择项
outest=数据集名——指定存放参数估计的每步迭代结果的数据集名。
best=n——要求过程只输出网格点初始值可能组合中最好的n组残差平方和。
l& method=gauss | marquardt | newton|
gradient| dud |——设定参数估计的迭代方法。缺省时为gauss,除非没有der.语句。
l& eformat——要求所有数值以科学记数法输出。
l& nopoint——抑制打印输出。
l& noinpoint——抑制迭代结果的输出。
&&&&&&&&&&
parameters(parms)语句
用于对所有参数赋初值,项目之间以空格分隔。例如,parms
b0=0&& b1=1 to
10&&& b2=1 to 10
b3=1,10,100;
&&&&&&&&&&
表达式可以是获得数值结果的任意有效SAS表达式。这个表达式包括参数名字、输入数据集中的变量名以及在nlin过程中用程序设计语句创建的新变量。例如,model
y=b0*(1-exp(-b1*x));
&&&&&&&&&&
bounds语句
用于设定参数的约束,主要是不等式约束,约束间用逗号分隔。例如,bounds&
a&=20,b&30,1&=c&=10;
&&&&&&&&&&
除非在proc
nlin语句中指明所用的迭代法是dud,使用选择项method=dud,否则der.语句是必需的。der.语句用于计算模型关于各个参数的偏导数,相应的格式为:
一阶偏导数& der.参数名=表达式 ;
二阶偏导数& der.参数名.参数名=表达式;
例如,对于model
y=b0*(1-exp(-b1*x));der.语句的书写格式为der.b0=1-exp(-b1*x);der.b1=b0*x*exp(-b1*x);
对于多数算法,都必须对每个被估计的参数给出一阶偏导数表达式。对于newton法,必须给出一、二阶偏导数表达式。例如,二阶偏导数表达式为,der.b0.b0.=0;der.b0.b1=x*exp(-b1*x);der.b1.b1=-der.b1*x;
&&&&&&&&&&
output语句
用于把一些计算结果输出到指定的数据集中。有关的关键字及其意义如表34.2所示。
&&&&&&&&&&nlin过程中output语句的关键字
predicted | p
clm的标准差
95%cli上限
residual | r
残差的标准差
95%cu下限
参数估计值
95%clm下限
学生氏残差
残差平方和
95%clm上限
杠杆点统计量hi
关于 nlin过程的其他选择项及意义,详见SAS/STAT的用户手册。
&负指数增长曲线的非线性回归。根据对已有数据的XY散点图的观察和分析,发现Y随X增长趋势是减缓的,并且Y趋向一个极限值,我们认为用负指数增长曲线
来拟合模型较为合适。程序如下:
data& expd &;
&input x y @@;;
020 0.57 030 0.72 040 0.81 050 0.87 060 0.91 070 0.94
080 0.95 090 0.97 100 0.98 110 0.99 120 1.00 130 0.99
140 0.99 150 1.00 160 1.00 170 0.99 180 1.00 190 1.00
200 0.99 210 1.00
proc nlin data=expd best=10 method=
parms b0=0 to 2 by 0.5 b1=0.01 to 0.09 by 0.01;
model y=b0*(1-exp(-b1*x));
der.b0=1-exp(-b1*x);
der.b1=b0*x*exp(-b1*x);
output out=expout p=
goptions reset=global gunit=pct cback=white border
htitle=6 htext=3 ftext=swissb colors=(back);
proc gplot data=
plot y*x ygs*x /haxis=axis1 vaxis=axis2
symbol1 i=none v=plus cv=red h=2.5 w=2;
symbol2 i=join v=none l=1 h=2.5 w=2;
axis1 order=20 to 210 by 10;
axis2 order=0.5 to 1.1 by 0.05;
title1 'y=b0*(1-exp(-b1*x)';
title2 'proc nlin method=gauss';
程序说明:由于在nlin过程中使用选项method=gauss,即指定用高斯-牛顿迭代算法来寻找model语句中非线性表达式
中参数 和 的最小二乘估计。我们知道,参数初始值选取好坏,对迭代过程是否收敛影响很大。parms语句设置了初始值网格值为
取0,0.5,1,1.5,2共5个值,
取0.01,0.02,…,0.09共9个值,所有可能组合为5&9=45,选项best=10要求输出残差平方和最小的前10种组合。高斯-牛顿迭代算法要求给出模型
对参数 和 的一阶偏导数表达式,我们知道:
der.语句用以表示上面两个一阶偏导数表达式。output语句输出一个新数据集expout,包括原数据集和非线性回归模型的预测值ygs。gplot过程的主要作用是绘制输出数据集expout中的原始数据的散点图及回归曲线的平滑线。程序的输出结果如图34.1和表34.3所示。
图34.1 &XY散点图和非线性回归曲线
&&&&&&负指数增长曲线:Gauss-Newton方法的输出结果
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
y=b0*(1-exp(-b1*x)&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
proc nlin method=gauss
&&&&&&&&&&&&&&&
Non-Linear Least Squares Grid
Search&&&&
Dependent Variable Y
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
B0&&&&&&&&&&&&
Sum of Squares
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.040000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.050000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.060000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.030000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.070000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.080000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.090000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.020000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.500000&&&&&&
0.010000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.010000&&&&&&
Non-Linear Least Squares Iterative
Dependent Variable
Method: Gauss-Newton
&&&&&&&&&&&&&&&&&&&&&&
Iter&&&&&&
B0&&&&&&&&&&&&
Sum of Squares
&&&&&&&&&&&&&&&&&&&&&&&&&
1.000000&&&&&&
0.040000&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&
0.996139&&&&&&
0.041857&&&&&&
&&&&&&&&&&&&&&&&&
&&&&&&&&2&&&&&&
0.996192&&&&&&
0.041952&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&
0.996189&&&&&&
0.041954&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&
0.996189&&&&&&
0.041954&&&&&&
NOTE: Convergence criterion met.
&&&&&&&&&&&&&
Non-Linear Least Squares Summary
Statistics&&&&
Dependent Variable Y
&&&&&&&&&&&&&&&
Source&&&&&&&&&&&&&&&
Squares&&&&
Mean Square
&&&&&&&&&&&&&&&
Regression&&&&&&&&&&&&
&&&&&&&&&&&&&&&
Residual&&&&&&&&&&&&&
&&&&&&&&&&&&&&&
Uncorrected
&&&&&&&&&&&&&&&
(Corrected
Total)&&&&
&&&&&&&&&&&&&&&
Parameter&&&&
Estimate&&&
Asymptotic&&&&&&&&&&&&
Asymptotic 95 %
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
Error&&&&&&&&
Confidence Interval
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
Lower&&&&&&&&
&&&&&&&&&&&&&&&
0. 0. 0. 0.
&&&&&&&&&&&&&&&
0. 0. 0. 0.
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
Asymptotic Correlation Matrix
&&&&&&&&&&&&&&&&&&&&&&&&&&&
Corr&&&&&&&&&&&&&&&
B0&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&
----------------------------------------
&&&&&&&&&&&&&&&&&&&&&&&&&&
&B0&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&&&&&
-0.&&&&&&&&&&&&&&&&
输出结果分析:首先列表输出了10个最好的迭代初始值组合,按回归模型的残差平方和从小到大排列。因此,最好的迭代初始值为B0=1.000000,B1=0.040000,此时回归模型的ESS=0.001404,与其他初始值组合的ESS相比是最小的。紧接着输出迭代过程分析表,从这个最好迭代初始值开始经过4次迭代误差平方和的变化就满足收敛准则,停止迭代,例如,经过第1次迭代,B0值从1修正为0.996139,B1值从0.040000修正为0.041857,而ESS从0.001404减小到0.000580,而从第2次迭代开始,B0的值只有在小数点四位以后才有变化,B1的值只有在小数点五位以后才有变化,而ESS值几乎不变了,因此是满足了收敛性标准而停止迭代的。方差分析表给出,回归平方和为17.,残差平方和为0.,总平方和为17.,总偏平方和为0.。参数估计表给出了B0和B1的渐近估计值,因此得到的非线性回归模型为:
同时,还给出B0和B1参数估计的渐近有效标准差(Asymptotic Std.
Error)和渐近95%置信区间(Asymptotic 95 % Confidence
Interval)。最后,还给出了参数的渐近相关阵(Asymptotic Correlation Matrix)。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。苹果/安卓/wp
积分 19, 距离下一级还需 5 积分
道具: 彩虹炫, 涂鸦板, 雷达卡, 热点灯, 金钱卡
购买后可立即获得
权限: 隐身
道具: 金钱卡, 彩虹炫, 雷达卡, 热点灯, 涂鸦板
本帖最后由 wanghaidong918 于
00:53 编辑
我想建一个逐步回归与非线性回归怎么编程
方程大概是:
bd=a0+a1*Exp(a2*dbh)+a3*h+a4*Log10(dinc)+a5*t
bd=a0+a1*dbh+a2*h+a3*dinc+a4*t+b1*Exp(c1*dbh)+b2*Exp(c2*h)+b3*Exp(c3*dinc)+b4*Exp(c4*t)+d1*lg(e1*dbh)+d2*lg(e2*h)+d3*lg(e3*dinc)+d4*lg(e4*t)
哪位朋友能告诉怎么弄啊?谢谢!
载入中......
proc nlin data=
model bd=a0+a1*dbh+a2*h+a3*dinc+a4*t+b1*Exp(c1*dbh)
& && && &+b2*Exp(c2*h)+b3*Exp(c3*dinc)+b4*Exp(c4*t)
& && && &+d1*lg(e1*dbh)+d2*lg(e2*h)+d3*lg(e3*dinc)+d4*lg(e4*t);
parameters ……………………………………;
复制代码
省略号表示参数,根据需要自己设定初始值
自助者,天助之!
guo.bailing
怎么快!谢谢!太感谢了!
逐步回归proc reg data=
model bd=a0+a1*Exp(a2*dbh)+a3*h+a4*Log10(dinc)+a5*t/
& && &selection=
复制代码
自助者,天助之!
guo.bailing
老师,方程里的变量不是都要的,我想像用逐步回归那样把不好的变量淘汰掉,但是还有变量大多都是非线性的,老师那怎么弄啊?
guo.bailing
老师,我刚看见,我这还没算出来,您能加我qq么我还这还有点不明白?qq: 麻烦你了老师!
bd=a0+a1*Exp(a2*dbh)+a3*h+a4*Log10(dinc)+a5*t
这个方程你是怎么推出来的?
初级热心勋章
初级热心勋章
中级热心勋章
中级热心勋章
初级信用勋章
初级信用勋章
初级学术勋章
初级学术勋章
无限扩大经管职场人脉圈!每天抽选10位免费名额,现在就扫& 论坛VIP& 贵宾会员& 可免费加入
加入我们,立即就学扫码下载「就学」app& Join us!& JoinLearn&
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
如有投资本站或合作意向,请联系(010-);
邮箱:service@pinggu.org
投诉或不良信息处理:(010-)
京ICP证090565号
京公网安备号
论坛法律顾问:王进律师医学会议频道
MedSci梅斯医学APP下载
大家还在关注:
用SPSS进行非线性回归分析实例
梅斯医生六大特点,成就最好的互动式病例学习平台
1、沉浸式的学习体验:虚拟诊室模拟真实诊疗,时间和空间不再受限,随时随地在线学习;
2、开放式的学习过程:对虚拟病人进行各项检查,系统不设限,根据病例做出诊疗判断;
3、病例来源高质权威:国内顶尖医院的罕见病病例,通过不断的在线学习,降低临床误诊率;
4、庞大病例库:一个中国最大的在线病例库,小型病例图书馆,覆盖6000份病例,约合书本超过1万页;
5、持续更新的病例库:实时在线更新,同行好友在线交流互动;
6、跑赢同级医生:交互式诊断,培养临床思维,加速职业成长,获得更多晋升机会;
扫二维码,参与内测,即获500M流量
根据以上数据拟合逻辑斯蒂模型:
本例子数据保存在。
1)准备分析数据
在SPSS数据编辑窗口建立变量“t”和“v”两个变量,把表6-14中的数据分别输入“温度”和“发育速率”对应的变量中。
或者打开已经存在的数据文件()。
2)启动线性回归过程
单击SPSS主菜单的“Analyze”下的“Regression”中“Nonlinear”项,将打开如图5-1所示的线回归对话窗口。
图5-1 Nonlinear非线性回归对话窗口
3) 设置分析变量
设置因变量:从左侧的变量列表框中选择一个因变量进入“Dependent(s)”框。本例子选“发育速率[v]”变量为因变量。
4) 设置参数变量和初始值
单击“Parameters”按钮,将打开如图6-14所示的对话框。该对话框用于设置参数的初始值。
图5-2 设置参数初始值
“Name”框用于输入参数名称。
“Starting”框用于输入参数的初始值。
输入完参数名和初始值后,单击“Add”按钮,则定义的变量及其初始值将显示在下方的参数框中。需要修改已经定义的参数变量,先用将其选中,然后在“Name”和“Starting”栏里进行修改,完成后点击“Change”按钮确认修改。要删除已经定义的参数变量,先用将其选中,然后点击“Bemove”按钮删除。
在本例逻辑斯蒂模型中估计的参数有“K”、“a”和“b”三个参数变量。设置初始值为:K=0.1;a=3;b=0.1。
参数的初始值可根据给定模型中参数定义范围情况而定。输入后的“Nonlinear”对话窗口如下图。
图5-3 设置参数初始值后的对话框
完成后点击“Continue”按钮。
5)输入方程式
在“Model Expression”框中输入需要拟合的方程式,在该方程中包含自变量、参数变量和常数等。自变量和参数变量可以从左边的列表框和“Parameters”框里选入。
方程中的函数可以从“Function”框里选入;运算符号和常数可以用鼠标从窗口“数字符号”显示区中点击输入。
本例输入的逻辑斯蒂模型是: K/(1+EXP(a-b*t))。输入后的窗口显示如下图。
图5-4 设置后的非线性回归对话窗口
6) 迭代条件
在主对话框中单击“Loss”按钮,将打开如图5-5所示的对话框。
图5-5 Loss 对话框
&&&&&&&&Sum of squared residuals”项,残差平方和最小值,系统默认。本例选该项。&&&&&&&&“User-defined loss function”自定义选项。设置其他统计量为迭代条件,在下边输入框中输入相应的统计&&&&&&&&&&&& & 量的表达式,称为损失函数。在左上角的变量列表框中,“RESID”代表所选变量的残差;“PRED_”代表预测&&&&&&&&&&&&&& 值。可以从左下角框中选择已定义的参数进入损失函。
7)参数取值范围
在主对话框中单击“Constraints”按钮,将打开如图5-6所示的对话框。在该对话框中设置回归方程中参数的取值范围。
选中“Define parameter constraint”项,即可对选定的参数变量设置取值范围。参数的取值范围,用不等式“=,&=,&=”来定义。
例如,在本例逻辑斯蒂模型中K参数应该小于1。应该定义如下:k&=0.9999
定义后会提示:是否复制现有的变量名,回答“确定”。
图5-6 参数取值范围对话框
8) 保存分析数据
在主对话框中单击“Save”按钮将打开如图5-7所示的对话框,选择要保存到数据文件中的统计量。
图 5-7 Save对话框
其中各项分别为:
&&&&&&&“Predicted values”因变量的预测值。&&&&&&&“Residuals”因变量的残差。&&&&&&&“Derivatives”派生数。&&&&&&&“Loss function values”损失函数值。
9) 迭代方法
主对话框中单击“Options”按钮,将打开如图5-8所示的对话框。
图5-8 迭代方法对话框
“Bootstrap estimates of standard error”项,将采用样本重复法计算标准误。样本重复法需要顺序二次规划算法的支持。当选中该项时,SPSS将自动选中“Sequential quadratic Programming”项。
“Estimation Method”框中列出了参数的两种估计方法:
“Sequential Quadratic Programming”项为顺序二次规划算法。该方法要求输入的参数为:
“Maximum”最大迭代步数。 “Step Iimit”最大步长。“Optimality”目标函数的迭代误差限。“Function”函数精度,应比目标函数的迭代误差限小。“Infinite step”当一次迭代中参数值的变化大于设置值,则迭代停止。
“Levenberg-Marquardt”项,采用麦夸尔迭代法),系统缺省设置。该法要求输入的参数为:
“Maximum iterations”最大迭代步数。“Sum-of-squares convergence”在一步迭代中目标函数残差平方和的变化比例小于设置的值时,&&&&&&&&&&&&&&&&&&&&&&& 迭代停止。“Parameter convergence”在一步迭代中参数的变化比例小于设置值时,迭代停止。
本例选“Levenberg-Marquardt”项,最大迭代步数100,残差平方和的变化比例小于1E-8,参数的变化比例小于1E-8。
10)提交执行
所有的设置完成后,在主对话框中点击“OK”按钮提交所有设置,SPSS执行过程后输出结果显示在输出窗口中。
11) 结果分析
根据以上输出结果得到K的参数估计值是0.;a的参数估计值是5.;b的参数估计值是0.。其拟合的逻辑斯蒂发育速率模型为:
残差平方和(Q)为0.;拟合优度系数(R2)为0.92370。
小提示:78%用户已下载,更方便阅读和交流,请扫描二维码直接下载APP
对我帮助很大,谢谢
学习了,不错
相关资讯:
猜你感兴趣
资讯分类阅读
关注Medsci
声明:MedSci(梅斯医学)登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供专业医生参考,具体诊断和治疗请咨询专科医生。
MedSci备案号
扫码领取IF曲线
IF连续增长的期刊小木虫 --- 500万硕博科研人员喜爱的学术科研平台
&&查看话题
【求助】两个概念,线性回归与非线性回归
在不确定两个变量之间的关系是线性的还是非线性的时如何选择回归模型?因为有一些软件中这样的菜单是分开的,比如在Spss中,
研究生必备与500万研究生在线互动!
扫描下载送金币
浏览器进程
打开微信扫一扫
随时随地聊科研苹果/安卓/wp
积分 6811, 距离下一级还需 3369 积分
权限: 自定义头衔, 签名中使用图片, 隐身, 设置帖子权限, 设置回复可见
道具: 彩虹炫, 涂鸦板, 雷达卡, 热点灯, 金钱卡, 显身卡, 匿名卡, 抢沙发, 提升卡, 沉默卡, 千斤顶, 变色卡下一级可获得
权限: 签名中使用代码
购买后可立即获得
权限: 隐身
道具: 金钱卡, 彩虹炫, 雷达卡, 热点灯, 涂鸦板
开心签到天数: 187 天连续签到: 1 天[LV.7]常住居民III
Probit回归:Probit回归全称probability unit,翻译过来叫做概率单位法,蛮拗口的一个名字。这个回归主要用于研究半数效量用的。直白一点说,就是比方你拿一种药去药蟑螂,你想知道你用多少药能药死多少蟑螂,那你就可以用probit回归来估计这个数。Probit回归经常拿来和logistic回归作比较,通常对于二分类变量来说,这两个回归计算出来的概率是非常相似的。(虽然logistic回归最后判断的是是或否,但是它也需要计算一个概率来判断这个结果倒是是还是否。)而且如果有一点数学基础的话,会知道,这两个回归画出来的图也非常像,只是logistic回归画出来的Z型稍微平缓一些。那么这两个回归到底有什么区别呢?通常来说区别不大。最重要的一个区别在于probit回归适用于呈正态分布的数据,logistic回归适用于呈logistic分布的数据。不过这个区别也蛮微妙的,因为正态分布和logistic分布还蛮像的。所以大概来讲,到底是选择哪个分布更多的还是一种个人喜好。但是大家都知道啊,logistic分布比probit分布可有名多了。如果说十个从事大数据的人里边有五个人知道logistic回归,那么有三个知道probit回归就不错了。在我们ppv课网站的spss视频教学里边,绝大部分都会讲到logistic回归,但是probit回归就不见得有人讲了。(顺便说一句,我个人最喜欢spss从入门到精通这套课程,刚入门的时候就是听得这套课。强烈推荐大家去听一听)。那么这是什么原因呢?这绝不是probit不好用的原因。主要原因有两个,第一,logistic回归形式比较多。二分类,有序多分类,无序多分类,这些logistic回归都可以做。这就好像我们ppv课网站提供了spss,sas,r,matlab,hadoop等等视频,你可以从零基础学到精通级别,肯定比较受欢迎哈。第二,则归功于logistic回归的易解释性。Logistic回归提供了一个很重要的参数,OR值,这个值很直接的告诉你处于某个状态比处于另一个状态时因变量发生的概率增加了多少倍。这当然是一个很重要很直观的参数啦。就好像你每学一段时间以后,我们ppv课网站告诉你你的知识积累比之前增加了多少倍多少倍,这个肯定很重要撒。因此呢,logistic回归就比probit回归应用的广泛了。不过这并不是说logistic回归就比probit回归好。实际上,两种回归拟合的方程几乎一样好。不过,再怎么几乎一样,那也肯定是有所不同的。可惜这种不同用你的肉眼一般是看不出来的,至于怎么看,下边在讲。好了,现在大概就介绍完probit回归的背景知识了(绝对没有凑字数)。现在我们开始操作。首先假设一个情景,假设我们ppv课网站打算增加一定的课程,达到收视率增加百分之二十的目的,我们就有了三个变量,课程增加的数目(假设分为3,6,9三个水平),各个增加水平的课程数(比方加3节课,6节课,9节课的都是十个课程),各个水平的课程的收视率增加达到百分之二十的课程数(假设分别是3,5,6)。(这段真的有点绕,最好读两遍保证能看懂哪个变量是表示的什么意思)。那么我们就有了一个3*3的数据集,选择菜单分析——回归——probit,打开主面板,响应频率里选我们各个水平收视率增加达到百分之二十的课程数(也就是我们做实验的课程里边有多少课程成功达到了收视率增加的目标),观测值汇总里边选择各个增加水平的总课程数,再下边有一个因子,一个协变量。我们的自变量课程增加的水平是三节课一个台阶,所以我们要选到协变量里边去哈。(如果你的自变量是连续型变量,那你就得在因子下边的那个定义范围里边选好范围。)此外协变量下边有一个转换下拉菜单,这个菜单有三种方法,除了“无”以外,还有两种对数转换,你可以试试,你的数据到底怎么转换效果最好。完了以后,在左下边还有一个模型:概率/logit,这个单选框里默认的是概率。也就是默认数据分布是正态的。这个也不用管它。然后点开选项,勾选频率,信仰置信区间,继续,确定。然后就可以看结果了。参数值和卡方检验这两个表会告诉你这个模型有没有意义,适不适合用probit回归(如果想和logistic回归作比较,就可以用这里的拟合度检验检测)。此外置信限度这个很大的表会告诉你假如你想要你的课程收视率增加的概率是百分之八十的时候,你的课程要增加多少节课这么个数据。它大概是以百分之五为精度的。那如果我想知道增加百分之八十三,需要加多少节课的话,那么我们就要用参数估计值里的参数进行计算了。非线性回归自然界中既然有线性回归,那么理所当然的,也会有非线性回归。不过,人类对于非线性回归的研究远远不如对线性回归的研究来的深刻,广泛。不信你看一看你的spss教科书,线性回归的内容可以洋洋洒洒写一章,非线性回归确占一小节,还往往是比较薄的一节。线性回归指的是y=a+a1*x1+a2*x2…这种形式的方程,非线性回归包含的方程类型就多得多了。常见的有,幂函数,指数函数,双曲函数,对数函数等等。我们先举个例子。假设想拟合ppv课授课老师的数目和网站受欢迎程度的关系。选择分析——回归——非线性。打开主对话框。因变量选择网站受欢迎程度,模型表达式需要自己编辑。(我就挺怵这个的),首先我们知道,我们肯定不可能看一眼就看出我们的数据是什么样子的模型,我们可以通过图形——图表构建程序里边,画出散点图,通过散点图大致判断我们的模型符合什么样的方程,然后在进一步使用(或者直接使用)参数估计法(前面讲过的),估计出它的表达式。估计出表达式以后,就可以编辑模型表达式了。编辑好以后看左下角的参数那一栏。你的模型里边的参数是需要首先定义一个初始值的。这个初始值要尽量靠近真实值,如果离真实值太远的话,也会影响到模型的准确度。看到这里,可能你要发脾气了,这是个什么模型?怎么这么麻烦?!!要是我知道模型,知道初始值,那我还需要做分析吗啊?!!唉,我也没办法,非线性回归就是这么个玩意,总之你还是拿起你的笔,根据你的模型代几组数据算一算大概的初始值吧。毕竟为了最后的精度嘛。输好初始值以后,打开保存对话框,勾选预测值,残差。继续,其他的默认就可以。点确定。输出的参数估计值会给出参数,套到你的模型里就可以。注意看方差分析表下边的标注,里边会给出决定系数R^2,这个R^2通常比参数估计法里的大,也就是说,非线性回归的精度往往比参数估计法的大,模型拟合的好。(废话,要是非线性回归一点优势也没有,还有谁肯研究啊。)上边只是简单介绍了一点非线性回归的方法。实际生活中,非线性回归比线性回归远远复杂的多,不是一句两句就能说清楚的,此外,还有一种很普遍的办法是通过数学公式把非线性方程转化成线性方程。这样就能大大降低方程的复杂性。在这里,给大家总结了几个常见的公式。
通过这样的一些公式,非线性回归就变得简单一些了。但是并不是所有的非线性回归都能转化成线性回归,或者说,大多数都不能转化成线性回归。这个问题很复杂,绝不是一篇两篇文章就能说得清楚的。在这里本文只为大家进行简单介绍,更高深的内容请大家参考《非线性回归分析及其应用》,《非线性回归》等书籍。我就没能力啦。回归分析的内容就暂时告一段落了。我们下一篇文章将学习主成分分析和因子分析等降维分析。敬请期待呦。
支持楼主:、
购买后,论坛将把您花费的资金全部奖励给楼主,以表示您对TA发好贴的支持
载入中......
本帖被以下文库推荐
& |主题: 689, 订阅: 156
只想做一个勤勤恳恳的搬运工
好几天没有连载这个了。我还以为没有了。、
连载又来了。
好久不见连载的了。
初级学术勋章
初级学术勋章
初级热心勋章
初级热心勋章
中级学术勋章
中级学术勋章
无限扩大经管职场人脉圈!每天抽选10位免费名额,现在就扫& 论坛VIP& 贵宾会员& 可免费加入
加入我们,立即就学扫码下载「就学」app& Join us!& JoinLearn&
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
如有投资本站或合作意向,请联系(010-);
邮箱:service@pinggu.org
投诉或不良信息处理:(010-)
京ICP证090565号
京公网安备号
论坛法律顾问:王进律师

我要回帖

更多关于 sas拟合优度检验 的文章

 

随机推荐