R square是决定系数,意思是拟合的模型能解释因变量的变化的百分数,例如R方=0.810,表示拟合的方程能解释因变量81%的变化,还有19%是不能够解释的.
F值是方差检验量,是整个模型的整体检验,看你拟合的方程有没有意义
t值是对每一个自变量(logistic回归)的逐个检验,看它的beta值β即回归系数有没有意义
F和t的显著性都是0.05,
SPSS是世界上最早的统计分析软件,由美国斯坦福大学的三位研究生Norman H. Nie、C. Hadlai (Tex) Hull 和 Dale H. Bent于1968年研究开发成功,同时成立了SPSS公司,并于1975年成立法人组织、在芝加哥组建了SPSS总部。
决定系数,有的教材上翻译为判定系数,也称为拟合优度。表示可根据自变量的变异来解释因变量的变异部分。如某学生在某智力量表上所得的 IQ 分与其学业成绩的相关系数 r=0.66,则决定系数 R^2=0.4356,即该生学业成绩约有 44%可由该智力量表所测的智力部分来说明或决定。
原理:
表征依变数Y的变异中有多少百分比,可由控制的自变数X来解释.
决定系数并不等于相关系数的平方。它与相关系数的区别在于除掉|R|=0和1情况,
由于R2<R,可以防止对相关系数所表示的相关做夸张的解释。
决定系数:在Y的总平方和中,由X引起的平方和所占的比例,记为R2
决定系数的大小决定了相关的密切程度。
当R2越接近1时,表示相关的方程式参考价值越高;相反,越接近0时,表示参考价值越低。这是在一元回归分析中的情况。但从本质上说决定系数和回归系数没有关系,就像标准差和标准误差在本质上没有关系一样。
在多元回归分析中,决定系数是通径系数的平方。
表达式:R2=SSR/SST=1-SSE/SST
其中:SST=SSR+SSE,SST (total sum of squares)为总平方和,SSR (regression sum of squares)为回归平方和,SSE (error sum of squares) 为残差平方和。
注意:以下不同名字是同一个意思,只是表述不同
回归平方和:SSR(Sum of Squares for regression) = ESS (explained sum of squares)
残差平方和:SSE(Sum of Squares for Error) = RSS (residual sum of squares) =SSR(sum of squared residuals)
总离差平方和:SST(Sum of Squares for total) = TSS(total sum of squares)
注意:两个SSR的不同
SSE+SSR=SST
RSS+ESS=TSS
意义:拟合优度越大,自变量对因变量的解释程度越高,自变量引起的变动占总变动的百分比高。观察点在回归直线附近越密集。
取值意思:
0 表示模型效果跟瞎猜差不多
1 表示模型拟合度较好(有可能会是过拟合,需要判定)
0~1 表示模型的好坏(针对同一批数据)
小于0则说明模型效果还不如瞎猜(说明数据直接就不存在线性关系)
参考资料:百度百科-决定系数
参考资料:百度百科-spss
1、R square(R方值)是决定系数,意思是你拟合的模型能解释因变量的变化的百分数,例如R方=0.810,表示你拟合的方程能解释因变量81%的变化,还有19%是不能够解释的。
2、F值是方差检验量,是整个模型的整体检验,看它拟合的方程有没有意义。
3、t值是对每一个自变量(logistic回归)的逐个检验,看它的beta值β即回归系数有没有意义。
R方值是评价的主要指标,F值,t值是两个检验,一般要小于0.05,F和t的显著性都是0.05。
扩展资料
回归分析在科学研究领域是最常用的统计方法。《SPSS回归分析》介绍了一些基本的统计方法,例如,相关、回归(线性、多重、非线性)、逻辑(二项、多项)、有序回归和生存分析(寿命表法、Kaplan-Meier法以及Cox回归)。
《SPSS回归分析》对运用SPSS进行回归分析的介绍,目的是让读者对于这方面的基础知识有一个初步了解和掌握,有经验的读者藉此可在数据挖掘(例如,利用Clementine)领域独立地继续学习新知识
参考资料来源:百度百科-SPSS回归分析
本回答被网友采纳