能不能给个答案,好清楚分出何时用T检验,F检验,U检验,X检验?
书上说对期望的检验可以用U,T检验
题:尼古丁含量服从正态分布,N(1.45,0.048平方),取5根,测得含量1.32 ,1.55 ,1.36 ,1.4 , 1.44问总体标准差是否正常?
解:书上用X检验:X=(n-1)S平方/Q平方
为什么不用能U检验:z=x-Y/Q/根号n?
另:题:两台机床生产滚珠,它的直径服从正态分布,分别抽8只和9只相比方差是否相等?阿尔法=0.05
书上,F=S甲平方/S乙平方
为什么不能用T检验?T=X-Y/根号内(Q甲/n甲+Q乙/n乙)
通常的F检验例子包括:
1、假设一系列服从正态分布的母体,都有相同的标准差。这是最典型的F检验,该检验在方差分析(ANOVA)中也非常重要。
2、假设一个回归模型很好地符合其数据集要求。
通常的t检验:
(1) 已知一个总体均数;
(2) 可得到一个样本均数及该样本标准差;
(3) 样本来自正态或近似正态总体
t检验的前提是方差齐,只有方差齐了,t检验的结果才反应两组数据的是否有差异,否则如果方差不齐的话,会把组内的差异也考虑进去,所以判定的概率就更宽松。
而F检验其实就是看组间差异和组内差异的比较,所以本质上和t检验方差齐的概念相似。但是实际上在方差不齐的时候是无法进行t检验的,结果不具有统计学意义。
t检验一般适用于两组,所以在多维的情况下,不适用t检验,而F检验可以判定多组、一组多变量和多组间有交互(单因素、协方差、双因素无重复、双因素有重复等),然后在通过两两比较进行分析,用duncan和tukey等方法去判定,F检验的范围要大的多。
扩展资料
T检验和F检验的由来:
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。统计显著性(sig)就是出现目前样本这结果的机率。
参考资料来源:百度百科-t检验
参考资料来源:百度百科-F检验
参考资料:我的课本和笔记
本回答被提问者和网友采纳