|
26 |
МЕТОДОЛОГИЯ МЕДИЦИНСКИХ ИССЛЕДОВАНИЙ |
|||||||||||
|
нию, т. е. при графическом изображении кривая име- |
В тексте статьи должно иметься объяснение того, |
|||||||||||
|
ет вид колокола. При этом диапазон нормальных зна- |
каким образом подобные результаты были учтены |
|||||||||||
|
чений лежит в пределах ±2 СКО от средней величи- |
при определении чувствительности и специфично- |
|||||||||||
|
ны, т. е. включает в себя 95% всех измерений. Однако |
сти метода. Операционные характеристики будут за- |
|||||||||||
|
оставшиеся 2,5% с каждой стороны диапазона (от- |
висеть от того, как неопределенные результаты учи- |
|||||||||||
|
клонение от нормы) не имеют клинического смыс- |
тывались: как положительные, отрицательные, либо |
|||||||||||
|
ла, поскольку встречаются слишком редко. Следует |
не включались в анализ. В стандартной таблице со- |
|||||||||||
|
учитывать, что многие результаты не подчиняются |
пряженности 2½2, использующейся для расчета чув- |
|||||||||||
|
нормальному распределению. |
ствительности и специфичности диагностического |
|||||||||||
|
Перцентильное определение нормы: нормальным счи- |
метода, столбцы и строки для сомнительных резуль- |
|||||||||||
|
тается показатель, лежащий в пределах диапазона. |
татов отсутствуют (табл. 2). Даже при условии высо- |
|||||||||||
|
Например, любой показатель в пределах нижних 95% |
кой чувствительности или специфичности, но при |
|||||||||||
|
всех значений определяется как норма, а в пределах |
наличии значительного процента сомнительных ре- |
|||||||||||
|
оставшихся верхних 5% — как отклонение от нормы. |
зультатов, практическая значимость метода будет |
|||||||||||
|
И в данном случае критерием служит частота показа- |
невелика. |
|||||||||||
|
теля вне зависимости от клинической значимости. |
Ошибка 14. Рисунки и таблицы используются |
|||||||||||
|
Социальное определение нормы: нормальным сле- |
||||||||||||
|
лишь для «хранения» данных, а не с целью |
||||||||||||
|
дует называть показатель, который принято считать |
||||||||||||
|
облегчить восприятие материала |
||||||||||||
|
таковым. Например, желаемая масса тела или воз- |
||||||||||||
|
раст, к которому ребенок должен научиться само- |
При отображении, анализе и интерпретации дан- |
|||||||||||
|
стоятельно ходить. Подобные критерии не всегда |
ных огромное значение имеют таблицы и рисунки. |
|||||||||||
|
клинически значимы. |
Однако в научных статьях, помимо собственно «хра- |
|||||||||||
|
Ошибка 13. Отсутствует объяснение, каким |
нения» информации, они должны служить для об- |
|||||||||||
|
легчения восприятия материала [26]. Вследствие это- |
||||||||||||
|
образом неопределенные (сомнительные) |
||||||||||||
|
го таблицы и рисунки в статьях могут отличаться от |
||||||||||||
|
результаты учтены при вычислении |
||||||||||||
|
тех, которые были созданы автором исключительно |
||||||||||||
|
операционных характеристик диагностического |
||||||||||||
|
для регистрации данных и проведения анализа. Так, |
||||||||||||
|
теста (таких, как чувствительность и |
||||||||||||
|
таблица, включающая в себя 3 переменных, может |
||||||||||||
|
специфичность) |
||||||||||||
|
выглядеть совершенно по-разному (табл. 3). Легче |
||||||||||||
|
Далеко не всегда использование диагностическо- |
всего сравнивать данные, расположенные рядом друг |
|||||||||||
|
го метода позволяет получить однозначно положи- |
с другом, поэтому оптимальным следует считать |
|||||||||||
|
тельный или отрицательный результат. Возможно, |
именно такую структуру таблицы, подсказывающую |
|||||||||||
|
контрастное вещество было введено не полностью, |
читателю то или иное сравнение. |
|||||||||||
|
результаты бронхоскопического исследования не |
В таблице и диаграммах на рис. 7 представлены |
|||||||||||
|
позволяют ни подтвердить, ни опровергнуть нали- |
одни и те же данные о распространенности заболе- |
|||||||||||
|
чие заболевания, врач может не согласиться с интер- |
вания в 9 регионах. Однако таблица позволяет наи- |
|||||||||||
|
претацией клинических признаков. Результаты, ко- |
более информативно отобразить точные показатели |
|||||||||||
|
торые нельзя признать ни положительными, ни от- |
распространенности, точечная диаграмма — срав- |
|||||||||||
|
рицательными, влияют на практическую значимость |
нить показатели в различных регионах, а гистограм- |
|||||||||||
|
метода, поэтому их наличие и относительная часто- |
ма — отразить пространственные взаимоотношения |
|||||||||||
|
та должны быть приведены в статье. |
между регионами и распространенностью. |
|||||||||||
|
Существует три варианта таких неопределенных |
Ошибка 15. Несоответствие между внешним |
|||||||||||
|
результатов [25]: |
||||||||||||
|
видом графика или диаграммы и данными, на |
||||||||||||
|
Промежуточные результаты занимают промежу- |
||||||||||||
|
которых они основаны |
||||||||||||
|
точное положение между отрицательными и поло- |
||||||||||||
|
жительными. Например, при микроскопическом ис- |
Информация, представленная в графическом |
|||||||||||
|
следовании ткани положительным результатом слу- |
виде, воспринимается легче, чем представленная в |
|||||||||||
|
жит выявление клеток, окрашенных в синий цвет. |
виде текста [27]. Поэтому очень важно, чтобы внеш- |
|||||||||||
|
Появление клеток, имеющих голубоватую окраску, |
ний вид графиков не искажал смысл данных, на |
|||||||||||
|
не достигающую по интенсивности требуемого от- |
которых они основаны. Одна из проблем возникает |
|||||||||||
|
тенка, в данном случае следует считать промежу- |
Таблица |
2. Стандартная |
таблица |
для определения опера- |
||||||||
|
точным результатом. |
||||||||||||
|
ционных |
характеристик |
диагностического |
теста* |
|||||||||
|
Неопределенные результаты такие, которые не |
||||||||||||
|
позволяют сделать ни положительного, ни отрица- |
||||||||||||
|
Результат |
Заболевание |
Всего |
||||||||||
|
тельного заключения. Например, ответы, получен- |
||||||||||||
|
имеется |
отсутствует |
|||||||||||
|
ные при психологическом тестировании, из которых |
||||||||||||
|
Положительный |
a |
b |
a+b |
|||||||||
|
неясно, страдает ли обследуемый алкогольной за- |
||||||||||||
|
Отрицательный |
c |
d |
c+d |
|||||||||
|
висимостью. |
||||||||||||
|
Всего |
a+c |
b+d |
a+b+c+d |
|||||||||
|
Не поддающиеся интерпретации результаты полу- |
||||||||||||
|
чены при использовании метода с несоблюдением |
||||||||||||
|
Примечание. * — чувствительность |
= |
à/(à+ñ), |
специфичность = |
|||||||||
|
существующих стандартов проведения исследования. |
||||||||||||
|
d/(b+d). Данная таблица позволяет |
рассчитать |
также |
отношения |
|||||||||
|
Например, определение уровня глюкозы в крови |
||||||||||||
|
правдоподобия. Таблица не включает в себя сомнительные ре зуль- |
||||||||||||
|
после приема пищи. |
||||||||||||
|
таты, которые нередко и не всегда оправданно игнорируют. |
Стандартное отклонение (SD), измеряет количество изменчивости или дисперсии, из отдельных значений данных, к среднему значению, в то время как стандартная ошибка среднего (SEM) мер, как далеко образец среднее (среднее) данных, вероятно, будет от истинного среднего значения населения. SEM всегда меньше SD.
Ключевые выводы
- Стандартное отклонение (SD) измеряет разброс набора данных относительно его среднего значения.
- Стандартная ошибка среднего (SEM) измеряет, насколько вероятно расхождение между средним значением выборки по сравнению со средним значением генеральной совокупности.
- SEM берет SD и делит его на квадратный корень из размера выборки.
SEM против SD
Стандартное отклонение и стандартная ошибка используются во всех типах статистических исследований, включая исследования в области финансов, медицины, биологии, инженерии, психологии и т. Д. В этих исследованиях стандартное отклонение (SD) и расчетная стандартная ошибка среднего (SEM) ) используются для представления характеристик данных выборки и объяснения результатов статистического анализа. Однако некоторые исследователи иногда путают SD и SEM. Таким исследователям следует помнить, что расчеты SD и SEM включают разные статистические выводы, каждый из которых имеет свое значение. SD – это разброс отдельных значений данных.
Другими словами, SD указывает, насколько точно среднее значение представляет данные выборки. Однако значение SEM включает статистический вывод, основанный на распределении выборки. SEM – это стандартное отклонение теоретического распределения выборочных средних (выборочное распределение).
Расчет стандартного отклонения
Формула SD требует нескольких шагов:
- Во-первых, возьмите квадрат разницы между каждой точкой данных и средним значением выборки, найдя сумму этих значений.
- Затем разделите эту сумму на размер выборки минус один, который представляет собой дисперсию.
- Наконец, извлеките квадратный корень из дисперсии, чтобы получить стандартное отклонение.
Стандартная ошибка среднего
SEM рассчитывается путем деления стандартного отклонения на квадратный корень из размера выборки.
Стандартная ошибка дает точность выборочного среднего путем измерения изменчивости выборочного среднего от образца к образцу. SEM описывает, насколько точное среднее значение выборки является оценкой истинного среднего значения совокупности. По мере увеличения размера выборки данных SEM уменьшается по сравнению с SD; следовательно, по мере увеличения размера выборки среднее значение выборки оценивает истинное среднее значение генеральной совокупности с большей точностью. Напротив, увеличение размера выборки не обязательно делает SD больше или меньше, это просто становится более точной оценкой SD населения.
Стандартная ошибка и стандартное отклонение в финансах
В финансах стандартная ошибка средней дневной доходности актива измеряет точность выборочного среднего как оценки долгосрочной (постоянной) средней дневной доходности актива.
С другой стороны, стандартное отклонение доходности измеряет отклонения индивидуальных доходов от среднего значения. Таким образом, SD является мерой волатильности и может использоваться в качестве меры риска для инвестиций. Активы с более высокими ежедневными движениями цен имеют более высокое SD, чем активы с меньшими ежедневными движениями. Предполагая нормальное распределение, около 68% дневных изменений цен находятся в пределах одного стандартного отклонения от среднего, при этом около 95% дневных изменений цен находятся в пределах двух стандартных значений среднего.
From Wikipedia, the free encyclopedia
For a value that is sampled with an unbiased normally distributed error, the above depicts the proportion of samples that would fall between 0, 1, 2, and 3 standard deviations above and below the actual value.
The standard error (SE)[1] of a statistic (usually an estimate of a parameter) is the standard deviation of its sampling distribution[2] or an estimate of that standard deviation. If the statistic is the sample mean, it is called the standard error of the mean (SEM).[1]
The sampling distribution of a mean is generated by repeated sampling from the same population and recording of the sample means obtained. This forms a distribution of different means, and this distribution has its own mean and variance. Mathematically, the variance of the sampling mean distribution obtained is equal to the variance of the population divided by the sample size. This is because as the sample size increases, sample means cluster more closely around the population mean.
Therefore, the relationship between the standard error of the mean and the standard deviation is such that, for a given sample size, the standard error of the mean equals the standard deviation divided by the square root of the sample size.[1] In other words, the standard error of the mean is a measure of the dispersion of sample means around the population mean.
In regression analysis, the term «standard error» refers either to the square root of the reduced chi-squared statistic or the standard error for a particular regression coefficient (as used in, say, confidence intervals).
Standard error of the sample mean[edit]
Exact value[edit]
Suppose a statistically independent sample of observations
is taken from a statistical population with a standard deviation of
. The mean value calculated from the sample,
, will have an associated standard error on the mean,
, given by:[1]
.
Practically this tells us that when trying to estimate the value of a population mean, due to the factor , reducing the error on the estimate by a factor of two requires acquiring four times as many observations in the sample; reducing it by a factor of ten requires a hundred times as many observations.
Estimate[edit]
The standard deviation of the population being sampled is seldom known. Therefore, the standard error of the mean is usually estimated by replacing
with the sample standard deviation
instead:
.
As this is only an estimator for the true «standard error», it is common to see other notations here such as:
or alternately
.
A common source of confusion occurs when failing to distinguish clearly between:
Accuracy of the estimator[edit]
When the sample size is small, using the standard deviation of the sample instead of the true standard deviation of the population will tend to systematically underestimate the population standard deviation, and therefore also the standard error. With n = 2, the underestimate is about 25%, but for n = 6, the underestimate is only 5%. Gurland and Tripathi (1971) provide a correction and equation for this effect.[3] Sokal and Rohlf (1981) give an equation of the correction factor for small samples of n < 20.[4] See unbiased estimation of standard deviation for further discussion.
Derivation[edit]
The standard error on the mean may be derived from the variance of a sum of independent random variables,[5] given the definition of variance and some simple properties thereof. If are
independent samples from a population with mean
and standard deviation
, then we can define the total
which due to the Bienaymé formula, will have variance
where we’ve approximated the standard deviations, i.e., the uncertainties, of the measurements themselves with the best value for the standard deviation of the population. The mean of these measurements is simply given by
.
The variance of the mean is then
The standard error is, by definition, the standard deviation of which is simply the square root of the variance:
.
For correlated random variables the sample variance needs to be computed according to the Markov chain central limit theorem.
Independent and identically distributed random variables with random sample size[edit]
There are cases when a sample is taken without knowing, in advance, how many observations will be acceptable according to some criterion. In such cases, the sample size is a random variable whose variation adds to the variation of
such that,
[6]
If has a Poisson distribution, then
with estimator
. Hence the estimator of
becomes
, leading the following formula for standard error:
(since the standard deviation is the square root of the variance)
Student approximation when σ value is unknown[edit]
In many practical applications, the true value of σ is unknown. As a result, we need to use a distribution that takes into account that spread of possible σ’s.
When the true underlying distribution is known to be Gaussian, although with unknown σ, then the resulting estimated distribution follows the Student t-distribution. The standard error is the standard deviation of the Student t-distribution. T-distributions are slightly different from Gaussian, and vary depending on the size of the sample. Small samples are somewhat more likely to underestimate the population standard deviation and have a mean that differs from the true population mean, and the Student t-distribution accounts for the probability of these events with somewhat heavier tails compared to a Gaussian. To estimate the standard error of a Student t-distribution it is sufficient to use the sample standard deviation «s» instead of σ, and we could use this value to calculate confidence intervals.
Note: The Student’s probability distribution is approximated well by the Gaussian distribution when the sample size is over 100. For such samples one can use the latter distribution, which is much simpler.
Assumptions and usage[edit]
An example of how is used is to make confidence intervals of the unknown population mean. If the sampling distribution is normally distributed, the sample mean, the standard error, and the quantiles of the normal distribution can be used to calculate confidence intervals for the true population mean. The following expressions can be used to calculate the upper and lower 95% confidence limits, where
is equal to the sample mean,
is equal to the standard error for the sample mean, and 1.96 is the approximate value of the 97.5 percentile point of the normal distribution:
- Upper 95% limit
and
- Lower 95% limit
In particular, the standard error of a sample statistic (such as sample mean) is the actual or estimated standard deviation of the sample mean in the process by which it was generated. In other words, it is the actual or estimated standard deviation of the sampling distribution of the sample statistic. The notation for standard error can be any one of SE, SEM (for standard error of measurement or mean), or SE.
Standard errors provide simple measures of uncertainty in a value and are often used because:
- in many cases, if the standard error of several individual quantities is known then the standard error of some function of the quantities can be easily calculated;
- when the probability distribution of the value is known, it can be used to calculate an exact confidence interval;
- when the probability distribution is unknown, Chebyshev’s or the Vysochanskiï–Petunin inequalities can be used to calculate a conservative confidence interval; and
- as the sample size tends to infinity the central limit theorem guarantees that the sampling distribution of the mean is asymptotically normal.
Standard error of mean versus standard deviation[edit]
In scientific and technical literature, experimental data are often summarized either using the mean and standard deviation of the sample data or the mean with the standard error. This often leads to confusion about their interchangeability. However, the mean and standard deviation are descriptive statistics, whereas the standard error of the mean is descriptive of the random sampling process. The standard deviation of the sample data is a description of the variation in measurements, while the standard error of the mean is a probabilistic statement about how the sample size will provide a better bound on estimates of the population mean, in light of the central limit theorem.[7]
Put simply, the standard error of the sample mean is an estimate of how far the sample mean is likely to be from the population mean, whereas the standard deviation of the sample is the degree to which individuals within the sample differ from the sample mean.[8] If the population standard deviation is finite, the standard error of the mean of the sample will tend to zero with increasing sample size, because the estimate of the population mean will improve, while the standard deviation of the sample will tend to approximate the population standard deviation as the sample size increases.
Extensions[edit]
Finite population correction (FPC)[edit]
The formula given above for the standard error assumes that the population is infinite. Nonetheless, it is often used for finite populations when people are interested in measuring the process that created the existing finite population (this is called an analytic study). Though the above formula is not exactly correct when the population is finite, the difference between the finite- and infinite-population versions will be small when sampling fraction is small (e.g. a small proportion of a finite population is studied). In this case people often do not correct for the finite population, essentially treating it as an «approximately infinite» population.
If one is interested in measuring an existing finite population that will not change over time, then it is necessary to adjust for the population size (called an enumerative study). When the sampling fraction (often termed f) is large (approximately at 5% or more) in an enumerative study, the estimate of the standard error must be corrected by multiplying by a »finite population correction» (a.k.a.: FPC):[9]
[10]
which, for large N:
to account for the added precision gained by sampling close to a larger percentage of the population. The effect of the FPC is that the error becomes zero when the sample size n is equal to the population size N.
This happens in survey methodology when sampling without replacement. If sampling with replacement, then FPC does not come into play.
Correction for correlation in the sample[edit]
Expected error in the mean of A for a sample of n data points with sample bias coefficient ρ. The unbiased standard error plots as the ρ = 0 diagonal line with log-log slope −½.
If values of the measured quantity A are not statistically independent but have been obtained from known locations in parameter space x, an unbiased estimate of the true standard error of the mean (actually a correction on the standard deviation part) may be obtained by multiplying the calculated standard error of the sample by the factor f:
where the sample bias coefficient ρ is the widely used Prais–Winsten estimate of the autocorrelation-coefficient (a quantity between −1 and +1) for all sample point pairs. This approximate formula is for moderate to large sample sizes; the reference gives the exact formulas for any sample size, and can be applied to heavily autocorrelated time series like Wall Street stock quotes. Moreover, this formula works for positive and negative ρ alike.[11] See also unbiased estimation of standard deviation for more discussion.
See also[edit]
- Illustration of the central limit theorem
- Margin of error
- Probable error
- Standard error of the weighted mean
- Sample mean and sample covariance
- Standard error of the median
- Variance
References[edit]
- ^ a b c d Altman, Douglas G; Bland, J Martin (2005-10-15). «Standard deviations and standard errors». BMJ: British Medical Journal. 331 (7521): 903. doi:10.1136/bmj.331.7521.903. ISSN 0959-8138. PMC 1255808. PMID 16223828.
- ^ Everitt, B. S. (2003). The Cambridge Dictionary of Statistics. CUP. ISBN 978-0-521-81099-9.
- ^ Gurland, J; Tripathi RC (1971). «A simple approximation for unbiased estimation of the standard deviation». American Statistician. 25 (4): 30–32. doi:10.2307/2682923. JSTOR 2682923.
- ^ Sokal; Rohlf (1981). Biometry: Principles and Practice of Statistics in Biological Research (2nd ed.). p. 53. ISBN 978-0-7167-1254-1.
- ^ Hutchinson, T. P. (1993). Essentials of Statistical Methods, in 41 pages. Adelaide: Rumsby. ISBN 978-0-646-12621-0.
- ^ Cornell, J R, and Benjamin, C A, Probability, Statistics, and Decisions for Civil Engineers, McGraw-Hill, NY, 1970, ISBN 0486796094, pp. 178–9.
- ^ Barde, M. (2012). «What to use to express the variability of data: Standard deviation or standard error of mean?». Perspect. Clin. Res. 3 (3): 113–116. doi:10.4103/2229-3485.100662. PMC 3487226. PMID 23125963.
- ^ Wassertheil-Smoller, Sylvia (1995). Biostatistics and Epidemiology : A Primer for Health Professionals (Second ed.). New York: Springer. pp. 40–43. ISBN 0-387-94388-9.
- ^ Isserlis, L. (1918). «On the value of a mean as calculated from a sample». Journal of the Royal Statistical Society. 81 (1): 75–81. doi:10.2307/2340569. JSTOR 2340569. (Equation 1)
- ^ Bondy, Warren; Zlot, William (1976). «The Standard Error of the Mean and the Difference Between Means for Finite Populations». The American Statistician. 30 (2): 96–97. doi:10.1080/00031305.1976.10479149. JSTOR 2683803. (Equation 2)
- ^ Bence, James R. (1995). «Analysis of Short Time Series: Correcting for Autocorrelation». Ecology. 76 (2): 628–639. doi:10.2307/1941218. JSTOR 1941218.
From Wikipedia, the free encyclopedia
For a value that is sampled with an unbiased normally distributed error, the above depicts the proportion of samples that would fall between 0, 1, 2, and 3 standard deviations above and below the actual value.
The standard error (SE)[1] of a statistic (usually an estimate of a parameter) is the standard deviation of its sampling distribution[2] or an estimate of that standard deviation. If the statistic is the sample mean, it is called the standard error of the mean (SEM).[1]
The sampling distribution of a mean is generated by repeated sampling from the same population and recording of the sample means obtained. This forms a distribution of different means, and this distribution has its own mean and variance. Mathematically, the variance of the sampling mean distribution obtained is equal to the variance of the population divided by the sample size. This is because as the sample size increases, sample means cluster more closely around the population mean.
Therefore, the relationship between the standard error of the mean and the standard deviation is such that, for a given sample size, the standard error of the mean equals the standard deviation divided by the square root of the sample size.[1] In other words, the standard error of the mean is a measure of the dispersion of sample means around the population mean.
In regression analysis, the term «standard error» refers either to the square root of the reduced chi-squared statistic or the standard error for a particular regression coefficient (as used in, say, confidence intervals).
Standard error of the sample mean[edit]
Exact value[edit]
Suppose a statistically independent sample of observations
is taken from a statistical population with a standard deviation of
. The mean value calculated from the sample,
, will have an associated standard error on the mean,
, given by:[1]
.
Practically this tells us that when trying to estimate the value of a population mean, due to the factor , reducing the error on the estimate by a factor of two requires acquiring four times as many observations in the sample; reducing it by a factor of ten requires a hundred times as many observations.
Estimate[edit]
The standard deviation of the population being sampled is seldom known. Therefore, the standard error of the mean is usually estimated by replacing
with the sample standard deviation
instead:
.
As this is only an estimator for the true «standard error», it is common to see other notations here such as:
or alternately
.
A common source of confusion occurs when failing to distinguish clearly between:
Accuracy of the estimator[edit]
When the sample size is small, using the standard deviation of the sample instead of the true standard deviation of the population will tend to systematically underestimate the population standard deviation, and therefore also the standard error. With n = 2, the underestimate is about 25%, but for n = 6, the underestimate is only 5%. Gurland and Tripathi (1971) provide a correction and equation for this effect.[3] Sokal and Rohlf (1981) give an equation of the correction factor for small samples of n < 20.[4] See unbiased estimation of standard deviation for further discussion.
Derivation[edit]
The standard error on the mean may be derived from the variance of a sum of independent random variables,[5] given the definition of variance and some simple properties thereof. If are
independent samples from a population with mean
and standard deviation
, then we can define the total
which due to the Bienaymé formula, will have variance
where we’ve approximated the standard deviations, i.e., the uncertainties, of the measurements themselves with the best value for the standard deviation of the population. The mean of these measurements is simply given by
.
The variance of the mean is then
The standard error is, by definition, the standard deviation of which is simply the square root of the variance:
.
For correlated random variables the sample variance needs to be computed according to the Markov chain central limit theorem.
Independent and identically distributed random variables with random sample size[edit]
There are cases when a sample is taken without knowing, in advance, how many observations will be acceptable according to some criterion. In such cases, the sample size is a random variable whose variation adds to the variation of
such that,
[6]
If has a Poisson distribution, then
with estimator
. Hence the estimator of
becomes
, leading the following formula for standard error:
(since the standard deviation is the square root of the variance)
Student approximation when σ value is unknown[edit]
In many practical applications, the true value of σ is unknown. As a result, we need to use a distribution that takes into account that spread of possible σ’s.
When the true underlying distribution is known to be Gaussian, although with unknown σ, then the resulting estimated distribution follows the Student t-distribution. The standard error is the standard deviation of the Student t-distribution. T-distributions are slightly different from Gaussian, and vary depending on the size of the sample. Small samples are somewhat more likely to underestimate the population standard deviation and have a mean that differs from the true population mean, and the Student t-distribution accounts for the probability of these events with somewhat heavier tails compared to a Gaussian. To estimate the standard error of a Student t-distribution it is sufficient to use the sample standard deviation «s» instead of σ, and we could use this value to calculate confidence intervals.
Note: The Student’s probability distribution is approximated well by the Gaussian distribution when the sample size is over 100. For such samples one can use the latter distribution, which is much simpler.
Assumptions and usage[edit]
An example of how is used is to make confidence intervals of the unknown population mean. If the sampling distribution is normally distributed, the sample mean, the standard error, and the quantiles of the normal distribution can be used to calculate confidence intervals for the true population mean. The following expressions can be used to calculate the upper and lower 95% confidence limits, where
is equal to the sample mean,
is equal to the standard error for the sample mean, and 1.96 is the approximate value of the 97.5 percentile point of the normal distribution:
- Upper 95% limit
and
- Lower 95% limit
In particular, the standard error of a sample statistic (such as sample mean) is the actual or estimated standard deviation of the sample mean in the process by which it was generated. In other words, it is the actual or estimated standard deviation of the sampling distribution of the sample statistic. The notation for standard error can be any one of SE, SEM (for standard error of measurement or mean), or SE.
Standard errors provide simple measures of uncertainty in a value and are often used because:
- in many cases, if the standard error of several individual quantities is known then the standard error of some function of the quantities can be easily calculated;
- when the probability distribution of the value is known, it can be used to calculate an exact confidence interval;
- when the probability distribution is unknown, Chebyshev’s or the Vysochanskiï–Petunin inequalities can be used to calculate a conservative confidence interval; and
- as the sample size tends to infinity the central limit theorem guarantees that the sampling distribution of the mean is asymptotically normal.
Standard error of mean versus standard deviation[edit]
In scientific and technical literature, experimental data are often summarized either using the mean and standard deviation of the sample data or the mean with the standard error. This often leads to confusion about their interchangeability. However, the mean and standard deviation are descriptive statistics, whereas the standard error of the mean is descriptive of the random sampling process. The standard deviation of the sample data is a description of the variation in measurements, while the standard error of the mean is a probabilistic statement about how the sample size will provide a better bound on estimates of the population mean, in light of the central limit theorem.[7]
Put simply, the standard error of the sample mean is an estimate of how far the sample mean is likely to be from the population mean, whereas the standard deviation of the sample is the degree to which individuals within the sample differ from the sample mean.[8] If the population standard deviation is finite, the standard error of the mean of the sample will tend to zero with increasing sample size, because the estimate of the population mean will improve, while the standard deviation of the sample will tend to approximate the population standard deviation as the sample size increases.
Extensions[edit]
Finite population correction (FPC)[edit]
The formula given above for the standard error assumes that the population is infinite. Nonetheless, it is often used for finite populations when people are interested in measuring the process that created the existing finite population (this is called an analytic study). Though the above formula is not exactly correct when the population is finite, the difference between the finite- and infinite-population versions will be small when sampling fraction is small (e.g. a small proportion of a finite population is studied). In this case people often do not correct for the finite population, essentially treating it as an «approximately infinite» population.
If one is interested in measuring an existing finite population that will not change over time, then it is necessary to adjust for the population size (called an enumerative study). When the sampling fraction (often termed f) is large (approximately at 5% or more) in an enumerative study, the estimate of the standard error must be corrected by multiplying by a »finite population correction» (a.k.a.: FPC):[9]
[10]
which, for large N:
to account for the added precision gained by sampling close to a larger percentage of the population. The effect of the FPC is that the error becomes zero when the sample size n is equal to the population size N.
This happens in survey methodology when sampling without replacement. If sampling with replacement, then FPC does not come into play.
Correction for correlation in the sample[edit]
Expected error in the mean of A for a sample of n data points with sample bias coefficient ρ. The unbiased standard error plots as the ρ = 0 diagonal line with log-log slope −½.
If values of the measured quantity A are not statistically independent but have been obtained from known locations in parameter space x, an unbiased estimate of the true standard error of the mean (actually a correction on the standard deviation part) may be obtained by multiplying the calculated standard error of the sample by the factor f:
where the sample bias coefficient ρ is the widely used Prais–Winsten estimate of the autocorrelation-coefficient (a quantity between −1 and +1) for all sample point pairs. This approximate formula is for moderate to large sample sizes; the reference gives the exact formulas for any sample size, and can be applied to heavily autocorrelated time series like Wall Street stock quotes. Moreover, this formula works for positive and negative ρ alike.[11] See also unbiased estimation of standard deviation for more discussion.
See also[edit]
- Illustration of the central limit theorem
- Margin of error
- Probable error
- Standard error of the weighted mean
- Sample mean and sample covariance
- Standard error of the median
- Variance
References[edit]
- ^ a b c d Altman, Douglas G; Bland, J Martin (2005-10-15). «Standard deviations and standard errors». BMJ: British Medical Journal. 331 (7521): 903. doi:10.1136/bmj.331.7521.903. ISSN 0959-8138. PMC 1255808. PMID 16223828.
- ^ Everitt, B. S. (2003). The Cambridge Dictionary of Statistics. CUP. ISBN 978-0-521-81099-9.
- ^ Gurland, J; Tripathi RC (1971). «A simple approximation for unbiased estimation of the standard deviation». American Statistician. 25 (4): 30–32. doi:10.2307/2682923. JSTOR 2682923.
- ^ Sokal; Rohlf (1981). Biometry: Principles and Practice of Statistics in Biological Research (2nd ed.). p. 53. ISBN 978-0-7167-1254-1.
- ^ Hutchinson, T. P. (1993). Essentials of Statistical Methods, in 41 pages. Adelaide: Rumsby. ISBN 978-0-646-12621-0.
- ^ Cornell, J R, and Benjamin, C A, Probability, Statistics, and Decisions for Civil Engineers, McGraw-Hill, NY, 1970, ISBN 0486796094, pp. 178–9.
- ^ Barde, M. (2012). «What to use to express the variability of data: Standard deviation or standard error of mean?». Perspect. Clin. Res. 3 (3): 113–116. doi:10.4103/2229-3485.100662. PMC 3487226. PMID 23125963.
- ^ Wassertheil-Smoller, Sylvia (1995). Biostatistics and Epidemiology : A Primer for Health Professionals (Second ed.). New York: Springer. pp. 40–43. ISBN 0-387-94388-9.
- ^ Isserlis, L. (1918). «On the value of a mean as calculated from a sample». Journal of the Royal Statistical Society. 81 (1): 75–81. doi:10.2307/2340569. JSTOR 2340569. (Equation 1)
- ^ Bondy, Warren; Zlot, William (1976). «The Standard Error of the Mean and the Difference Between Means for Finite Populations». The American Statistician. 30 (2): 96–97. doi:10.1080/00031305.1976.10479149. JSTOR 2683803. (Equation 2)
- ^ Bence, James R. (1995). «Analysis of Short Time Series: Correcting for Autocorrelation». Ecology. 76 (2): 628–639. doi:10.2307/1941218. JSTOR 1941218.
- 2019

Стандартное отклонение определяется как абсолютная мера дисперсии ряда. Это разъясняет стандартное количество вариаций по обе стороны от среднего. Это часто неправильно истолковывается со стандартной ошибкой, поскольку основано на стандартном отклонении и размере выборки.
Стандартная ошибка используется для измерения статистической точности оценки. Он в основном используется в процессе проверки гипотезы и оценки интервала.
Это две важные концепции статистики, которые широко используются в области исследований. Разница между стандартным отклонением и стандартной ошибкой основана на разнице между описанием данных и их выводом.
Сравнительная таблица
| Основа для сравнения | Стандартное отклонение | Стандартная ошибка |
|---|---|---|
| Имея в виду | Стандартное отклонение подразумевает меру дисперсии набора значений от их среднего значения. | Стандартная ошибка обозначает меру статистической точности оценки. |
| статистика | описательный | выведенный |
| меры | Насколько наблюдения отличаются друг от друга. | Насколько точная выборка означает истинную совокупность. |
| распределение | Распределение наблюдений относительно нормальной кривой. | Распределение оценки относительно нормальной кривой. |
| формула | Квадратный корень дисперсии | Стандартное отклонение, деленное на квадратный корень размера выборки. |
| Увеличение размера выборки | Дает более конкретную меру стандартного отклонения. | Уменьшает стандартную ошибку. |
Определение стандартного отклонения
Стандартное отклонение — это мера распространения ряда или расстояния от стандарта. В 1893 году Карл Пирсон ввел понятие стандартного отклонения, которое, несомненно, является наиболее используемой мерой в научных исследованиях.
Это квадратный корень из среднего квадрата отклонений от их среднего значения. Другими словами, для данного набора данных стандартное отклонение представляет собой среднеквадратичное отклонение от среднего арифметического. Для всего населения это обозначено греческой буквой «sigma (σ)», а для выборки — латинской буквой «s».
Стандартное отклонение — это мера, которая количественно определяет степень разброса набора наблюдений. Чем дальше точки данных от среднего значения, тем больше отклонение в наборе данных, представляющее, что точки данных разбросаны по более широкому диапазону значений и наоборот.
Определение стандартной ошибки
Возможно, вы заметили, что разные выборки с одинаковым размером, взятые из одной и той же популяции, дают разные значения рассматриваемой статистики, то есть среднее значение выборки. Стандартная ошибка (SE) обеспечивает стандартное отклонение в различных значениях выборки. Он используется для сравнения выборочных средних по популяциям.
Короче говоря, стандартная ошибка статистики — это не что иное, как стандартное отклонение распределения выборки. Он играет большую роль в проверке статистической гипотезы и оценки интервалов. Это дает представление о точности и достоверности оценки. Чем меньше стандартная ошибка, тем больше равномерность теоретического распределения и наоборот.
- Формула : стандартная ошибка для выборочного среднего = σ / √n
Где σ — стандартное отклонение населения
Ключевые различия между стандартным отклонением и стандартной ошибкой
Пункты, изложенные ниже, являются существенными, если учитывать разницу между стандартным отклонением:
- Стандартное отклонение — это мера, которая оценивает количество вариаций в наборе наблюдений. Стандартная ошибка измеряет точность оценки, т. Е. Является мерой изменчивости теоретического распределения статистики.
- Стандартное отклонение является описательной статистикой, тогда как стандартная ошибка является логической статистикой.
- Стандартное отклонение показывает, насколько далеко отдельные значения от среднего значения. Наоборот, насколько близко среднее значение выборки к среднему значению популяции.
- Стандартное отклонение — это распределение наблюдений со ссылкой на нормальную кривую. В отличие от этого, стандартной ошибкой является распределение оценки со ссылкой на нормальную кривую.
- Стандартное отклонение определяется как квадратный корень из дисперсии. И наоборот, стандартная ошибка описывается как стандартное отклонение, деленное на квадратный корень размера выборки.
- Когда размер выборки увеличивается, это обеспечивает более конкретную меру стандартного отклонения. В отличие от стандартной ошибки, когда размер выборки увеличивается, стандартная ошибка имеет тенденцию уменьшаться.
Заключение
В общем, стандартное отклонение считается одной из лучших мер дисперсии, которая измеряет дисперсию значений от центрального значения. С другой стороны, стандартная ошибка в основном используется для проверки достоверности и точности оценки, и поэтому, чем меньше ошибка, тем выше ее надежность и точность.
Download Article
Download Article
After collecting data, oftentimes the first thing you need to do is analyze it. This usually entails finding the mean, the standard deviation, and the standard error of the data. This article will show you how it’s done.
Cheat Sheets
-
1
Obtain a set of numbers you wish to analyze. This information is referred to as a sample.
- For example, a test was given to a class of 5 students, and the test results are 12, 55, 74, 79 and 90.
Advertisement
-
1
Calculate the mean. Add up all the numbers and divide by the population size:[1]
- Mean (μ) = ΣX/N, where Σ is the summation (addition) sign, xi is each individual number, and N is the population size.
- In the case above, the mean μ is simply (12+55+74+79+90)/5 = 62.
-
1
Calculate the standard deviation. This represents the spread of the population.
Standard deviation = σ = sq rt [(Σ((X-μ)^2))/(N)].[2]
- For the example given, the standard deviation is sqrt[((12-62)^2 + (55-62)^2 + (74-62)^2 + (79-62)^2 + (90-62)^2)/(5)] = 27.4. (Note that if this was the sample standard deviation, you would divide by n-1, the sample size minus 1.)
Advertisement
-
1
Calculate the standard error (of the mean). This represents how well the sample mean approximates the population mean. The larger the sample, the smaller the standard error, and the closer the sample mean approximates the population mean. Do this by dividing the standard deviation by the square root of N, the sample size.[3]
Standard error = σ/sqrt(n)[4]
- So for the example above, if this were a sampling of 5 students from a class of 50 and the 50 students had a standard deviation of 17 (σ = 21), the standard error = 17/sqrt(5) = 7.6.
Add New Question
-
Question
How do you find the mean given number of observations?
To find the mean, add all the numbers together and divide by how many numbers there are. e.g to find the mean of 1,7,8,4,2: 1+7+8+4+2 = 22/5 = 4.4.
-
Question
The standard error is calculated as 0.2 and the standard deviation of a sample is 5kg. Can it be said to be smaller or larger than the standard deviation?
The standard error (SE) must be smaller than the standard deviation (SD), because the SE is calculating by dividing the SD by something — i.e. making it smaller.
-
Question
How can I find out the standard deviation of 50 samples?
The results of all your figures (number plus number plus number etc.) divided by quantity of samples 50 =SD.
See more answers
Ask a Question
200 characters left
Include your email address to get a message when this question is answered.
Submit
Advertisement
Video
-
Calculations of the mean, standard deviation, and standard error are most useful for analysis of normally distributed data. One standard deviation about the central tendency covers approximately 68 percent of the data, 2 standard deviation 95 percent of the data, and 3 standard deviation 99.7 percent of the data. The standard error gets smaller (narrower spread) as the sample size increases.
Thanks for submitting a tip for review!
Advertisement
-
Check your math carefully. It is very easy to make mistakes or enter numbers incorrectly.
Advertisement
References
About This Article
Article SummaryX
The mean is simply the average of a set of numbers. You can work it out by adding up all the numbers and dividing the total by the amount of numbers. For example, if you wanted to find the average test score of 3 students who scored 74, 79, and 90, you’d add the 3 numbers together to get 243, then divide it by 3 to get 81. The standard error represents how well the sample mean approximates the population mean. All you need to do is divide the standard deviation by the square root of the sample size. For instance, if you were sampling 5 students from a class of 50 and the 50 students had a standard deviation of 17, you’d divide 17 by the square root of 5 to get 7.6. For more tips, including how to calculate the standard deviation, read on!
Did this summary help you?
Thanks to all authors for creating a page that has been read 996,353 times.
Did this article help you?
Download Article
Download Article
After collecting data, oftentimes the first thing you need to do is analyze it. This usually entails finding the mean, the standard deviation, and the standard error of the data. This article will show you how it’s done.
Cheat Sheets
-
1
Obtain a set of numbers you wish to analyze. This information is referred to as a sample.
- For example, a test was given to a class of 5 students, and the test results are 12, 55, 74, 79 and 90.
Advertisement
-
1
Calculate the mean. Add up all the numbers and divide by the population size:[1]
- Mean (μ) = ΣX/N, where Σ is the summation (addition) sign, xi is each individual number, and N is the population size.
- In the case above, the mean μ is simply (12+55+74+79+90)/5 = 62.
-
1
Calculate the standard deviation. This represents the spread of the population.
Standard deviation = σ = sq rt [(Σ((X-μ)^2))/(N)].[2]
- For the example given, the standard deviation is sqrt[((12-62)^2 + (55-62)^2 + (74-62)^2 + (79-62)^2 + (90-62)^2)/(5)] = 27.4. (Note that if this was the sample standard deviation, you would divide by n-1, the sample size minus 1.)
Advertisement
-
1
Calculate the standard error (of the mean). This represents how well the sample mean approximates the population mean. The larger the sample, the smaller the standard error, and the closer the sample mean approximates the population mean. Do this by dividing the standard deviation by the square root of N, the sample size.[3]
Standard error = σ/sqrt(n)[4]
- So for the example above, if this were a sampling of 5 students from a class of 50 and the 50 students had a standard deviation of 17 (σ = 21), the standard error = 17/sqrt(5) = 7.6.
Add New Question
-
Question
How do you find the mean given number of observations?
To find the mean, add all the numbers together and divide by how many numbers there are. e.g to find the mean of 1,7,8,4,2: 1+7+8+4+2 = 22/5 = 4.4.
-
Question
The standard error is calculated as 0.2 and the standard deviation of a sample is 5kg. Can it be said to be smaller or larger than the standard deviation?
The standard error (SE) must be smaller than the standard deviation (SD), because the SE is calculating by dividing the SD by something — i.e. making it smaller.
-
Question
How can I find out the standard deviation of 50 samples?
The results of all your figures (number plus number plus number etc.) divided by quantity of samples 50 =SD.
See more answers
Ask a Question
200 characters left
Include your email address to get a message when this question is answered.
Submit
Advertisement
Video
-
Calculations of the mean, standard deviation, and standard error are most useful for analysis of normally distributed data. One standard deviation about the central tendency covers approximately 68 percent of the data, 2 standard deviation 95 percent of the data, and 3 standard deviation 99.7 percent of the data. The standard error gets smaller (narrower spread) as the sample size increases.
Thanks for submitting a tip for review!
Advertisement
-
Check your math carefully. It is very easy to make mistakes or enter numbers incorrectly.
Advertisement
References
About This Article
Article SummaryX
The mean is simply the average of a set of numbers. You can work it out by adding up all the numbers and dividing the total by the amount of numbers. For example, if you wanted to find the average test score of 3 students who scored 74, 79, and 90, you’d add the 3 numbers together to get 243, then divide it by 3 to get 81. The standard error represents how well the sample mean approximates the population mean. All you need to do is divide the standard deviation by the square root of the sample size. For instance, if you were sampling 5 students from a class of 50 and the 50 students had a standard deviation of 17, you’d divide 17 by the square root of 5 to get 7.6. For more tips, including how to calculate the standard deviation, read on!
Did this summary help you?
Thanks to all authors for creating a page that has been read 996,353 times.
Did this article help you?
Для значения, которое выбрано с несмещенной нормально распределенной ошибкой, приведенное выше показывает долю выборок, которые попадут на 0, 1, 2 и 3 стандартных отклонения выше и ниже фактического значения.
Стандартная ошибка ( SE ) [1] статистического показателя ( обычно оценка параметра ) — это стандартное отклонение его выборочного распределения [2] или оценка этого стандартного отклонения. Если статистика является выборочным средним, она называется стандартной ошибкой среднего ( SEM ). [1]
Выборочное распределение среднего создается путем повторной выборки из одной и той же совокупности и регистрации полученных выборочных средних. Это формирует распределение различных средних значений, и это распределение имеет свое собственное среднее значение и дисперсию . Математически дисперсия полученного выборочного распределения равна дисперсии генеральной совокупности, деленной на размер выборки. Это связано с тем, что по мере увеличения размера выборки средние значения выборки теснее группируются вокруг среднего значения генеральной совокупности.
Таким образом, соотношение между стандартной ошибкой среднего и стандартным отклонением таково, что для данного размера выборки стандартная ошибка среднего равна стандартному отклонению, деленному на квадратный корень из размера выборки. [1] Другими словами, стандартная ошибка среднего является мерой дисперсии выборочных средних значений относительно среднего значения генеральной совокупности.
В регрессионном анализе термин «стандартная ошибка» относится либо к квадратному корню из приведенной статистики хи-квадрат , либо к стандартной ошибке для конкретного коэффициента регрессии (как используется, скажем, в доверительных интервалах ).
Стандартная ошибка среднего
Точное значение
Если статистически независимая выборканаблюденияберется из статистической совокупности со стандартным отклонением, то среднее значение, рассчитанное по выборкебудет иметь соответствующую стандартную ошибку в среднем дано: [1]
- .
Практически это говорит нам о том, что при попытке оценить значение среднего значения совокупности из-за фактора, уменьшение ошибки оценки в два раза требует получения в четыре раза большего количества наблюдений в выборке; уменьшение его в десять раз требует в сто раз больше наблюдений.
Оценить
Стандартное отклонениео выборке населения редко известно. Поэтому стандартная ошибка среднего обычно оценивается путем заменысо стандартным отклонением выборки вместо:
- .
Поскольку это только оценка истинной «стандартной ошибки», здесь часто встречаются другие обозначения, такие как:
- или попеременно .
Обычный источник путаницы возникает, когда не удается четко разграничить стандартное отклонение совокупности (), стандартное отклонение выборки (), стандартное отклонение самого среднего (, что является стандартной ошибкой), и оценка стандартного отклонения среднего (, которая является наиболее часто вычисляемой величиной, а также часто в просторечии называется стандартной ошибкой ).
Точность оценки
Когда размер выборки мал, использование стандартного отклонения выборки вместо истинного стандартного отклонения генеральной совокупности приведет к систематической недооценке стандартного отклонения генеральной совокупности и, следовательно, стандартной ошибки. При n = 2 недооценка составляет около 25%, а при n = 6 недооценка составляет всего 5%. Гурланд и Трипати (1971) предлагают поправку и уравнение для этого эффекта. [3] Sokal and Rohlf (1981) дают уравнение поправочного коэффициента для небольших выборок n < 20. [4] Для дальнейшего обсуждения
см . объективную оценку стандартного отклонения .
Происхождение
Стандартная ошибка среднего может быть получена из дисперсии суммы независимых случайных величин [5] с учетом определения дисперсии и некоторых ее простых свойств . Еслиявляютсянезависимые наблюдения за популяцией со средними стандартное отклонение, то мы можем определить общее
который в силу формулы Бьенеме будет иметь дисперсию
Среднее значение этих измеренийпросто дается
- .
Тогда дисперсия среднего
Стандартная ошибка – это, по определению, стандартное отклонениекоторый представляет собой просто квадратный корень из дисперсии:
- .
Для коррелированных случайных величин выборочная дисперсия должна быть рассчитана в соответствии с центральной предельной теоремой цепи Маркова .
Независимые и одинаково распределенные случайные величины со случайным размером выборки
Бывают случаи, когда выборку берут, не зная заранее, сколько наблюдений будет приемлемо по тому или иному критерию. В таких случаях размер выборкиявляется случайной величиной, вариация которой добавляется к вариациитакой, что
- [6]
Еслиимеет распределение Пуассона , тос оценщиком. Следовательно, оценкастановится, приводя следующую формулу для стандартной ошибки:
(поскольку стандартное отклонение представляет собой квадратный корень из дисперсии)
Аппроксимация Стьюдента, когда значение σ неизвестно
Во многих практических приложениях истинное значение σ неизвестно. В результате нам нужно использовать распределение, учитывающее этот разброс возможных σ’с. Когда известно, что истинное базовое распределение является гауссовым, хотя и с неизвестным σ, то результирующее оценочное распределение соответствует t-распределению Стьюдента. Стандартная ошибка представляет собой стандартное отклонение t-распределения Стьюдента. T-распределения немного отличаются от гауссовых и меняются в зависимости от размера выборки. Небольшие выборки с несколько большей вероятностью недооценивают стандартное отклонение совокупности и имеют среднее значение, которое отличается от истинного среднего значения совокупности, а t-распределение Стьюдента объясняет вероятность этих событий с несколько более тяжелыми хвостами по сравнению с гауссовским. Для оценки стандартной ошибки t-распределения Стьюдента достаточно использовать выборочное стандартное отклонение «s» вместо σ , и мы могли бы использовать это значение для расчета доверительных интервалов.
Примечание. Распределение вероятностей Стьюдента хорошо аппроксимируется распределением Гаусса, когда размер выборки превышает 100. Для таких выборок можно использовать последнее распределение, которое намного проще.
Предположения и использование
Пример того, какиспользуется для того, чтобы сделать доверительные интервалы неизвестной генеральной совокупности средними. Если распределение выборки имеет нормальное распределение , то выборочное среднее, стандартная ошибка и квантили нормального распределения могут использоваться для расчета доверительных интервалов для истинного среднего значения генеральной совокупности. Следующие выражения можно использовать для расчета верхнего и нижнего 95%-го доверительного интервала, гдеравно выборочному среднему,равно стандартной ошибке выборочного среднего, а 1,96 — это приблизительное значение точки 97,5 процентиля нормального распределения :
- Верхний предел 95%а также
- Нижний предел 95%
В частности, стандартная ошибка выборочной статистики (такой как выборочное среднее ) — это фактическое или оценочное стандартное отклонение выборочного среднего в процессе, с помощью которого оно было получено. Другими словами, это фактическое или оценочное стандартное отклонение выборочного распределения выборочной статистики. Обозначение стандартной ошибки может быть любым из SE, SEM (стандартная ошибка измерения или среднего значения ) или SE .
Стандартные ошибки обеспечивают простые меры неопределенности значения и часто используются, потому что:
- во многих случаях, если известна стандартная ошибка нескольких отдельных величин, то можно легко вычислить стандартную ошибку некоторой функции этих величин;
- когда известно распределение вероятностей значения, его можно использовать для расчета точного доверительного интервала ;
- когда распределение вероятностей неизвестно, для расчета консервативного доверительного интервала можно использовать неравенства Чебышева или Высочанского–Петунина ; а также
- поскольку размер выборки стремится к бесконечности, центральная предельная теорема гарантирует, что выборочное распределение среднего является асимптотически нормальным .
Стандартная ошибка среднего по сравнению со стандартным отклонением
В научно-технической литературе экспериментальные данные часто обобщаются либо с использованием среднего значения и стандартного отклонения выборочных данных, либо среднего значения со стандартной ошибкой. Это часто приводит к путанице в отношении их взаимозаменяемости. Однако среднее значение и стандартное отклонение являются описательной статистикой , тогда как стандартная ошибка среднего значения описывает процесс случайной выборки. Стандартное отклонение выборочных данных — это описание вариаций в измерениях, а стандартная ошибка среднего — вероятностное утверждение о том, как размер выборки обеспечит лучшую оценку среднего значения генеральной совокупности в свете центрального предела. теорема. [7]
Проще говоря, стандартная ошибка среднего значения выборки — это оценка того, насколько вероятно среднее значение выборки будет отличаться от среднего значения генеральной совокупности, тогда как стандартное отклонение выборки — это степень, в которой отдельные лица в выборке отличаются от среднего значения выборки. [8] Если стандартное отклонение совокупности конечно, стандартная ошибка среднего значения выборки будет стремиться к нулю с увеличением размера выборки, потому что оценка среднего значения совокупности будет улучшаться, в то время как стандартное отклонение выборки будет приближаться к стандартное отклонение генеральной совокупности по мере увеличения размера выборки.
Расширения
Коррекция конечной популяции (FPC)
Приведенная выше формула для стандартной ошибки предполагает, что размер выборки намного меньше, чем размер совокупности, так что совокупность можно считать фактически бесконечной по размеру. Обычно это происходит даже с конечными популяциями, потому что большую часть времени люди в первую очередь заинтересованы в управлении процессами, которые создали существующую конечную популяцию; это называется аналитическим исследованием вслед за У. Эдвардсом Демингом . Если люди заинтересованы в управлении существующей конечной популяцией, которая не изменится с течением времени, необходимо сделать поправку на размер популяции; это называется перечислительным исследованием .
Когда доля выборки (часто называемая f ) велика (приблизительно 5% или более) в перечислительном исследовании , оценка стандартной ошибки должна быть скорректирована путем умножения на «поправку на конечную совокупность» (она же: fpc ): [9]
[10]
что для больших N :
для учета дополнительной точности, полученной за счет выборки, близкой к большему проценту населения. Эффект FPC заключается в том, что ошибка становится равной нулю ,
когда размер выборки n равен размеру совокупности N.
Это происходит в методологии обследования при выборке без возмещения . Если выборка с заменой, то ФПК не играет роли.
Поправка на корреляцию в выборке
Ожидаемая ошибка среднего значения A для выборки из n точек данных с коэффициентом смещения выборки ρ . График несмещенной стандартной ошибки представляет собой диагональную линию ρ = 0 с логарифмическим наклоном −½.
Если значения измеренной величины A не являются статистически независимыми, а были получены из известных местоположений в пространстве параметров x , несмещенная оценка истинной стандартной ошибки среднего (фактически поправка на часть стандартного отклонения) может быть получена путем умножения рассчитанная стандартная ошибка выборки по фактору f :
где коэффициент смещения выборки ρ — это широко используемая оценка Прайса – Винстена коэффициента автокорреляции (величина от -1 до +1) для всех пар точек выборки. Эта приблизительная формула предназначена для средних и больших размеров выборки; ссылка дает точные формулы для любого размера выборки и может применяться к сильно автокоррелированным временным рядам, таким как котировки акций Уолл-стрит. Более того, эта формула работает как для положительных, так и для отрицательных ρ. [11] См. также несмещенную оценку стандартного отклонения для дальнейшего обсуждения.
Смотрите также
- Иллюстрация центральной предельной теоремы
- Погрешность
- Вероятная ошибка
- Стандартная ошибка взвешенного среднего
- Выборочное среднее и выборочная ковариация
- Стандартная ошибка медианы
- Дисперсия
Ссылки
- ^ a b c d Альтман, Дуглас Г.; Бланд, Дж. Мартин (15 октября 2005 г.). «Стандартные отклонения и стандартные ошибки» . BMJ: Британский медицинский журнал . 331 (7521): 903. doi : 10.1136/bmj.331.7521.903 . ISSN 0959-8138 . ПВК 1255808 . PMID 16223828 .
- ^ Эверитт, BS (2003). Кембриджский статистический словарь . КРУЖКА. ISBN 978-0-521-81099-9.
- ^ Гурланд, Дж.; Трипати RC (1971). «Простое приближение для объективной оценки стандартного отклонения». Американский статистик . 25 (4): 30–32. дои : 10.2307/2682923 . JSTOR 2682923 .
- ^ Сокаль; Рольф (1981). Биометрия: принципы и практика статистики в биологических исследованиях (2-е изд.). п. 53 . ISBN 978-0-7167-1254-1.
- ^ Хатчинсон, Т.П. (1993). Основы статистических методов, на 41 странице . Аделаида: Рамсби. ISBN 978-0-646-12621-0.
- ^ Корнелл, Дж. Р., и Бенджамин, Калифорния, Вероятность, статистика и решения для инженеров-строителей, Макгроу-Хилл, Нью-Йорк, 1970, ISBN 0486796094 , стр. 178–9.
- ^ Барде, М. (2012). «Что использовать для выражения изменчивости данных: стандартное отклонение или стандартная ошибка среднего?» . Перспектива. клин. Рез. 3 (3): 113–116. doi : 10.4103/2229-3485.100662 . ПВК 3487226 . PMID 23125963 .
- ^ Вассертейл-Смоллер, Сильвия (1995). Биостатистика и эпидемиология: учебник для медицинских работников (второе изд.). Нью-Йорк: Спрингер. стр. 40–43. ISBN 0-387-94388-9.
- ^ Иссерлис, Л. (1918). «О значении среднего, рассчитанного по выборке» . Журнал Королевского статистического общества . 81 (1): 75–81. дои : 10.2307/2340569 . JSTOR 2340569 . (Уравнение 1)
- ^ Бонди, Уоррен; Злот, Уильям (1976). «Стандартная ошибка среднего и разница между средними для конечных популяций». Американский статистик . 30 (2): 96–97. дои : 10.1080/00031305.1976.10479149 . JSTOR 2683803 . (Уравнение 2)
- ^ Бенс, Джеймс Р. (1995). «Анализ коротких временных рядов: поправка на автокорреляцию» . Экология . 76 (2): 628–639. дои : 10.2307/1941218 . JSTOR 1941218 .

