Имея
прямую регрессии, необходимо оценить
насколько сильно точки исходных данных
отклоняются от прямой регрессии. Можно
выполнить оценку разброса, аналогичную
стандартному отклонению выборки. Этот
показатель, называемый стандартной
ошибкой оценки, демонстрирует величину
отклонения точек исходных данных от
прямой регрессии в направлении оси Y.
Стандартная ошибка оценки ()
вычисляется по следующей формуле.
Стандартная
ошибка оценки измеряет степень отличия
реальных значений Y от оцененной величины.
Для сравнительно больших выборок следует
ожидать, что около 67% разностей по модулю
не будет превышать
и около 95% модулей разностей будет не
больше 2.
Стандартная
ошибка оценки подобна стандартному
отклонению. Ее можно использовать для
оценки стандартного отклонения
совокупности. Фактически
оценивает стандартное отклонение
слагаемого ошибки
в статистической модели простой линейной
регрессии. Другими словами,
оценивает общее стандартное отклонение
нормального распределения значений Y,
имеющих математические ожидания
для каждого X.
Малая
стандартная ошибка оценки, полученная
при регрессионном анализе, свидетельствует,
что все точки данных находятся очень
близко к прямой регрессии. Если стандартная
ошибка оценки велика, точки данных могут
значительно удаляться от прямой.
2.3 Прогнозирование величины y
Регрессионную
прямую можно использовать для оценки
величины переменной Y
при данных значениях переменной X. Чтобы
получить точечный прогноз, или предсказание
для данного значения X, просто вычисляется
значение найденной функции регрессии
в точке X.
Конечно
реальные значения величины Y,
соответствующие рассматриваемым
значениям величины X, к сожалению, не
лежат в точности на регрессионной
прямой. Фактически они разбросаны
относительно прямой в соответствии с
величиной
.
Более того, выборочная регрессионная
прямая является оценкой регрессионной
прямой генеральной совокупности,
основанной на выборке из определенных
пар данных. Другая случайная выборка
даст иную выборочную прямую регрессии;
это аналогично ситуации, когда различные
выборки из одной и той же генеральной
совокупности дают различные значения
выборочного среднего.
Есть
два источника неопределенности в
точечном прогнозе, использующем уравнение
регрессии.
-
Неопределенность,
обусловленная отклонением точек данных
от выборочной прямой регрессии. -
Неопределенность,
обусловленная отклонением выборочной
прямой регрессии от регрессионной
прямой генеральной совокупности.
Интервальный
прогноз значений переменной Y
можно построить так, что при этом будут
учтены оба источника неопределенности.
Стандартная
ошибка прогноза
дает меру вариативности предсказанного
значения Y
около истинной величины Y
для данного значения X.
Стандартная ошибка прогноза равна:
Стандартная
ошибка прогноза зависит от значения X,
для которого прогнозируется величина
Y.
минимально, когда
,
поскольку тогда числитель в третьем
слагаемом под корнем в уравнении будет
0. При прочих неизменных величинах
большему отличию соответствует большее
значение стандартной ошибки прогноза.
Если
статистическая модель простой линейной
регрессии соответствует действительности,
границы интервала прогноза величины Y
равны:
где
— квантиль распределения Стьюдента с
n-2 степенями свободы ().
Если выборка велика (),
этот квантиль можно заменить соответствующим
квантилем нормального распределения.
Например, для большой выборки 95%-ный
интервал прогноза задается следующими
значениями:
Завершим
раздел обзором предположений, положенных
в основу статистической модели линейной
регрессии.
-
Для
заданного значения X генеральная
совокупность значений Y имеет нормальное
распределение относительно регрессионной
прямой совокупности. На практике
приемлемые результаты получаются
и
тогда, когда значения Y имеют
нормальное распределение лишь
приблизительно. -
Разброс
генеральной совокупности точек данных
относительно регрессионной прямой
совокупности остается постоянным всюду
вдоль этой прямой. Иными словами, при
возрастании значений X в точках данных
дисперсия генеральной совокупности
не увеличивается и не уменьшается.
Нарушение этого предположения называется
гетероскедастичностью. -
Слагаемые
ошибок
независимы между собой. Это предположение
определяет случайность выборки точек
Х-Y.
Если точки данных X-Y
записывались в течение некоторого
времени, данное предположение часто
нарушается. Вместо независимых данных,
такие последовательные наблюдения
будут давать серийно коррелированные
значения. -
В
генеральной совокупности существует
линейная зависимость между X и Y.
По аналогии с простой линейной регрессией
может рассматриваться и нелинейная
зависимость между X и У. Некоторые такие
случаи будут обсуждаться ниже.
Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]
- #
- #
- #
- #
- #
- #
- #
- #
- #
- #
- #
Ошибка прогнозирования: виды, формулы, примеры
Ошибка прогнозирования — это такая величина, которая показывает, как сильно прогнозное значение отклонилось от фактического. Она используется для расчета точности прогнозирования, что в свою очередь помогает нам оценивать как точно и корректно мы сформировали прогноз. В данной статье я расскажу про основные процентные «ошибки прогнозирования» с кратким описанием и формулой для расчета. А в конце статьи я приведу общий пример расчётов в Excel. Напомню, что в своих расчетах я в основном использую ошибку WAPE или MAD-Mean Ratio, о которой подробно я рассказал в статье про точность прогнозирования, здесь она также будет упомянута.
В каждой формуле буквой Ф обозначено фактическое значение, а буквой П — прогнозное. Каждая ошибка прогнозирования (кроме последней!), может использоваться для нахождения общей точности прогнозирования некоторого списка позиций, по типу того, что изображен ниже (либо для любого другого подобной детализации):
Алгоритм для нахождения любой из ошибок прогнозирования для такого списка примерно одинаковый: сначала находим ошибку прогнозирования по одной позиции, а затем рассчитываем общую. Итак, основные ошибки прогнозирования!
MPE — Mean Percent Error
MPE — средняя процентная ошибка прогнозирования. Основная проблема данной ошибки заключается в том, что в нестабильном числовом ряду с большими выбросами любое незначительное колебание факта или прогноза может значительно поменять показатель ошибки и, как следствие, точности прогнозирования. Помимо этого, ошибка является несимметричной: одинаковые отклонения в плюс и в минус по-разному влияют на показатель ошибки.
- Для каждой позиции рассчитывается ошибка прогноза (из факта вычитается прогноз) — Error
- Для каждой позиции рассчитывается процентная ошибка прогноза (ошибка прогноза делится на фактический показатель) — Percent Error
- Находится среднее арифметическое всех процентных ошибок прогноза (процентные ошибки суммируются и делятся на количество) — Mean Percent Error
MAPE — Mean Absolute Percent Error
MAPE — средняя абсолютная процентная ошибка прогнозирования. Основная проблема данной ошибки такая же, как и у MPE — нестабильность.
- Для каждой позиции рассчитывается абсолютная ошибка прогноза (прогноз вычитается из факта по модулю) — Absolute Error
- Для каждой позиции рассчитывается абсолютная процентная ошибка прогноза (абсолютная ошибка прогноза делится на фактический показатель) — Absolute Percent Error
- Находится среднее арифметическое всех абсолютных процентных ошибок прогноза (абсолютные процентные ошибки суммируются и делятся на количество) — Mean Absolute Percent Error
Вместо среднего арифметического всех абсолютных процентных ошибок прогноза можно использовать медиану числового ряда (MdAPE — Median Absolute Percent Error), она наиболее устойчива к выбросам.
WMAPE / MAD-Mean Ratio / WAPE — Weighted Absolute Percent Error
WAPE — взвешенная абсолютная процентная ошибка прогнозирования. Одна из «лучших ошибок» для расчета точности прогнозирования. Часто называется как MAD-Mean Ratio, то есть отношение MAD (Mean Absolute Deviation — среднее абсолютное отклонение/ошибка) к Mean (среднее арифметическое). После упрощения дроби получается искомая формула WAPE, которая очень проста в понимании:
- Для каждой позиции рассчитывается абсолютная ошибка прогноза (прогноз вычитается из факта, по модулю) — Absolute Error
- Находится сумма всех фактов по всем позициям (общий фактический объем)
- Сумма всех абсолютных ошибок делится на сумму всех фактов — WAPE
Данная ошибка прогнозирования является симметричной и наименее чувствительна к искажениям числового ряда.
Рекомендуется к использованию при расчете точности прогнозирования. Более подробно читать здесь.
RMSE (as %) / nRMSE — Root Mean Square Error
RMSE — среднеквадратичная ошибка прогнозирования. Примерно такая же проблема, как и в MPE и MAPE: так как каждое отклонение возводится в квадрат, любое небольшое отклонение может значительно повлиять на показатель ошибки. Стоит отметить, что существует также ошибка MSE, из которой RMSE как раз и получается путем извлечения корня. Но так как MSE дает расчетные единицы измерения в квадрате, то использовать данную ошибку будет немного неправильно.
- Для каждой позиции рассчитывается квадрат отклонений (разница между фактом и прогнозом, возведенная в квадрат) — Square Error
- Затем рассчитывается среднее арифметическое (сумма квадратов отклонений, деленное на количество) — MSE — Mean Square Error
- Извлекаем корень из полученного результат — RMSE
- Для перевода в процентную или в «нормализованную» среднеквадратичную ошибку необходимо:
- Разделить на разницу между максимальным и минимальным значением показателей
- Разделить на разницу между третьим и первым квартилем значений показателей
- Разделить на среднее арифметическое значений показателей (наиболее часто встречающийся вариант)
MASE — Mean Absolute Scaled Error
MASE — средняя абсолютная масштабированная ошибка прогнозирования. Согласно Википедии, является очень хорошим вариантом для расчета точности, так как сама ошибка не зависит от масштабов данных и является симметричной: то есть положительные и отрицательные отклонения от факта рассматриваются в равной степени.
Важно! Если предыдущие ошибки прогнозирования мы могли использовать для нахождения точности прогнозирования некого списка номенклатур, где каждой из которых соответствует фактическое и прогнозное значение (как было в примере в начале статьи), то данная ошибка для этого не предназначена: MASE используется для расчета точности прогнозирования одной единственной позиции, основываясь на предыдущих показателях факта и прогноза, и чем больше этих показателей, тем более точно мы сможем рассчитать показатель точности. Вероятно, из-за этого ошибка не получила широкого распространения.
Здесь данная формула представлена исключительно для ознакомления и не рекомендуется к использованию.
Суть формулы заключается в нахождении среднего арифметического всех масштабированных ошибок, что при упрощении даст нам следующую конечную формулу:
Также, хочу отметить, что существует ошибка RMMSE (Root Mean Square Scaled Error — Среднеквадратичная масштабированная ошибка), которая примерно похожа на MASE, с теми же преимуществами и недостатками.
Это основные ошибки прогнозирования, которые могут использоваться для расчета точности прогнозирования. Но не все! Их очень много и, возможно, чуть позже я добавлю еще немного информации о некоторых из них. А примеры расчетов уже описанных ошибок прогнозирования будут выложены через некоторое время, пока что я подготавливаю пример, ожидайте.
Об авторе
HeinzBr
Автор статей и создатель сайта SHTEM.RU
Что такое стандартная ошибка оценки? (Определение и пример)
17 авг. 2022 г.
читать 3 мин
Стандартная ошибка оценки — это способ измерения точности прогнозов, сделанных регрессионной моделью.
Часто обозначаемый σ est , он рассчитывается как:
σ est = √ Σ(y – ŷ) 2 /n
куда:
- y: наблюдаемое значение
- ŷ: Прогнозируемое значение
- n: общее количество наблюдений
Стандартная ошибка оценки дает нам представление о том, насколько хорошо регрессионная модель соответствует набору данных. Особенно:
- Чем меньше значение, тем лучше соответствие.
- Чем больше значение, тем хуже соответствие.
Для регрессионной модели с небольшой стандартной ошибкой оценки точки данных будут плотно сгруппированы вокруг предполагаемой линии регрессии:
И наоборот, для регрессионной модели с большой стандартной ошибкой оценки точки данных будут более свободно разбросаны по линии регрессии:
В следующем примере показано, как рассчитать и интерпретировать стандартную ошибку оценки для регрессионной модели в Excel.
Пример: стандартная ошибка оценки в Excel
Используйте следующие шаги, чтобы вычислить стандартную ошибку оценки для регрессионной модели в Excel.
Шаг 1: введите данные
Сначала введите значения для набора данных:
Шаг 2: выполните линейную регрессию
Затем щелкните вкладку « Данные » на верхней ленте. Затем выберите параметр « Анализ данных» в группе « Анализ ».
Если вы не видите эту опцию, вам нужно сначала загрузить пакет инструментов анализа .
В появившемся новом окне нажмите « Регрессия », а затем нажмите « ОК ».
В появившемся новом окне заполните следующую информацию:
Как только вы нажмете OK , появится вывод регрессии:
Мы можем использовать коэффициенты из таблицы регрессии для построения оценочного уравнения регрессии:
ŷ = 13,367 + 1,693 (х)
И мы видим, что стандартная ошибка оценки для этой регрессионной модели оказывается равной 6,006.Проще говоря, это говорит нам о том, что средняя точка данных отклоняется от линии регрессии на 6,006 единицы.
Мы можем использовать оценочное уравнение регрессии и стандартную ошибку оценки, чтобы построить 95% доверительный интервал для прогнозируемого значения определенной точки данных.
Например, предположим, что x равно 10. Используя оценочное уравнение регрессии, мы можем предсказать, что y будет равно:
ŷ = 13,367 + 1,693 * (10) = 30,297
И мы можем получить 95% доверительный интервал для этой оценки, используя следующую формулу:
- 95% ДИ = [ŷ – 1,96*σ расч ., ŷ + 1,96*σ расч .]
Для нашего примера доверительный интервал 95% будет рассчитываться как:
- 95% ДИ = [ŷ – 1,96*σ расч ., ŷ + 1,96*σ расч .]
- 95% ДИ = [30,297 – 1,96*6,006, 30,297 + 1,96*6,006]
- 95% ДИ = [18,525, 42,069]
Дополнительные ресурсы
Как выполнить простую линейную регрессию в Excel
Как выполнить множественную линейную регрессию в Excel
Как создать остаточный график в Excel
Correlation and Regression
Andrew F. Siegel, Michael R. Wagner, in Practical Business Statistics (Eighth Edition), 2022
The Standard Error of Estimate: How Large Are the Prediction Errors?
The standard error of estimate, denoted Se here (but often denoted S in computer printouts), tells you approximately how large the prediction errors (residuals) are for your data set in the same units as Y. How well can you predict Y? The answer is to within about Se above or below.16 Because you usually want your forecasts and predictions to be as accurate as possible, you would be glad to find a small value for Se. You can interpret Se as a standard deviation in the sense that if you have a normal distribution for the prediction errors, then you will expect about two-thirds of the data points to fall within a distance Se either above or below the regression line. Also, about 95% of the data values should fall within 2Se, and so forth. This is illustrated in Fig. 11.2.10 for the production cost example.
Fig. 11.2.10. The standard error of estimate, Se, indicates approximately how much error you make when you use the predicted value for Y (on the least-squares line) instead of the actual value of Y. You may expect about two-thirds of the data points to be within Se above or below the least-squares line for a data set with a normal linear relationship, such as this one.
The standard error of estimate may be found using the following formulas:
Standard Error of Estimate
Se=SY(1−r2)n−1n−2(forcomputation)=1n−2∑i=1n[Yi−(a+bXi)]2(forinterpretation)
The first formula shows how Se is computed by reducing SY according to the correlation and sample size. Indeed, Se will usually be smaller than SY because the line a + bX summarizes the relationship and therefore comes closer to the Y values than does the simpler summary, Y¯. The second formula shows how Se can be interpreted as the estimated standard deviation of the residuals: The squared prediction errors are averaged by dividing by n − 2 (the appropriate number of degrees of freedom when two numbers, a and b, have been estimated), and the square root undoes the earlier squaring, giving you an answer in the same measurement units as Y.
For the production cost data, the correlation was found to be r = 0.869193, the variability in the individual cost numbers is SY = $389.6131, and the sample size is n = 18. The standard error of estimate is therefore
Se=SY(1−r2)n−1n−2=389.6131(1−0.8691932)18−118−2=389.6131(0.0244503)1716=389.61310.259785=$198.58
This tells you that, for a typical week, the actual cost was different from the predicted cost (on the least-squares line) by about $198.58. Although the least-squares prediction line takes full advantage of the relationship between cost and number produced, the predictions are far from perfect.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780128200254000117
Detection of a Trend in Population Estimates
William L. Thompson, … Charles Gowan, in Monitoring Vertebrate Populations, 1998
5.2 VARIANCE COMPONENTS
In this section, we discuss sources of variation that must be considered to make inferences from data when trying to detect trends. Three sources of variation must be considered: sampling variation, temporal variation in the population dynamics process, and spatial variation in the dynamics of the population across space. The latter two sources often are referred to as process variation, i.e., variation in the population dynamics process associated with environmental variation (such as rainfall, temperature, community succession, fires, or elevation). Methods to separate process variation from sampling variation will be presented.
Detection of a trend in a population’s size requires at least two abundance estimates. For example, if the population size of Mexican spotted owls in Mesa Verde National Park is determined as 50 pairs in 1990, and as only 10 pairs in 1995, we would be concerned that a significant negative trend in the population exists during this time period, and that action must be taken to alleviate the trend. However, if the 1995 estimate was 40 pairs, we might still be concerned, but would be less confident that immediate action is required. Two sources of variation must be assessed before we are confident of our inference from these estimates.
The first source of variation is the uncertainty we have in our population estimates. We want to be sure that the two estimates are different, i.e., the difference between the two estimates is greater than would be expected from chance alone because of the sampling errors associated with each estimate. Typically, we present our uncertainty in our estimate as its variance, and use this variance to generate a confidence interval for our estimate. Suppose that the 1990 estimate of Nˆ90 = 50 pairs has a sampling variance of Vaˆr(Nˆ90)=25. Then, under the assumption of the estimate being normally distributed with a large sample size (i.e., large degrees of freedom), we would compute a 95% confidence interval as 50 ± 1.96 25, or 40.2–59.8. If the 1995 estimate was Nˆ95 = 40 with a sampling variance of Vâr(Nˆ95) = 20, then the 95% confidence interval for this estimate is 40 ± 1.96 20, or 31.2–48.8. Based on the overlap of the two confidence intervals (Fig. 5.2), we would conclude that by chance alone, these two estimates are probably not different. We also could compute a simple test as
Figure 5.2. The 95% confidence intervals plotted with the 1990 and 1995 population estimates.
(5.3)z=Nˆ90−Nˆ95Vaˆr(Nˆ90)+Vaˆr(Nˆ95),
which for this example results in z = 1.491, with a probability of observing a z statistic this large or larger of P = 0.136. Although we might be alarmed, the chances are that 13.6 times out of 100 we would observe this large of a change just by random chance.
A variation of the previous test is commonly conducted for several reasons: (1) we often are interested in the ratio of two population estimates (rather than the difference) because a ratio represents the rate of change of the population, (2) the variance of Nˆ is usually linked to its estimate by Vaˆr(Nˆ)=NˆC (e.g., Skalski and Robson, 1992, pp. 28–29), and (3) ln(Nˆ) is more likely to be normally distributed than Nˆ. Fortuitously, a log transformation provides some correction to all three of the above reasons and results in a more efficient statistical procedure. Because
(5.4)Var[ln(Nˆ)]=Var(Nˆ)Nˆ2,
we construct the z test as
(5.5)z=ln(Nˆ90)−ln(Nˆ95)Vaˆr[ln(Nˆ90)]+Vaˆr[ln(Nˆ95)]
to provide a more efficient (i.e., more powerful) test.
Suppose we had made a much more intensive effort in sampling the owl population, so that the sampling variances were one-half of the values observed (which would generally take about 4 times the effort). Thus, Vâr(Nˆ90) = 12.5 and Vâr(Nˆ95) = 10, giving a z statistic of 2.108 with probability value of P = 0.035. Now, we would conclude that the owl population was lower in 1995 than in 1990, and that this difference is unlikely due to variation in our samples, i.e., that an actual reduction in population size has taken place.
This leads us to the second variance component associated with determining whether a trend in the population is important. We would expect the size of the owl population (and any other population, for that matter) to fluctuate through time. How can we determine if this reduction is important? The answer lies in determining what the variation in the owl population has been for some period of time in the past, and then if the observed reduction is outside the range expected from this past fluctuation. Consider the example in Fig. 5.3, where the true population size (no sampling variation) is plotted. The population fluctuates around a mean of 50, but values more extreme than the range 40 to 60 are common. Note that a decline from 76 to 29 pairs occurred from 1984 to 1985, and that declines from over 50 pairs to under 40 pairs are fairly common occurrences. Thus, based on our previous example, a decline from 50 to 40 is not at all unreasonable given the past population dynamics of this hypothetical population.
Figure 5.3. Actual number of pairs of owls that exist each year. In reality, we never know these values, and can only estimate them.
To determine the level of change in population size that should receive our attention and suggest management action, we need to know something about the temporal variation in the population. The only way to estimate this variance component is to observe the population across a number of years. The exact number of years will depend on the magnitude of the temporal variation. Thus, if the population does not change much from year to year, a few observations will show this consistency. On the other hand, if the population fluctuates a lot, as in Fig. 5.3, many years of observations are needed to estimate the temporal variance. For the example in Fig. 5.3, we could compute the temporal variance as the variance of the 15 years. We find a variance of 265.7, or a standard deviation of 16.3 (Example 5.1). With a SD of 16.3, we would expect roughly 95% of the population values to be in the range of ±2 SD of the mean population size. This inference is based on the population being stable, i.e., not having an upward or downward trend, and being roughly normally distributed. For a normal distribution, 95% of the values lie in the interval ±2 SD of the mean. Therefore, a change of 2 SD, or 32.6, is not a particularly big change given the temporal variation observed over the 15-year period. Such a change should occur with probability greater than 1/20, or 0.05.
A complicating problem with estimating the temporal variance of a population’s size is that we are seldom allowed to observe the true value of the population size. Rather, we are required to sample the population, and hence only obtain an estimate of the population size each year, with its associated sampling variance. Thus, we would need to include the 95% confidence bars on the annual estimates. As a result of this uncertainty from our sampling procedure, we would conclude that many of the year-to-year changes were not really changes because the estimates were not different. This complication leads to a further problem. If we compute the variance with the usual formula when estimates of population size replace the actual population size shown in Fig. 5.3, we obtain a variance estimate larger than the true temporal variance because our sampling uncertainty is included in the variance. For low levels of sampling effort each year, we would have a high sampling variance associated with each estimate, and as a result, we would have a high variance across years. The noise associated with our low sampling intensity would suggest that the population is fluctuating widely, when in fact the population could be constant (i.e., temporal variance is zero), and the estimated changes in the population are just due to sampling variance.
This mixture of sampling and temporal variation becomes particularly important in population viability analysis (PVA). The objective of a PVA is to estimate the probability of extinction for a population, given current size, and some idea of the variation in the population dynamics (i.e., temporal variation). If our estimate of temporal variation includes sampling variation, and the level of effort to obtain the estimates is relatively low, the high sampling variation causes our naive estimate of temporal variation to be much too large. When we apply our PVA analysis with this inflated estimate of temporal variance, we conclude that the population is much more likely to go extinct than it really is, and hence the importance of separating sampling variation from process variation.
Typically, we estimate variance components with analysis of variance (ANOVA) procedures. For the example considered here, we would have to have at least two estimates of population size for a series of years to obtain valid estimates of sampling and temporal variation. Further, typical ANOVA techniques assume that the sampling variation is constant, and so do not account for differences in levels of effort, or the fact that sampling variance is usually a function of population size. For our example, we have an estimate of sampling variance for each of our estimates, obtained from the population estimation methods considered in this manual. That is, capture–recapture, mark–resight, line transects, removal methods, and quadrat counts all produce estimates of sampling variation. Thus, we do not want to estimate sampling variation by obtaining replicate estimates, but want to use the available estimate. Therefore, we present a method of moments estimator developed in Burnham et al. (1987, Part 5). Skalski and Robson (1992, Chapter 2) also present a similar procedure, but do not develop the weighted estimator presented here.
Example 5.1 Population Size, Estimates, Standard Error of the Estimates, and Confidence Intervals for Owl Pairs in Fig. 5.3
| Standard | |||||
|---|---|---|---|---|---|
| Year | Population | Estimate | error | Lower 95% CI | Upper 95% CI |
| 1980 | 44 | 40.04 | 5.926 | 28.42 | 51.66 |
| 1981 | 48 | 50.51 | 11.004 | 28.94 | 72.08 |
| 1982 | 61 | 61.36 | 15.278 | 31.42 | 91.31 |
| 1983 | 48 | 47.6 | 11.062 | 25.92 | 69.28 |
| 1984 | 76 | 95.51 | 18.988 | 58.3 | 132.72 |
| 1985 | 29 | 33.81 | 8.803 | 16.56 | 51.06 |
| 1986 | 60 | 34.39 | 5.804 | 23.01 | 45.76 |
| 1987 | 59 | 38.52 | 11.168 | 16.63 | 60.41 |
| 1988 | 76 | 84.57 | 21.312 | 42.8 | 126.34 |
| 1989 | 42 | 30.04 | 6.918 | 16.48 | 43.6 |
| 1990 | 29 | 20.29 | 7.529 | 5.54 | 35.05 |
| 1991 | 68 | 68.42 | 17.969 | 33.2 | 103.64 |
| 1992 | 42 | 45.51 | 13.225 | 19.6 | 71.44 |
| 1993 | 27 | 27.01 | 6.137 | 14.98 | 39.04 |
| 1994 | 72 | 71.12 | 14.511 | 42.67 | 99.56 |
| 1995 | 54 | 51.45 | 8.054 | 35.66 | 67.24 |
The variance of the n = 16 populations is 265.628, whereas the variance of the 16 estimates is 450.376. Sampling variation causes the estimates to have a larger variance than the actual population. The difference of these two variances is an estimate of the sampling variation, i.e., 450.376 – 265.628 = 184.748. The square root of 184.748 is 13.592, and is the approximate mean of the 16 reported standard errors.
To obtain an unbiased estimate of the temporal variance, we must remove the sampling variation from the estimate of the total variance. Define σtotal2 as the total variance, estimated for n = 16 estimates of owl pairs (Nˆi, i = 1980, …, 1995) as
(5.6)σˆtotal2=Σi=19801995(Nˆi−N¯)2(n−1)=Σi=19801995Nˆi2(Σi−19801985Nˆi)2n(n−1),
where the symbol indicates the estimate of the parameter. Thus, Nˆi are the estimates of the actual populations, Ni, and σˆtotal2 is an estimate of the total variance σˆi2 For each estimate, Nˆi, we also have an associated sampling variance, σˆi2. Then, a simple estimator of the temporal variance, σ2time, is given by
(5.7)σˆtime2=σˆtotal2−Σi=19801995σˆi2n,
when we can assume that all of the sampling variances, σˆi2, are equal. The above equation corresponds to Eq. (2.6) of Skalski and Robson (1992). When the σˆi2 cannot all be assumed to be equal, a more complex calculation is required (Burnham et al., 1987, Section 4.3) because each estimate must be weighted by its sampling variance. We take as the weight of each estimate the reciprocal of the sum of temporal variance plus the sampling variance, 1/(σˆtime2+σˆi2). That is, Var(Nˆi)=σˆtime2+σˆi2, so wi=1/Var(Nˆi)=1/(σˆtime2+σˆi2). Then, the weighted total variance is computed as
(5.8)σˆtotal2=Σi=19801995wi(Nˆi−N¯)2(n−1)Σi=19801995wi
with the mean of the estimates now computed as a weighted mean,
(5.9)N¯=Σi=19801995wiNˆiΣi=19801995wi.
We now know that the theoretical variance N¯ is
(5.10)Var(N¯)=Var(Σi=19801995wiNˆiΣi=19801995wi)=1Σi=19801995wi
and the empirical variance estimator is Eq. (5.8). Setting these two equations equal,
(5.11)1Σi=19801995wi=Σi=19801995wi(Nˆi−N¯)2(n−1)Σi=19801995wi
or
(5.12)1=Σi=19801995wi(Nˆi−N¯)2(n−1).
Because we cannot solve for σˆtime2 directly, we have to use an iterative numerical approach to estimate σˆtime2 This procedure involves substituting values of σˆtime2 into Eq. (5.12) via the wi until the two sides are equal. When both sides are the same, we have our estimate of σˆtime2. Using this estimate of σˆtime2, we can now decide what level of change in Nˆi to Nˆi+1 is important and deserves attention. If the change from a series of estimates is greater than 2σˆtime2, we may want to take action.
Typically, we do not have the luxury of enough background data to estimate σˆtime2, so we end up trying to evaluate whether a series of estimated population sizes is in fact signaling a decline in the population when both sampling and process variance are present. Note that just because we see a decline of the estimates for 3–4 consecutive years, we cannot be sure that the population is actually in a serious decline without knowledge of the mean population size and the temporal variation prior to the decline. Usually, however, we do not have good knowledge of the population size prior to some observed decline, and make a decision to act based on biological perceptions. Keep in mind the kinds of trends displayed in Fig. 5.1. Is the suggested trend part of a cycle, or are we observing a real change in population size? In this discussion, we have only considered temporal variation. A similar procedure can be used to separate spatial variation from sampling variation.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780126889604500058
Multiple Regression
Andrew F. Siegel, Michael R. Wagner, in Practical Business Statistics (Eighth Edition), 2022
Typical Prediction Error: Standard Error of Estimate
Just as for simple regression, with only one X, the standard error of estimate indicates the approximate size of the prediction errors. For the magazine ads example, Se = $106,072. This tells you that actual page costs for these magazines are typically within about $106,072 from the predicted page costs, in the sense of a standard deviation. That is, if the error distribution is normal, then you would expect about two-thirds of the actual page costs to be within Se of the predicted page costs, about 95% to be within 2Se, and so forth.
The standard error of estimate, Se = $106,072, indicates the remaining variation in page costs after you have used the X variables (audience, percent male, and median income) in the regression equation to predict page costs for each magazine. Compare this to the ordinary univariate standard deviation, SY = $163,549, for the page costs, computed by ignoring all the other variables. This standard deviation, SY, indicates the remaining variation in page costs after you have used only Y¯ to predict the page costs for each magazine. Note that Se = $106,072 is smaller than SY = $163,549; your errors are typically smaller if you use the regression equation instead of just Y¯ to predict page costs. This suggests that the X variables are helpful in explaining page costs.
Think of the situation this way. If you knew nothing of the X variables, you would use the average page costs (Y¯=$187,628) as your best guess, and you would be wrong by about SY = $163,549. But if you knew the audience, percent male readership, and median reader income, you could use the regression equation to find a prediction for page costs that would be wrong by only Se = $106,072. This reduction in prediction error (from $163,549 to $106,072) is one of the helpful payoffs from running a regression analysis.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780128200254000129
Multiple Regression
Gary Smith, in Essential Statistics, Regression, and Econometrics, 2012
Confidence Intervals for the Coefficients
If the error term is normally distributed and satisfies the four assumptions detailed in the simple regression chapter, the estimators are normally distributed with expected values equal to the parameters they estimate:
a∼N[α, standard deviation of a]bi∼N[βi, standard deviation of bi]
To compute the standard errors (the estimated standard deviations) of these estimators, we need to use the standard error of estimate (SEE) to estimate the standard deviation of the error term:
(10.3)SEE=∑(Y−Y^)2n−(k+1)
Because n observations are used to estimate k + 1 parameters, we have n − (k + 1) degrees of freedom. After choosing a confidence level, such as 95 percent, we use the t distribution with n − (k + 1) degrees of freedom to determine the value t* that corresponds to this probability. The confidence interval for each coefficient is equal to the estimate plus or minus the requisite number of standard errors:
(10.4)a±t*(standard error ofa)bi±t*(standard error ofbi)
For our consumption function, statistical software calculates SEE = 59.193 and these standard errors:
standard error ofa=27.327standard error ofb1=0.019standard error ofb2=0.003
With 49 observations and 2 explanatory variables, we have 49 − (2 + 1) = 46 degrees of freedom. Table A.2 gives t* = 2.013 for a 95 percent confidence interval, so that 95 percent confidence intervals are
α:a±t*(standard error ofa)=−110.126±2.013(27.327)=−110.126±55.010β1:b1±t*(standard error ofb1)=0.798±2.013(0.019)=0.798±0.039β2:b2±t*(standard error ofb2)=0.026±2.013(0.003)=0.026±0.006
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780123822215000106
Multiple Regression
Gary Smith, in Essential Statistics, Regression, and Econometrics (Second Edition), 2015
Confidence Intervals for the Coefficients
If the error term is normally distributed and satisfies the four assumptions detailed in the simple regression chapter, the estimators are normally distributed with expected values equal to the parameters they estimate:
a∼N[α,standarddeviationofa]bi∼N[βistandarddeviationofbi]
To compute the standard errors (the estimated standard deviations) of these estimators, we need to use the standard error of estimate (SEE) to estimate the standard deviation of the error term:
(10.5)SEE=∑(y−yˆ)2n−(k+1)
Because n observations are used to estimate k + 1 parameters, we have n − (k + 1) degrees of freedom. After choosing a confidence level, such as 95 percent, we use the t distribution with n − (k + 1) degrees of freedom to determine the value t∗ that corresponds to this probability. The confidence interval for each coefficient is equal to the estimate plus or minus the requisite number of standard errors:
(10.6)a±t∗(standarderrorofa)bi±t∗(standarderrorofbi)
For our consumption function, statistical software calculates SEE = 59.193 and these standard errors:
standarderrorofa=27.327standarderrorofb1=0.019standarderrorofb2=0.003
With 49 observations and two explanatory variables, we have 49 − (2 + 1) = 46 degrees of freedom. Table A.2 gives t∗ = 2.013 for a 95 percent confidence interval, so that 95 percent confidence intervals are:
α:a±t∗(standarderrorofa)=−110.126±2.013(27.327)=−110.126±55.010β1:b1±t∗(standarderrorofb1)=0.798±2.013(0.019)=0.798±0.039β2:b2±t∗(standarderrorofb2)=0.026±2.013(0.003)=0.026±0.006
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780128034590000108
Simple Regression
Gary Smith, in Essential Statistics, Regression, and Econometrics (Second Edition), 2015
Abstract
The simple regression model assumes a linear relationship, Y = α + βX + ε, between a dependent variable Y and an explanatory variable X, with the error term ε encompassing omitted factors. The least squares estimates a and b minimize the sum of squared errors when the fitted line is used to predict the observed values of Y. The standard error of estimate (SEE) is our estimate of the standard deviation of the error term. The standard errors of the estimates a and b can be used to construct confidence intervals for α and β and test null hypotheses, most often that the value of β is zero (Y and X are not linearly related). The coefficient of determination R2 compares the model’s sum of the squared prediction errors to the sum of the squared deviations of Y about its mean, and can be interpreted as the fraction of the variation in the dependent variable that is explained by the regression model. The correlation coefficient is equal to the square root of R2.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B978012803459000008X
Bootstrap Method
K. Singh, M. Xie, in International Encyclopedia of Education (Third Edition), 2010
Approximating Standard Error of a Sample Estimate
Let us suppose, information is sought about a population parameter θ. Suppose θˆ is a sample estimator of θ based on a random sample of size n, that is, θˆ is a function of the data (X1, X2, …,Xn). In order to estimate standard error of θˆ, as the sample varies over the class of all possible samples, one has the following simple bootstrap approach.
Computeθ1*,θ2*,…,θN*, using the same computing formula as the one used for θˆ, but now base it on N different bootstrap samples (each of size n). A crude recommendation for the size N could be N = n2 (in our judgment), unless n2 is too large. In that case, it could be reduced to an acceptable size, say nlogen. One defines
SEB(θˆ)=[(1/N)∑i=1N(θi*−θˆ)2]1/2
following the philosophy of bootstrap: replace the population by the empirical population.
An older resampling technique used for this purpose is Jackknife, though bootstrap is more widely applicable. The famous example where Jackknife fails while bootstrap is still useful is that of θˆ = the sample median.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780080448947013099
Pearson, Karl
M. Eileen Magnello, in Encyclopedia of Social Measurement, 2005
The Biometric School
Although Pearson’s success in attracting such large audiences in his Gresham lectures may have played a role in encouraging him to further develop his work in biometry, he resigned from the Gresham Lectureship due to his doctor’s recommendation. Following the success of his Gresham lectures, Pearson began to teach statistics to students at UCL in October 1894. Not only did Galton’s work on his law of ancestral heredity enable Pearson to devise the mathematical properties of the product– moment correlation coefficient (which measures the relationship between two continuous variables) and simple regression (used for the linear prediction between two continuous variables) but also Galton’s ideas led to Pearson’s introduction of multiple correlation and part correlation coefficients, multiple regression and the standard error of estimate (for regression), and the coefficient of variation. By then, Galton had determined graphically the idea of correlation and regression for the normal distribution only. Because Galton’s procedure for measuring correlation involved measuring the slope of the regression line (which was a measure of regression instead), Pearson kept Galton’s “r” to symbolize correlation. Pearson later used the letter b (from the equation for a straight line) to symbolize regression. After Weldon had seen a copy of Pearson’s 1896 paper on correlation, he suggested to Pearson that he should extend the range for correlation from 0 to +1 (as used by Galton) so that it would include all values from −1 to +1.
Pearson achieved a mathematical resolution of multiple correlation and multiple regression, adumbrated in Galton’s law of ancestral heredity in 1885, in his seminal paper Regression, Heredity, and Panmixia in 1896, when he introduced matrix algebra into statistical theory. (Arthur Cayley, who taught at Cambridge when Pearson was a student, created matrix algebra by his discovery of the theory of invariants during the mid-19th century.) Pearson’s theory of multiple regression became important to his work on Mendel in 1904 when he advocated a synthesis of Mendelism and biometry. In the same paper, Pearson also introduced the following statistical methods: eta (η) as a measure for a curvilinear relationship, the standard error of estimate, multiple regression, and multiple and part correlation. He also devised the coefficient of variation as a measure of the ratio of a standard deviation to the corresponding mean expressed as a percentage.
By the end of the 19th century, he began to consider the relationship between two discrete variables, and from 1896 to 1911 Pearson devised more than 18 methods of correlation. In 1900, he devised the tetrachoric correlation and the phi coefficient for dichotomous variables. The tetrachoric correlation requires that both X and Y represent continuous, normally distributed, and linearly related variables, whereas the phi coefficient was designed for so-called point distributions, which implies that the two classes have two point values or merely represent some qualitative attribute. Nine years later, he devised the biserial correlation, where one variable is continuous and the other is discontinuous. With his son Egon, he devised the polychoric correlation in 1922 (which is very similar to canonical correlation today). Although not all of Pearson’s correlational methods have survived him, a number of these methods are still the principal tools used by psychometricians for test construction. Following the publication of his first three statistical papers in Philosophical Transactions of the Royal Society, Pearson was elected a fellow of the Royal Society in 1896. He was awarded the Darwin Medal from the Royal Society in 1898.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B0123693985002280
Correlation and Regression
Andrew F. Siegel, Michael R. Wagner, in Practical Business Statistics (Eighth Edition), 2022
The Standard Error of Estimate: How Large Are the Prediction Errors?
The standard error of estimate, denoted Se here (but often denoted S in computer printouts), tells you approximately how large the prediction errors (residuals) are for your data set in the same units as Y. How well can you predict Y? The answer is to within about Se above or below.16 Because you usually want your forecasts and predictions to be as accurate as possible, you would be glad to find a small value for Se. You can interpret Se as a standard deviation in the sense that if you have a normal distribution for the prediction errors, then you will expect about two-thirds of the data points to fall within a distance Se either above or below the regression line. Also, about 95% of the data values should fall within 2Se, and so forth. This is illustrated in Fig. 11.2.10 for the production cost example.
Fig. 11.2.10. The standard error of estimate, Se, indicates approximately how much error you make when you use the predicted value for Y (on the least-squares line) instead of the actual value of Y. You may expect about two-thirds of the data points to be within Se above or below the least-squares line for a data set with a normal linear relationship, such as this one.
The standard error of estimate may be found using the following formulas:
Standard Error of Estimate
Se=SY(1−r2)n−1n−2(forcomputation)=1n−2∑i=1n[Yi−(a+bXi)]2(forinterpretation)
The first formula shows how Se is computed by reducing SY according to the correlation and sample size. Indeed, Se will usually be smaller than SY because the line a + bX summarizes the relationship and therefore comes closer to the Y values than does the simpler summary, Y¯. The second formula shows how Se can be interpreted as the estimated standard deviation of the residuals: The squared prediction errors are averaged by dividing by n − 2 (the appropriate number of degrees of freedom when two numbers, a and b, have been estimated), and the square root undoes the earlier squaring, giving you an answer in the same measurement units as Y.
For the production cost data, the correlation was found to be r = 0.869193, the variability in the individual cost numbers is SY = $389.6131, and the sample size is n = 18. The standard error of estimate is therefore
Se=SY(1−r2)n−1n−2=389.6131(1−0.8691932)18−118−2=389.6131(0.0244503)1716=389.61310.259785=$198.58
This tells you that, for a typical week, the actual cost was different from the predicted cost (on the least-squares line) by about $198.58. Although the least-squares prediction line takes full advantage of the relationship between cost and number produced, the predictions are far from perfect.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780128200254000117
Detection of a Trend in Population Estimates
William L. Thompson, … Charles Gowan, in Monitoring Vertebrate Populations, 1998
5.2 VARIANCE COMPONENTS
In this section, we discuss sources of variation that must be considered to make inferences from data when trying to detect trends. Three sources of variation must be considered: sampling variation, temporal variation in the population dynamics process, and spatial variation in the dynamics of the population across space. The latter two sources often are referred to as process variation, i.e., variation in the population dynamics process associated with environmental variation (such as rainfall, temperature, community succession, fires, or elevation). Methods to separate process variation from sampling variation will be presented.
Detection of a trend in a population’s size requires at least two abundance estimates. For example, if the population size of Mexican spotted owls in Mesa Verde National Park is determined as 50 pairs in 1990, and as only 10 pairs in 1995, we would be concerned that a significant negative trend in the population exists during this time period, and that action must be taken to alleviate the trend. However, if the 1995 estimate was 40 pairs, we might still be concerned, but would be less confident that immediate action is required. Two sources of variation must be assessed before we are confident of our inference from these estimates.
The first source of variation is the uncertainty we have in our population estimates. We want to be sure that the two estimates are different, i.e., the difference between the two estimates is greater than would be expected from chance alone because of the sampling errors associated with each estimate. Typically, we present our uncertainty in our estimate as its variance, and use this variance to generate a confidence interval for our estimate. Suppose that the 1990 estimate of Nˆ90 = 50 pairs has a sampling variance of Vaˆr(Nˆ90)=25. Then, under the assumption of the estimate being normally distributed with a large sample size (i.e., large degrees of freedom), we would compute a 95% confidence interval as 50 ± 1.96 25, or 40.2–59.8. If the 1995 estimate was Nˆ95 = 40 with a sampling variance of Vâr(Nˆ95) = 20, then the 95% confidence interval for this estimate is 40 ± 1.96 20, or 31.2–48.8. Based on the overlap of the two confidence intervals (Fig. 5.2), we would conclude that by chance alone, these two estimates are probably not different. We also could compute a simple test as
Figure 5.2. The 95% confidence intervals plotted with the 1990 and 1995 population estimates.
(5.3)z=Nˆ90−Nˆ95Vaˆr(Nˆ90)+Vaˆr(Nˆ95),
which for this example results in z = 1.491, with a probability of observing a z statistic this large or larger of P = 0.136. Although we might be alarmed, the chances are that 13.6 times out of 100 we would observe this large of a change just by random chance.
A variation of the previous test is commonly conducted for several reasons: (1) we often are interested in the ratio of two population estimates (rather than the difference) because a ratio represents the rate of change of the population, (2) the variance of Nˆ is usually linked to its estimate by Vaˆr(Nˆ)=NˆC (e.g., Skalski and Robson, 1992, pp. 28–29), and (3) ln(Nˆ) is more likely to be normally distributed than Nˆ. Fortuitously, a log transformation provides some correction to all three of the above reasons and results in a more efficient statistical procedure. Because
(5.4)Var[ln(Nˆ)]=Var(Nˆ)Nˆ2,
we construct the z test as
(5.5)z=ln(Nˆ90)−ln(Nˆ95)Vaˆr[ln(Nˆ90)]+Vaˆr[ln(Nˆ95)]
to provide a more efficient (i.e., more powerful) test.
Suppose we had made a much more intensive effort in sampling the owl population, so that the sampling variances were one-half of the values observed (which would generally take about 4 times the effort). Thus, Vâr(Nˆ90) = 12.5 and Vâr(Nˆ95) = 10, giving a z statistic of 2.108 with probability value of P = 0.035. Now, we would conclude that the owl population was lower in 1995 than in 1990, and that this difference is unlikely due to variation in our samples, i.e., that an actual reduction in population size has taken place.
This leads us to the second variance component associated with determining whether a trend in the population is important. We would expect the size of the owl population (and any other population, for that matter) to fluctuate through time. How can we determine if this reduction is important? The answer lies in determining what the variation in the owl population has been for some period of time in the past, and then if the observed reduction is outside the range expected from this past fluctuation. Consider the example in Fig. 5.3, where the true population size (no sampling variation) is plotted. The population fluctuates around a mean of 50, but values more extreme than the range 40 to 60 are common. Note that a decline from 76 to 29 pairs occurred from 1984 to 1985, and that declines from over 50 pairs to under 40 pairs are fairly common occurrences. Thus, based on our previous example, a decline from 50 to 40 is not at all unreasonable given the past population dynamics of this hypothetical population.
Figure 5.3. Actual number of pairs of owls that exist each year. In reality, we never know these values, and can only estimate them.
To determine the level of change in population size that should receive our attention and suggest management action, we need to know something about the temporal variation in the population. The only way to estimate this variance component is to observe the population across a number of years. The exact number of years will depend on the magnitude of the temporal variation. Thus, if the population does not change much from year to year, a few observations will show this consistency. On the other hand, if the population fluctuates a lot, as in Fig. 5.3, many years of observations are needed to estimate the temporal variance. For the example in Fig. 5.3, we could compute the temporal variance as the variance of the 15 years. We find a variance of 265.7, or a standard deviation of 16.3 (Example 5.1). With a SD of 16.3, we would expect roughly 95% of the population values to be in the range of ±2 SD of the mean population size. This inference is based on the population being stable, i.e., not having an upward or downward trend, and being roughly normally distributed. For a normal distribution, 95% of the values lie in the interval ±2 SD of the mean. Therefore, a change of 2 SD, or 32.6, is not a particularly big change given the temporal variation observed over the 15-year period. Such a change should occur with probability greater than 1/20, or 0.05.
A complicating problem with estimating the temporal variance of a population’s size is that we are seldom allowed to observe the true value of the population size. Rather, we are required to sample the population, and hence only obtain an estimate of the population size each year, with its associated sampling variance. Thus, we would need to include the 95% confidence bars on the annual estimates. As a result of this uncertainty from our sampling procedure, we would conclude that many of the year-to-year changes were not really changes because the estimates were not different. This complication leads to a further problem. If we compute the variance with the usual formula when estimates of population size replace the actual population size shown in Fig. 5.3, we obtain a variance estimate larger than the true temporal variance because our sampling uncertainty is included in the variance. For low levels of sampling effort each year, we would have a high sampling variance associated with each estimate, and as a result, we would have a high variance across years. The noise associated with our low sampling intensity would suggest that the population is fluctuating widely, when in fact the population could be constant (i.e., temporal variance is zero), and the estimated changes in the population are just due to sampling variance.
This mixture of sampling and temporal variation becomes particularly important in population viability analysis (PVA). The objective of a PVA is to estimate the probability of extinction for a population, given current size, and some idea of the variation in the population dynamics (i.e., temporal variation). If our estimate of temporal variation includes sampling variation, and the level of effort to obtain the estimates is relatively low, the high sampling variation causes our naive estimate of temporal variation to be much too large. When we apply our PVA analysis with this inflated estimate of temporal variance, we conclude that the population is much more likely to go extinct than it really is, and hence the importance of separating sampling variation from process variation.
Typically, we estimate variance components with analysis of variance (ANOVA) procedures. For the example considered here, we would have to have at least two estimates of population size for a series of years to obtain valid estimates of sampling and temporal variation. Further, typical ANOVA techniques assume that the sampling variation is constant, and so do not account for differences in levels of effort, or the fact that sampling variance is usually a function of population size. For our example, we have an estimate of sampling variance for each of our estimates, obtained from the population estimation methods considered in this manual. That is, capture–recapture, mark–resight, line transects, removal methods, and quadrat counts all produce estimates of sampling variation. Thus, we do not want to estimate sampling variation by obtaining replicate estimates, but want to use the available estimate. Therefore, we present a method of moments estimator developed in Burnham et al. (1987, Part 5). Skalski and Robson (1992, Chapter 2) also present a similar procedure, but do not develop the weighted estimator presented here.
Example 5.1 Population Size, Estimates, Standard Error of the Estimates, and Confidence Intervals for Owl Pairs in Fig. 5.3
| Standard | |||||
|---|---|---|---|---|---|
| Year | Population | Estimate | error | Lower 95% CI | Upper 95% CI |
| 1980 | 44 | 40.04 | 5.926 | 28.42 | 51.66 |
| 1981 | 48 | 50.51 | 11.004 | 28.94 | 72.08 |
| 1982 | 61 | 61.36 | 15.278 | 31.42 | 91.31 |
| 1983 | 48 | 47.6 | 11.062 | 25.92 | 69.28 |
| 1984 | 76 | 95.51 | 18.988 | 58.3 | 132.72 |
| 1985 | 29 | 33.81 | 8.803 | 16.56 | 51.06 |
| 1986 | 60 | 34.39 | 5.804 | 23.01 | 45.76 |
| 1987 | 59 | 38.52 | 11.168 | 16.63 | 60.41 |
| 1988 | 76 | 84.57 | 21.312 | 42.8 | 126.34 |
| 1989 | 42 | 30.04 | 6.918 | 16.48 | 43.6 |
| 1990 | 29 | 20.29 | 7.529 | 5.54 | 35.05 |
| 1991 | 68 | 68.42 | 17.969 | 33.2 | 103.64 |
| 1992 | 42 | 45.51 | 13.225 | 19.6 | 71.44 |
| 1993 | 27 | 27.01 | 6.137 | 14.98 | 39.04 |
| 1994 | 72 | 71.12 | 14.511 | 42.67 | 99.56 |
| 1995 | 54 | 51.45 | 8.054 | 35.66 | 67.24 |
The variance of the n = 16 populations is 265.628, whereas the variance of the 16 estimates is 450.376. Sampling variation causes the estimates to have a larger variance than the actual population. The difference of these two variances is an estimate of the sampling variation, i.e., 450.376 – 265.628 = 184.748. The square root of 184.748 is 13.592, and is the approximate mean of the 16 reported standard errors.
To obtain an unbiased estimate of the temporal variance, we must remove the sampling variation from the estimate of the total variance. Define σtotal2 as the total variance, estimated for n = 16 estimates of owl pairs (Nˆi, i = 1980, …, 1995) as
(5.6)σˆtotal2=Σi=19801995(Nˆi−N¯)2(n−1)=Σi=19801995Nˆi2(Σi−19801985Nˆi)2n(n−1),
where the symbol indicates the estimate of the parameter. Thus, Nˆi are the estimates of the actual populations, Ni, and σˆtotal2 is an estimate of the total variance σˆi2 For each estimate, Nˆi, we also have an associated sampling variance, σˆi2. Then, a simple estimator of the temporal variance, σ2time, is given by
(5.7)σˆtime2=σˆtotal2−Σi=19801995σˆi2n,
when we can assume that all of the sampling variances, σˆi2, are equal. The above equation corresponds to Eq. (2.6) of Skalski and Robson (1992). When the σˆi2 cannot all be assumed to be equal, a more complex calculation is required (Burnham et al., 1987, Section 4.3) because each estimate must be weighted by its sampling variance. We take as the weight of each estimate the reciprocal of the sum of temporal variance plus the sampling variance, 1/(σˆtime2+σˆi2). That is, Var(Nˆi)=σˆtime2+σˆi2, so wi=1/Var(Nˆi)=1/(σˆtime2+σˆi2). Then, the weighted total variance is computed as
(5.8)σˆtotal2=Σi=19801995wi(Nˆi−N¯)2(n−1)Σi=19801995wi
with the mean of the estimates now computed as a weighted mean,
(5.9)N¯=Σi=19801995wiNˆiΣi=19801995wi.
We now know that the theoretical variance N¯ is
(5.10)Var(N¯)=Var(Σi=19801995wiNˆiΣi=19801995wi)=1Σi=19801995wi
and the empirical variance estimator is Eq. (5.8). Setting these two equations equal,
(5.11)1Σi=19801995wi=Σi=19801995wi(Nˆi−N¯)2(n−1)Σi=19801995wi
or
(5.12)1=Σi=19801995wi(Nˆi−N¯)2(n−1).
Because we cannot solve for σˆtime2 directly, we have to use an iterative numerical approach to estimate σˆtime2 This procedure involves substituting values of σˆtime2 into Eq. (5.12) via the wi until the two sides are equal. When both sides are the same, we have our estimate of σˆtime2. Using this estimate of σˆtime2, we can now decide what level of change in Nˆi to Nˆi+1 is important and deserves attention. If the change from a series of estimates is greater than 2σˆtime2, we may want to take action.
Typically, we do not have the luxury of enough background data to estimate σˆtime2, so we end up trying to evaluate whether a series of estimated population sizes is in fact signaling a decline in the population when both sampling and process variance are present. Note that just because we see a decline of the estimates for 3–4 consecutive years, we cannot be sure that the population is actually in a serious decline without knowledge of the mean population size and the temporal variation prior to the decline. Usually, however, we do not have good knowledge of the population size prior to some observed decline, and make a decision to act based on biological perceptions. Keep in mind the kinds of trends displayed in Fig. 5.1. Is the suggested trend part of a cycle, or are we observing a real change in population size? In this discussion, we have only considered temporal variation. A similar procedure can be used to separate spatial variation from sampling variation.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780126889604500058
Multiple Regression
Andrew F. Siegel, Michael R. Wagner, in Practical Business Statistics (Eighth Edition), 2022
Typical Prediction Error: Standard Error of Estimate
Just as for simple regression, with only one X, the standard error of estimate indicates the approximate size of the prediction errors. For the magazine ads example, Se = $106,072. This tells you that actual page costs for these magazines are typically within about $106,072 from the predicted page costs, in the sense of a standard deviation. That is, if the error distribution is normal, then you would expect about two-thirds of the actual page costs to be within Se of the predicted page costs, about 95% to be within 2Se, and so forth.
The standard error of estimate, Se = $106,072, indicates the remaining variation in page costs after you have used the X variables (audience, percent male, and median income) in the regression equation to predict page costs for each magazine. Compare this to the ordinary univariate standard deviation, SY = $163,549, for the page costs, computed by ignoring all the other variables. This standard deviation, SY, indicates the remaining variation in page costs after you have used only Y¯ to predict the page costs for each magazine. Note that Se = $106,072 is smaller than SY = $163,549; your errors are typically smaller if you use the regression equation instead of just Y¯ to predict page costs. This suggests that the X variables are helpful in explaining page costs.
Think of the situation this way. If you knew nothing of the X variables, you would use the average page costs (Y¯=$187,628) as your best guess, and you would be wrong by about SY = $163,549. But if you knew the audience, percent male readership, and median reader income, you could use the regression equation to find a prediction for page costs that would be wrong by only Se = $106,072. This reduction in prediction error (from $163,549 to $106,072) is one of the helpful payoffs from running a regression analysis.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780128200254000129
Multiple Regression
Gary Smith, in Essential Statistics, Regression, and Econometrics, 2012
Confidence Intervals for the Coefficients
If the error term is normally distributed and satisfies the four assumptions detailed in the simple regression chapter, the estimators are normally distributed with expected values equal to the parameters they estimate:
a∼N[α, standard deviation of a]bi∼N[βi, standard deviation of bi]
To compute the standard errors (the estimated standard deviations) of these estimators, we need to use the standard error of estimate (SEE) to estimate the standard deviation of the error term:
(10.3)SEE=∑(Y−Y^)2n−(k+1)
Because n observations are used to estimate k + 1 parameters, we have n − (k + 1) degrees of freedom. After choosing a confidence level, such as 95 percent, we use the t distribution with n − (k + 1) degrees of freedom to determine the value t* that corresponds to this probability. The confidence interval for each coefficient is equal to the estimate plus or minus the requisite number of standard errors:
(10.4)a±t*(standard error ofa)bi±t*(standard error ofbi)
For our consumption function, statistical software calculates SEE = 59.193 and these standard errors:
standard error ofa=27.327standard error ofb1=0.019standard error ofb2=0.003
With 49 observations and 2 explanatory variables, we have 49 − (2 + 1) = 46 degrees of freedom. Table A.2 gives t* = 2.013 for a 95 percent confidence interval, so that 95 percent confidence intervals are
α:a±t*(standard error ofa)=−110.126±2.013(27.327)=−110.126±55.010β1:b1±t*(standard error ofb1)=0.798±2.013(0.019)=0.798±0.039β2:b2±t*(standard error ofb2)=0.026±2.013(0.003)=0.026±0.006
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780123822215000106
Multiple Regression
Gary Smith, in Essential Statistics, Regression, and Econometrics (Second Edition), 2015
Confidence Intervals for the Coefficients
If the error term is normally distributed and satisfies the four assumptions detailed in the simple regression chapter, the estimators are normally distributed with expected values equal to the parameters they estimate:
a∼N[α,standarddeviationofa]bi∼N[βistandarddeviationofbi]
To compute the standard errors (the estimated standard deviations) of these estimators, we need to use the standard error of estimate (SEE) to estimate the standard deviation of the error term:
(10.5)SEE=∑(y−yˆ)2n−(k+1)
Because n observations are used to estimate k + 1 parameters, we have n − (k + 1) degrees of freedom. After choosing a confidence level, such as 95 percent, we use the t distribution with n − (k + 1) degrees of freedom to determine the value t∗ that corresponds to this probability. The confidence interval for each coefficient is equal to the estimate plus or minus the requisite number of standard errors:
(10.6)a±t∗(standarderrorofa)bi±t∗(standarderrorofbi)
For our consumption function, statistical software calculates SEE = 59.193 and these standard errors:
standarderrorofa=27.327standarderrorofb1=0.019standarderrorofb2=0.003
With 49 observations and two explanatory variables, we have 49 − (2 + 1) = 46 degrees of freedom. Table A.2 gives t∗ = 2.013 for a 95 percent confidence interval, so that 95 percent confidence intervals are:
α:a±t∗(standarderrorofa)=−110.126±2.013(27.327)=−110.126±55.010β1:b1±t∗(standarderrorofb1)=0.798±2.013(0.019)=0.798±0.039β2:b2±t∗(standarderrorofb2)=0.026±2.013(0.003)=0.026±0.006
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780128034590000108
Simple Regression
Gary Smith, in Essential Statistics, Regression, and Econometrics (Second Edition), 2015
Abstract
The simple regression model assumes a linear relationship, Y = α + βX + ε, between a dependent variable Y and an explanatory variable X, with the error term ε encompassing omitted factors. The least squares estimates a and b minimize the sum of squared errors when the fitted line is used to predict the observed values of Y. The standard error of estimate (SEE) is our estimate of the standard deviation of the error term. The standard errors of the estimates a and b can be used to construct confidence intervals for α and β and test null hypotheses, most often that the value of β is zero (Y and X are not linearly related). The coefficient of determination R2 compares the model’s sum of the squared prediction errors to the sum of the squared deviations of Y about its mean, and can be interpreted as the fraction of the variation in the dependent variable that is explained by the regression model. The correlation coefficient is equal to the square root of R2.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B978012803459000008X
Bootstrap Method
K. Singh, M. Xie, in International Encyclopedia of Education (Third Edition), 2010
Approximating Standard Error of a Sample Estimate
Let us suppose, information is sought about a population parameter θ. Suppose θˆ is a sample estimator of θ based on a random sample of size n, that is, θˆ is a function of the data (X1, X2, …,Xn). In order to estimate standard error of θˆ, as the sample varies over the class of all possible samples, one has the following simple bootstrap approach.
Computeθ1*,θ2*,…,θN*, using the same computing formula as the one used for θˆ, but now base it on N different bootstrap samples (each of size n). A crude recommendation for the size N could be N = n2 (in our judgment), unless n2 is too large. In that case, it could be reduced to an acceptable size, say nlogen. One defines
SEB(θˆ)=[(1/N)∑i=1N(θi*−θˆ)2]1/2
following the philosophy of bootstrap: replace the population by the empirical population.
An older resampling technique used for this purpose is Jackknife, though bootstrap is more widely applicable. The famous example where Jackknife fails while bootstrap is still useful is that of θˆ = the sample median.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B9780080448947013099
Pearson, Karl
M. Eileen Magnello, in Encyclopedia of Social Measurement, 2005
The Biometric School
Although Pearson’s success in attracting such large audiences in his Gresham lectures may have played a role in encouraging him to further develop his work in biometry, he resigned from the Gresham Lectureship due to his doctor’s recommendation. Following the success of his Gresham lectures, Pearson began to teach statistics to students at UCL in October 1894. Not only did Galton’s work on his law of ancestral heredity enable Pearson to devise the mathematical properties of the product– moment correlation coefficient (which measures the relationship between two continuous variables) and simple regression (used for the linear prediction between two continuous variables) but also Galton’s ideas led to Pearson’s introduction of multiple correlation and part correlation coefficients, multiple regression and the standard error of estimate (for regression), and the coefficient of variation. By then, Galton had determined graphically the idea of correlation and regression for the normal distribution only. Because Galton’s procedure for measuring correlation involved measuring the slope of the regression line (which was a measure of regression instead), Pearson kept Galton’s “r” to symbolize correlation. Pearson later used the letter b (from the equation for a straight line) to symbolize regression. After Weldon had seen a copy of Pearson’s 1896 paper on correlation, he suggested to Pearson that he should extend the range for correlation from 0 to +1 (as used by Galton) so that it would include all values from −1 to +1.
Pearson achieved a mathematical resolution of multiple correlation and multiple regression, adumbrated in Galton’s law of ancestral heredity in 1885, in his seminal paper Regression, Heredity, and Panmixia in 1896, when he introduced matrix algebra into statistical theory. (Arthur Cayley, who taught at Cambridge when Pearson was a student, created matrix algebra by his discovery of the theory of invariants during the mid-19th century.) Pearson’s theory of multiple regression became important to his work on Mendel in 1904 when he advocated a synthesis of Mendelism and biometry. In the same paper, Pearson also introduced the following statistical methods: eta (η) as a measure for a curvilinear relationship, the standard error of estimate, multiple regression, and multiple and part correlation. He also devised the coefficient of variation as a measure of the ratio of a standard deviation to the corresponding mean expressed as a percentage.
By the end of the 19th century, he began to consider the relationship between two discrete variables, and from 1896 to 1911 Pearson devised more than 18 methods of correlation. In 1900, he devised the tetrachoric correlation and the phi coefficient for dichotomous variables. The tetrachoric correlation requires that both X and Y represent continuous, normally distributed, and linearly related variables, whereas the phi coefficient was designed for so-called point distributions, which implies that the two classes have two point values or merely represent some qualitative attribute. Nine years later, he devised the biserial correlation, where one variable is continuous and the other is discontinuous. With his son Egon, he devised the polychoric correlation in 1922 (which is very similar to canonical correlation today). Although not all of Pearson’s correlational methods have survived him, a number of these methods are still the principal tools used by psychometricians for test construction. Following the publication of his first three statistical papers in Philosophical Transactions of the Royal Society, Pearson was elected a fellow of the Royal Society in 1896. He was awarded the Darwin Medal from the Royal Society in 1898.
Read full chapter
URL:
https://www.sciencedirect.com/science/article/pii/B0123693985002280
Стандартная ошибка оценки по уравнению регрессии
Стандартная ошибка оценки, также известная как стандартная ошибка уравнения регрессии, определяется следующим образом (см. (6.23)) [c.280]
Стандартная ошибка уравнения регрессии, Эта статистика SEE представляет собой стандартное отклонение фактических значений теоретических значений У. [c.650]
Что такое стандартная ошибка уравнения регрессии ).Какие допущения лежат в основе парной регрессии 10. Что такое множественная регрессия [c.679]
Следующий этап корреляционного анализа — расчет уравнения связи (регрессии). Решение проводится обычно шаговым способом. Сначала в расчет принимается один фактор, который оказывает наиболее значимое влияние на результативный показатель, потом второй, третий и т.д. И на каждом шаге рассчитываются уравнение связи, множественный коэффициент корреляции и детерминации, /»»-отношение (критерий Фишера), стандартная ошибка и другие показатели, с помощью которых оценивается надежность уравнения связи. Величина их на каждом шаге сравнивается с предыдущей. Чем выше величина коэффициентов множественной корреляции, детерминации и критерия Фишера и чем ниже величина стандартной ошибки, тем точнее уравнение связи описывает зависимости, сложившиеся между исследуемыми показателями. Если добавление следующих факторов не улучшает оценочных показателей связи, то надо их отбросить, т.е. остановиться на том уравнении, где эти показатели наиболее оптимальны. [c.149]
Прогнозное значение ур определяется путем подстановки в уравнение регрессии ух =а + Ьх соответствующего (прогнозного) значения хр. Вычисляется средняя стандартная ошибка прогноза [c.9]
В линейной регрессии обычно оценивается значимость не только уравнения в целом, но и отдельных его параметров. С этой целью по каждому из параметров определяется его стандартная ошибка ть и та. [c.53]
В прогнозных расчетах по уравнению регрессии определяется предсказываемое (ур) значение как точечный прогноз ух при хр =хь т. е. путем подстановки в уравнение регрессии 5 = а + b х соответствующего значения х. Однако точечный прогноз явно не реален. Поэтому он дополняется расчетом стандартной ошибки ух, т. е. Шух, и соответственно интервальной оценкой прогнозного значения (у ) [c.57]
Чтобы понять, как строится формула для определения величин стандартной ошибки ух, обратимся к уравнению линейной регрессии ух = а + b х. Подставим в это уравнение выражение параметра а [c.57]
При прогнозировании на основе уравнения регрессии следует помнить, что величина прогноза зависит не только от стандартной ошибки индивидуального значения у, но и от точности прогноза значения фактора х. Его величина может задаваться на основе анализа других моделей исходя из конкретной ситуации, а также из анализа динамики данного фактора. [c.61]
В скобках указаны стандартные ошибки параметров уравнения регрессии. [c.327]
В скобках указаны стандартные ошибки параметров уравнения регрессии. Определим по этому уравнению расчетные значения >>, ,, а затем параметры уравнения регрессии (7.44). Получим следующие результаты [c.328]
На каждом шаге рассматриваются уравнение регрессии, коэффициенты корреляции и детерминации, F-критерий, стандартная ошибка оценки и другие оценочные показатели. После каждого шага перечисленные оценочные показатели сравниваются с [c.39]
Проблемы с методологией регрессии. Методология регрессии — это традиционный способ уплотнения больших массивов данных и их сведения в одно уравнение, отражающее связь между мультипликаторами РЕ и финансовыми фундаментальными переменными. Но данный подход имеет свои ограничения. Во-первых, независимые переменные коррелируют друг с другом . Например, как видно из таблицы 18,2, обобщающей корреляцию между коэффициентами бета, ростом и коэффициентами выплат для всех американских фирм, быстрорастущие фирмы обычно имеют большой риск и низкие коэффициенты выплат. Обратите внимание на отрицательную корреляцию между коэффициентами выплат и ростом, а также на положительную корреляцию между коэффициентами бета и ростом. Эта мультиколлинеарность делает мультипликаторы регрессии ненадежными (увеличивает стандартную ошибку) и, возможно, объясняет ошибочные знаки при коэффициентах и крупные изменения этих мультипликаторов в разные периоды. Во-вторых, регрессия основывается на линейной связи между мультипликаторами РЕ и фундаментальными переменными, и данное свойство, по всей вероятности, неадекватно. Анализ остаточных явлений, связанных с корреляцией, может привести к трансформациям независимых переменных (их квадратов или натуральных логарифмов), которые в большей степени подходят для объяснения мультипликаторов РЕ. В-третьих, базовая связь между мультипликаторами РЕ и финансовыми переменными сама по себе не является стабильной. Если же эта связь смещается из года в год, то прогнозы, полученные из регрессионного уравнения, могут оказаться ненадежными для более длительных периодов времени. По всем этим причинам, несмотря на полезность регрессионного анализа, его следует рассматривать только как еще один инструмент поиска подлинного значения ценности. [c.649]
На рисунке 16.6 явно просматривается четкая линейная зависимость объема частного потребления от величины располагаемого дохода. Уравнение парной линейной регрессии, оцененное по этим данным, имеет вид С= -217,6 + 1,007 Yf Стандартные ошибки для свободного члена и коэффициента парной регрессии равны, соответственно, 28,4 и 0,012, а -статистики — -7,7 и 81 9. Обе они по модулю существенно превышают 3, следовательно, их статистическая значимость весьма высока. Впрочем, несмотря на то, что здесь удалось оценить статистически значимую линейную функцию потребления, в ней нарушены сразу две предпосылки Кейнса — уровень автономного потребления С0 оказался отрицательным, а предель- [c.304]
Стандартные ошибки свободного члена и коэффициента регрессии равны, соответственно, 84,7 и 0,46 их /-статистики — (-21,4 и 36,8). По абсолютной величине /-статистики намного превышают 3, и это свидетельствует о высокой надежности оцененных коэффициентов. Коэффициент детерминации /Р уравнения равен 0,96, то есть объяснено 96% дисперсии объема потребления. И в то же время уже по рисунку видно, что оцененная рефессия не очень хоро- [c.320]
Эта стандартная ошибка S у, равная 0,65, указывает отклонение фактических данных от прогнозируемых на основании использования воздействующих факторов j i и Х2 (влияние среди покупателей бабушек с внучками и высокопрофессионального вклада Шарика). В то же время мы располагаем обычным стандартным отклонением Sn, равным 1,06 (см. табл.8), которое было рассчитано для одной переменной, а именно сами текущие значения уги величина среднего арифметического у, которое равно 6,01. Легко видеть, что S у tTa6n. В противном случае доверять полученной оценке параметра нет оснований. [c.139]
Для определения профиля посетителей магазинов местного торгового центра, не имеющих определенной цели (browsers), маркетологи использовали три набора независимых переменных демографические, покупательское поведение психологические. Зависимая переменная представляет собой индекс посещения магазина без определенной цели, индекс (browsing index). Методом ступенчатой включающей все три набора переменных, выявлено, что демографические факторы — наиболее сильные предикторы, определяющие поведение покупателей, не преследующих конкретных целей. Окончательное уравнение регрессии, 20 из 36 возможных переменных, включало все демографические переменные. В следующей таблице приведены коэффициенты регрессии, стандартные ошибки коэффициентов, а также их уровни значимости. [c.668]
Смотреть страницы где упоминается термин Стандартная ошибка уравнения регрессии
Маркетинговые исследования Издание 3 (2002) — [ c.650 ]
Лекции по дисциплине «Эконометрика» (заочное отделение) (стр. 2 )
![]() |
Из за большого объема этот материал размещен на нескольких страницах: 1 2 3 4 |
Параметр формально является значением Y при X = 0. Он может не иметь экономического содержания. Интерпретировать можно лишь знак при параметре . Если > 0, то относительное изменение результата происходит медленнее, чем изменение фактора. Иными словами, вариация по фактору X выше вариации для результата Y. Также считают, что включает в себя неучтенные в модели факторы.
По итогам 2008 года были собраны данные по прибыли и оборачиваемости оборотных средств 500 торговых предприятий г. Челябинска. Результаты наблюдения сведены в таблицу.
Годовая прибыль предприятия, млн. руб.
Годовая оборачиваемость оборотных средств, раз
Требуется построить зависимость прибыли предприятий от оборачиваемости оборотных средств и оценить качество полученного уравнения.
Пусть y – прибыль предприятия, x – оборачиваемость оборотных средств.
На основе исходных данных были рассчитаны следующие показатели:
Уровень доверия возьмем q=0,95 или 95%.
1. Стандартные ошибки оценок , . намного больше =0,39, следовательно, низкая точность коэффициента . очень мала по сравнению с , следовательно, высокая точность коэффициента .
2. Интервальные оценки коэффициентов уравнения регрессии.
n – 2 = 500 – 2 = 498;
α: 

β: 

3. Значимость коэффициентов регрессии.


4. Стандартная ошибка регрессии. Se=0,91, по сравнению со средним значением =34,5 ошибка невысокая, точность уравнения хорошая.
5. Коэффициент детерминации. R2 = rxy2=0,782=0,6084 не очень близко к 1, качество подгонки среднее.
6. Средняя ошибка аппроксимации. A=11%, качество подгонки уравнения среднее.
Экономическая интерпретация: при увеличении оборачиваемости оборотных средств предприятия на 1 раз в год средняя годовая прибыль увеличится на 5,86 млн. руб.
Тема 6. Нелинейная парная регрессия
Часто на практике между зависимой и независимыми переменными существует нелинейная форма взаимосвязи. В этом случае существует два выхода:
1) подобрать к анализируемым переменным преобразование, которое бы позволило представить существующую зависимость в виде линейной функции;
2) применить нелинейный метод наименьших квадратов.
Основные нелинейные регрессионные модели и приведение их к линейной форме
1. Экспоненциальное уравнение 
Если прологарифмировать левую и правую части данного уравнения, то получится

Это уравнение является линейным, но вместо y в левой части стоит ln y.
В данном случае параметр β1 имеет следующий экономический смысл: при увеличении переменной x на единицу переменная y в среднем увеличится примерно на 100·β% (более точно: y увеличится в 
2. Логарифмическое уравнение 
Переход к линейному уравнению осуществляется заменой переменной x на X=lnx..
Параметр β1 имеет следующий экономический смысл: для увеличения y на единицу необходимо увеличить переменную x в 

3. Гиперболическое уравнение 
В этом случае необходимо сделать замену переменных x на 
4. Степенное уравнение 
Прологарифмировав левую и правую части данного уравнения, получим

Заменив соответствующие ряды их логарифмами, получится линейная регрессия.
Экономический смысл параметра β1: если значение переменной x увеличить на 1%, то y увеличится на β1%.
5. Показательное уравнение 
Прологарифмировав левую и правую части уравнения, получим

Проведя замены Y=ln y и B1=ln β1, получится линейная регрессия.
Экономический смысл параметра β1: при увеличении переменной x на единицу переменная y в среднем увеличится в β1 раз.
Тема 7. Множественная линейная регрессия: определение и оценка параметров
1. Понятие множественной линейной регрессии
Модель множественной линейной регрессии является обобщением парной линейной регрессии и представляет собой следующее выражение:

где yt – значение зависимой переменной для наблюдения t,
xit – значение i-й независимой переменной для наблюдения t,
εt – значение случайной ошибки для наблюдения t,
n – число наблюдений,
m – число независимых переменных x.
2. Матричная форма записи множественной линейной регрессии
Уравнение множественной линейной регрессии можно записать в матричной форме:

где 



3. Основные предположения
2. 
3. 
4. 
В случае выполнения вышеперечисленных гипотез модель называется нормальной линейной регрессионной.
4. Метод наименьших квадратов
Параметры уравнения множественной регрессии оцениваются, как и в парной регрессии, методом наименьших квадратов (МНК): 
Чтобы найти минимум этой функции необходимо вычислить производные по каждому из параметров и приравнять их к нулю, в результате получается система уравнений, решение которой в матричном виде следующее:



5. Теорема Гаусса-Маркова
Если выполнены предположения 1-5 из пункта 3, то оценки , полученные методом наименьших квадратов, имеют наименьшую дисперсию в классе линейных несмещенных оценок, то есть являются несмещенными, состоятельными и эффективными.
Тема 8. Множественная линейная регрессия: оценка качества
1. Общая схема проверки качества парной регрессии
Адекватность модели – остатки должны удовлетворять условиям теоремы Гаусса-Маркова.
Основные показатели качества коэффициентов регрессии:
1. Стандартные ошибки оценок (анализ точности определения оценок).
2. Интервальные оценки коэффициентов уравнения регрессии (построение доверительных интервалов).
3. Значимость коэффициентов регрессии (проверка гипотез относительно коэффициентов регрессии).
Основные показатели качества уравнения регрессии в целом:
1. Стандартная ошибка регрессии Se (анализ точности уравнения регрессии).
2. Значимость уравнения регрессии в целом (проверка гипотезы относительно всех коэффициентов регрессии).
3. Коэффициент детерминации R2 (проверка качества подгонки уравнения к исходным данным).
4. Скорректированный коэффициент детерминации R2adj (проверка качества подгонки уравнения к исходным данным).
5. Средняя ошибка аппроксимации (проверка качества подгонки уравнения к эмпирическим данным).
2. Стандартные ошибки оценок
Стандартные ошибки коэффициентов регрессии – это средние квадратические отклонения коэффициентов регрессии от их истинных значений.

где



Стандартная ошибка является оценкой среднего квадратического отклонения коэффициента регрессии от его истинного значения. Чем меньше стандартная ошибка тем точнее оценка.
3. Интервальные оценки коэффициентов множественной линейной регрессии
Доверительные интервалы для коэффициентов регрессии определяются следующим образом:
1. Выбирается уровень доверия q (0,9; 0,95 или 0,99).
2. Рассчитывается уровень значимости g = 1 – q.
3. Рассчитывается число степеней свободы n – m – 1, где n – число наблюдений, m – число независимых переменных.
4. Определяется критическое значение t-статистики (tкр) по таблицам распределения Стьюдента на основе g и n – m – 1.
5. Рассчитывается доверительный интервал для параметра 

Доверительный интервал показывает, что истинное значение параметра с вероятностью q находится в данных пределах.
Чем меньше доверительный интервал относительно коэффициента, тем точнее полученная оценка.
4. Значимость коэффициентов регрессии
Процедура оценки значимости коэффициентов осуществляется аналогичной парной регрессии следующим образом:
1. Рассчитывается значение t-статистики для коэффициента регрессии по формуле 
2. Выбирается уровень доверия q ( 0,9; 0,95 или 0,99).
3. Рассчитывается уровень значимости g = 1 – q.
4. Рассчитывается число степеней свободы n – m – 1, где n – число наблюдений, m – число независимых переменных.
5. Определяется критическое значение t-статистики (tкр) по таблицам распределения Стьюдента на основе g и n – m – 1.
6. Если 
t-тесты обеспечивают проверку значимости предельного вклада каждой переменной при допущении, что все остальные переменные уже включены в модель.
5. Стандартная ошибка регрессии
Стандартная ошибка регрессии Se показывает, насколько в среднем фактические значения зависимой переменной y отличаются от ее расчетных значений

Используется как основная величина для измерения качества модели (чем она меньше, тем лучше).
Значения Se в однотипных моделях с разным числом наблюдений и (или) переменных сравнимы.
6. Оценка значимости уравнения регрессии в целом
Уравнение значимо, если есть достаточно высокая вероятность того, что существует хотя бы один коэффициент, отличный от нуля.
Имеются альтернативные гипотезы:
Если принимается гипотеза H0, то уравнение статистически незначимо. В противном случае говорят, что уравнение статистически значимо.
Значимость уравнения регрессии в целом осуществляется с помощью F-статистики.
Оценка значимости уравнения регрессии в целом основана на тождестве дисперсионного анализа:

TSS – общая сумма квадратов отклонений
ESS – объясненная сумма квадратов отклонений
RSS – необъясненная сумма квадратов отклонений
F-статистика представляет собой отношение объясненной суммы квадратов (в расчете на одну независимую переменную) к остаточной сумме квадратов (в расчете на одну степень свободы)
n – число выборочных наблюдений, m – число независимых переменных.
При отсутствии линейной зависимости между зависимой и независимой переменными F-статистика имеет F-распределение Фишера-Снедекора со степенями свободы k1 = m, k2 = n – m –1.
Процедура оценки значимости уравнения осуществляется следующим образом:
7. Рассчитывается значение F-статистики по формуле 
8. Выбирается уровень доверия q ( 0,9; 0,95 или 0,99).
9. Рассчитывается уровень значимости g = 1 – q.
10. Рассчитывается число степеней свободы n – m – 1, где n – число наблюдений, m – число независимых переменных.
11. Определяется критическое значение F-статистики (Fкр) по таблицам распределения Фишера на основе g и n – m – 1.
12. Если 
В парной регрессии F-статистика равна квадрату t-статистики: 
Качество оценки уравнения можно проверить путем расчета коэффициента детерминации R2, который показывает степень соответствия найденного уравнения экспериментальным данным.

Коэффициент R2 показывает долю дисперсии переменной y, объясненную регрессией, в общей дисперсии y.
Коэффициент детерминации лежит в пределах 0 £ R2 £ 1.
Чем ближе R2 к 1, тем выше качество подгонки уравнения к статистическим данным.
Чем ближе R2 к 0, тем ниже качество подгонки уравнения к статистическим данным.
Коэффициенты R2 в разных моделях с разным числом наблюдений и переменных несравнимы.
8. Скорректированный коэффициент детерминации R2adj
Низкое значение R2 не свидетельствует о плохом качестве модели, и может объясняться наличием существенных факторов, не включенных в модель
R2 всегда увеличивается с включением новой переменной. Поэтому его необходимо корректировать, и рассчитывают скорректированный коэффициент детерминации
Если R2adj выходит за пределы интервала [0;1], то его использовать нельзя.
Если при добавлении новой переменной в модель увеличивается не только R2, но и R2adj, то можно считать, что вклад этой переменной в повышение качества модели существенен.
9. Средняя ошибка аппроксимации
Средняя ошибка аппроксимации (средняя абсолютная процентная ошибка) – показывает в процентах среднее отклонение расчетных значений зависимой переменной от фактических значений yi
Если A ≤ 10%, то качество подгонки уравнения считается хорошим. Чем меньше значение A, тем лучше.
10. Использование показателей качества коэффициентов и уравнения регрессии для интерпретации и корректировки модели
В случае незначимости уравнения, необходимо устранить ошибки модели. Наиболее распространенными являются следующие ошибки:
— неправильно выбран вид функции регрессии;
— в модель включены незначимые регрессоры;
— в модели отсутствуют значимые регрессоры.
После устранения ошибок требуется заново оценить параметры уравнения и его качество, продолжая этот процесс до тех пор, пока качество уравнения не станет удовлетворительным. Если после поделанных процедур, мы не достигли требуемого уровня значимости, то необходимо устранять другие ошибки (спецификации, классификации, наблюдения и т. д., см. тему 3, п. 6).
11. Интерпретация множественной линейной регрессии
Коэффициент регрессии 
В апреле 2006 года были собраны данные по стоимости 200 двухкомнатных квартир в Металлургическом районе г. Челябинска, их жилой площади, площади кухни и расстоянии до центра города (пл. Революции). Результаты наблюдения сведены в таблицу.
Оценка результатов линейной регрессии
Введение
Модель линейной регрессии
Итак, пусть есть несколько независимых случайных величин X1, X2, . Xn (предикторов) и зависящая от них величина Y (предполагается, что все необходимые преобразования предикторов уже сделаны). Более того, мы предполагаем, что зависимость линейная, а ошибки рапределены нормально, то есть 
где I — единичная квадратная матрица размера n x n.
Итак, у нас есть данные, состоящие из k наблюдений величин Y и Xi и мы хотим оценить коэффициенты. Стандартным методом для нахождения оценок коэффициентов является метод наименьших квадратов. И аналитическое решение, которое можно получить, применив этот метод, выглядит так: 
где b с крышкой — оценка вектора коэффициентов, y — вектор значений зависимой величины, а X — матрица размера k x n+1 (n — количество предикторов, k — количество наблюдений), у которой первый столбец состоит из единиц, второй — значения первого предиктора, третий — второго и так далее, а строки соответствуют имеющимся наблюдениям.
Функция summary.lm() и оценка получившихся результатов
Теперь рассмотрим пример построения модели линейной регрессии в языке R:
Таблица gala содержит некоторые данные о 30 Галапагосских островах. Мы будем рассматривать модель, где Species — количество разных видов растений на острове линейно зависит от нескольких других переменных.
Рассмотрим вывод функции summary.lm().
Сначала идет строка, которая напоминает, как строилась модель.
Затем идет информация о распределении остатков: минимум, первая квартиль, медиана, третья квартиль, максимум. В этом месте было бы полезно не только посмотреть на некоторые квантили остатков, но и проверить их на нормальность, например тестом Шапиро-Уилка.
Далее — самое интересное — информация о коэффициентах. Здесь потребуется немного теории.
Сначала выпишем следующий результат: 
при этом сигма в квадрате с крышкой является несмещенной оценкой для реальной сигмы в квадрате. Здесь b — реальный вектор коэффициентов, а эпсилон с крышкой — вектор остатков, если в качестве коэффициентов взять оценки, полученные методом наименьших квадратов. То есть при предположении, что ошибки распределены нормально, вектор коэффициентов тоже будет распределен нормально вокруг реального значения, а его дисперсию можно несмещенно оценить. Это значит, что можно проверять гипотезу на равенство коэффициентов нулю, а следовательно проверять значимость предикторов, то есть действительно ли величина Xi сильно влияет на качество построенной модели.
Для проверки этой гипотезы нам понадобится следующая статистика, имеющая распределение Стьюдента в том случае, если реальное значение коэффициента bi равно 0: 
где

Теперь все готово для продолжения разбора вывода функции summary.lm().
Итак, далее идут оценки коэффициентов, полученные методом наименьших квадратов, их стандартные ошибки, значения t-статистики и p-значения для нее. Обычно p-значение сравнивается с каким-нибудь достаточно малым заранее выбранным порогом, например 0.05 или 0.01. И если значение p-статистики оказывается меньше порога, то гипотеза отвергается, если же больше, ничего конкретного, к сожалению, сказать нельзя. Напомню, что в данном случае, так как распределение Стьюдента симметричное относительно 0, то p-значение будет равно 1-F(|t|)+F(-|t|), где F — функция распределения Стьюдента с k-n-1 степенями свободы. Также, R любезно обозначает звездочками значимые коэффициенты, для которых p-значение достаточно мало. То есть, те коэффициенты, которые с очень малой вероятностью равны 0. В строке Signif. codes как раз содержится расшифровка звездочек: если их три, то p-значение от 0 до 0.001, если две, то оно от 0.001 до 0.01 и так далее. Если никаких значков нет, то р-значение больше 0.1.
В нашем примере можно с большой уверенностью сказать, что предикторы Elevation и Adjacent действительно с большой вероятностью влияют на величину Species, а вот про остальные предикторы ничего определенного сказать нельзя. Обычно, в таких случаях предикторы убирают по одному и смотрят, насколько изменяются другие показатели модели, например BIC или Adjusted R-squared, который будет разобран далее.
Значение Residual standart error соответствует просто оценке сигмы с крышкой, а степени свободы вычисляются как k-n-1.
А теперь самая важные статистики, на которые в первую очередь стоит смотреть: R-squared и Adjusted R-squared: 
где Yi — реальные значения Y в каждом наблюдении, Yi с крышкой — значения, предсказанные моделью, Y с чертой — среднее по всем реальным значениям Yi.
Начнем со статистики R-квадрат или, как ее иногда называют, коэффициента детерминации. Она показывает, насколько условная дисперсия модели отличается от дисперсии реальных значений Y. Если этот коэффициент близок к 1, то условная дисперсия модели достаточно мала и весьма вероятно, что модель неплохо описывает данные. Если же коэффициент R-квадрат сильно меньше, например, меньше 0.5, то, с большой долей уверенности модель не отражает реальное положение вещей.
Однако, у статистики R-квадрат есть один серьезный недостаток: при увеличении числа предикторов эта статистика может только возрастать. Поэтому, может показаться, что модель с большим количеством предикторов лучше, чем модель с меньшим, даже если все новые предикторы никак не влияют на зависимую переменную. Тут можно вспомнить про принцип бритвы Оккама. Следуя ему, по возможности, стоит избавляться от лишних предикторов в модели, поскольку она становится более простой и понятной. Для этих целей была придумана статистика скорректированный R-квадрат. Она представляет собой обычный R-квадрат, но со штрафом за большое количество предикторов. Основная идея: если новые независимые переменные дают большой вклад в качество модели, значение этой статистики растет, если нет — то наоборот уменьшается.
Для примера рассмотрим ту же модель, что и раньше, но теперь вместо пяти предикторов оставим два:
Как можно увидеть, значение статистики R-квадрат снизилось, однако значение скорректированного R-квадрат даже немного возросло.
Теперь проверим гипотезу о равенстве нулю всех коэффициентов при предикторах. То есть, гипотезу о том, зависит ли вообще величина Y от величин Xi линейно. Для этого можно использовать следующую статистику, которая, если гипотеза о равенстве нулю всех коэффициентов верна, имеет распределение Фишера c n и k-n-1 степенями свободы: 
Значение F-статистики и p-значение для нее находятся в последней строке вывода функции summary.lm().
Заключение
В этой статье были описаны стандартные методы оценки значимости коэффициентов и некоторые критерии оценки качества построенной линейной модели. К сожалению, я не касался вопроса рассмотрения распределения остатков и проверки его на нормальность, поскольку это увеличило бы статью еще вдвое, хотя это и достаточно важный элемент проверки адекватности модели.
Очень надеюсь что мне удалось немного расширить стандартное представление о линейной регрессии, как об алгоритме который просто оценивает некоторый вид зависимости, и показать, как можно оценить его результаты.
источники:
http://pandia.ru/text/78/101/1285-2.php
http://habr.com/ru/post/195146/
Математическая статистика — это раздел математики, посвященный методам сбора, анализа и обработки статистических данных для научных и практических целей.
Статистические данные представляют собой данные, полученные в результате обследования большого числа объектов или явлений; следовательно, математическая статистика имеет дело с массовыми явлениями.
Методы анализа массовых явлений — предмет многих научных дисциплин; но только в том случае, когда для анализа привлекаются формальные (абстрактные) математические модели, эти методы становятся статистическими.
Современная математическая статистика подразделяется на две обширные области: описательную и аналитическую статистику. Описательная статистика охватывает методы описания статистических данных, представления их в форме таблиц, распределений и пр.
Аналитическая статистика называется также теорией статистических выводов. Ее предметом является обработка данных, полученных в ходе эксперимента, и формулировка выводов, имеющих прикладное значение для самых различных областей человеческой деятельности. Теория статистических выводов тесно связана с другой математической наукой — теорией вероятностей и базируется на ее математическом аппарату.
Содержание:
Введение в математическую статистику
Трудно найти современную область научных исследований, где бы не использовались методы математической статистики. В последнее время они нашли широкое применение в медицине, биологии, социологии, и спорте, т. е. в областях, сравнительно недавно считавшихся далекими от математики.
Чтобы понять роль математической статистики, достаточно рассмотреть типичную схему эксперимента. Специалист, занимающийся исследованиями в конкретной области (воспользуемся здесь термином «исследователь», обращаясь к деятельности научного работника), который предложил новый подход к решению определенной задачи, например новую методику, должен доказать справедливость своей рабочей гипотезы. Чаще всего единственное, что он может сделать для этой цели, — провести хорошо организованный эксперимент, результаты которого убедительно доказывают его предположения.
Традиционная схема эксперимента заключается в том, что набираются две группы испытуемых: контрольная и экспериментальная, примерно одинаковые по всем факторам, имеющим важное значение для цели исследования (пол, возраст, квалификация и т. п.). Контрольная группа подготавливается по традиционной методике, а экспериментальная — с применением предлагаемых нововведений. После определенного этапа подготовки проводится контрольное обследование и по его результатам судят об эффективности предлагаемой методики.
Конечно, на этапе формирования конкретных целей и задач эксперимента исследователь не нуждается в методах математической статистики. Здесь он является специалистом в своей области и оперирует принятыми там понятиями. Но уже на этапе отбора в контрольную и экспериментальную группы ему приходится сталкиваться с целым рядом новых для него вопросов. Какова должна быть численность групп и как должны отбираться кандидаты в эти группы? Можно ли утверждать, что по уровню подготовленности спортсмены в обеих группах одинаковы или уже на этапе отбора одна из групп существенно отличается от другой?
Дело в том, что исследователь обычно хочет знать, насколько достоверно результаты эксперимента, полученные им на группах ограниченного объема, можно обобщить для всех спортсменов данной квалификации. Интуитивно он понимает, что чем больше численность групп, тем убедительнее должны быть результаты эксперимента. Но увеличение численности групп связано с возрастанием организационных, материальных, временных и других затрат, поэтому понятно стремление уменьшить эти затраты. В общем виде ответить на вопрос о достаточности групп нельзя без анализа целей эксперимента, но, как правило, в каждом конкретном случае найти решение этой задачи можно с помощью формальных методов математической статистики. При отборе претендентов в контрольную и экспериментальную группы также применяются статистические методы, позволяющие исключить предвзятость и произвол и тем самым повысить достоверность результатов.
После проведения контрольных наблюдений исследователь получает фактический материал, представляющий собой, как правило, большой объем чистовых данных. Массив этих чисел трудно обозрим, и сделать какие-то конкретные выводы непосредственно по ним невозможно. Здесь используются методы описательной статистики, позволяющие провести классификацию первичных данных, представить их в наиболее наглядной форме и получить некоторые обобщающие показатели, которые дают возможность сравнивать между собой различные данные и делать определенные выводы.
В качестве обобщающих числовых показателей используются средние значения и характеристики варьирования (рассеяния) экспериментальных данных. Получив эти показатели для контрольной и экспериментальной групп, исследователь видит, что они различаются. Но возникает следующий вопрос: насколько достоверны эти различия? Можно ли объяснить наблюдаемое различие действием предложенных нововведений или это различие — случайность, обусловленная малым объемом фактических данных и сильной вариативностью испытуемых? Здесь не обойтись без применения математических методов проверки статистических гипотез..
Перечисленными вопросами не исчерпывается круг задач, решаемых при конкретных исследованиях с использованием методов математической статистики. Очень часто целью исследования является установление наличия и степени связи между спортивным результатом и определенными показателями тренированности, между силой мышц и скоростью их сокращения, между спортивным достижением в одном и другом видах спорта и т. п. Подобные задачи решаются методами корреляционного и регрессионного анализа.
Генеральная совокупность и выборка
Экспериментальные данные обычно представляют собой результаты измерения некоторых признаков (спортивный результат. и пр.) объектов, выбранных из большой совокупности объектов.
Часть объектов исследования, определенным образом выбранная из более обширной совокупности, называется выборкой, а исходная совокупность, из которой взята выборка, — генеральной (основной) совокупностью.
Всегда необходимо четко определять, что понимается под генеральной совокупностью. Ее состав и численность зависят от объектов и целей проводимого исследования. Объектами исследования, составляющими генеральную совокупность, являются в спорте обычно отдельные спортсмены. Если, например, самостоятельной задачей является обследование лиц, поступающих в данный институт в текущем году, то генеральная совокупность — все абитуриенты института этого года. Если мы хотим получить подобные данные для всех институтов страны, то абитуриенты данного института — уже выборка из более широкой генеральной совокупности — всех абитуриентов физкультурных вузов этого года.
Исследования, в которых участвуют все без исключения объекты, составляющие генеральную совокупность, называются сплошными исследованиями. Такие исследования нетипичны для спорта, где обычно используется выборочный метод. Суть его в том, что для обследования привлекается лишь выборка из генеральной совокупности, но по результатам этого обследования судят о свойствах всей генеральной совокупности. Конечно, для этого к выборке должны предъявляться определенные требования. Эти требования, а также правила отбора объектов генеральной совокупности в выборку обсуждаются в гл. 5.
Статистическая совокупность и статистические признаки
Все объекты (элементы), составляющие генеральную совокупность, должны иметь хотя бы один общий признак, позволяющий классифицировать объекты, сравнивать их друг с другом (пол, возраст, спортивная квалификация и т. п.). Наличие общего признака является основой для образования статистической совокупности. Таким образом, статистическая совокупность представляет собой результаты описания или измерения общих признаков объектов исследования.
Если статистическая совокупность получена в результате выборочного исследования, то она называется выборочной совокупностью, или просто выборкой. Под генеральной (статистической) совокупностью тогда подразумевается совокупность всех возможных значений признака в данном исследовании.
Важнейшая характеристика выборки — объем выборки, т. е. число элементов в ней. Объем выборки принято обозначать символом n. Относительно объема генеральной совокупности, обозначаемого N, как правило, делается предположение, что он бесконечно велик, т. е. выборка получается из бесконечной генеральной совокупности.
По одним признакам элементы генеральной совокупности могут полностью совпадать, значения же других признаков изменяются от одного элемента к другому. Например, объектами исследования могут быть представители одного вида спорта, одинаковой квалификации, одного пола и возраста, но различающиеся по силе мышц, быстроте реакции, показателям систем дыхания и кровообращения и т. д. Предметом изучения в статистике являются именно изменяющиеся (варьирующие) признаки, которые иногда называют статистическими признаками. Они делятся на качественные и количественные.
Качественные признаки — это признаки, которыми объект обладает либо не обладает. Они не поддаются непосредственному измерению (например, спортивная специализация, квалификация, национальность, территориальная принадлежность и т. п.).
Количественные признаки представляют собой результаты подсчета или измерения. В соответствии с этим они делятся на дискретные и непрерывные.
Дискретные признаки могут принимать лишь отдельные значения из некоторого ряда чисел, например число подтягиваний на перекладине, число попаданий и промахов при серии выстрелов и т. п.
Непрерывные признаки могут принимать любые значения в определенном интервале. Например, время прохождения дистанции, скорость движения, угол в суставе.
Отдельные числовые значения варьирующего признака называются вариантами. Варианты принято обозначать строчными латинскими буквами из конца алфавита: х, у, z.
Причины варьирования признаков
Признаки варьируют под воздействием большого числа различных факторов. Лишь небольшую часть этих факторов удается контролировать в процессе исследования. Пусть, например, изучаемым признаком в нашем исследовании является спортивный результат в каком-либо виде спорта. Основные факторы, определяющие спортивный результат испытуемых, нам известны (контролируются), в противном случае наше исследование лишено смысла. К числу контролируемых факторов относятся пол, возраст, спортивная квалификация, программа специальной подготовки и ряд других. Но всегда остается большое число факторов, не поддающихся контролю (влияние погодных условий, эмоциональное состояние испытуемых, мотивация и т. п.). Предсказать влияние таких неучтенных факторов на спортивный результат невозможно, поэтому наблюдаемые значения результатов оказываются случайными, а факторы, обусловливающие случайное поведение изучаемого признака, называются случайными факторами. Все перечисленные факторы (контролируемые и случайные) естественным образом определяют значение спортивного результата, поэтому их можно назвать естественными причинами варьирования результатов.
Помимо естественных причин варьирования результатов на их значения оказывают влияние ошибки измерения, которые складываются из систематических погрешностей измерительных приборов, личных ошибок исследователя (описки, пропуски и т. п.) и случайных ошибок измерения. Природа и величина случайных ошибок могут быть различными в зависимости от физических принципов, используемых в измерительных приборах. Систематические приборные погрешности могут быть в принципе уменьшены до пренебрежимо малого уровня с помощью совершенных измерительных средств. Личные ошибки исследователя зависят от его опыта и внимания и принципиально также могут быть исключены.
Случайные ошибки остаются и вместе с естественными факторами варьирования сказываются на значениях признака.
Однако, как правило, в практике спортивных измерений случайные ошибки измерения существенно меньше величины естественного варьирования признака, поэтому будем считать, что варьирование результатов измерения признака обусловлено только естественным варьированием изучаемого признака.
Эмпирические распределения
В этой лекции рассматриваются методы построения эмпирических распределений, т. е. распределений элементов выборки по значениям изучаемого признака. Построение эмпирических распределений — необходимый этап применения статистических методов.
Здесь и далее выборочные исследования будем называть «эксперимент». При рассмотрении конкретных примеров суть эксперимента будет поясняться. Выборочные данные, полученные в ходе эксперимента, будут соответственно экспериментальными (эмпирическими) данными.
По эмпирическим данным, представляющим собой выборку из некоторой генеральной совокупности, оцениваются параметры, позволяющие описать всю генеральную совокупность, определяется интервал, в котором с заданным уровнем доверия находится истинное значение оцениваемого параметра, а затем проверяются те или иные утверждения и делаются выводы о свойствах всей генеральной совокупности.
Эти методы будут рассмотрены в последующих лекциях, и, как мы увидим, их применение всегда связано с выбором подходящей математической модели для описания свойств генеральной совокупности. Правомерность использования любого статистического метода основана на предположении, что генеральная совокупность соответствует выбранной математической модели. Это предположение должно быть сделано до проведения эксперимента, однако, как правило, для обоснованного предположения не хватает информации, и тогда выбор математической модели производится на основе построения и анализа эмпирических распределений. Поэтому необходимо прежде всего уметь строить эмпирические распределения, чтобы правильно применять методы математической статистики.
Табличное представление экспериментальных данных. Вариационные ряды
Как правило, необработанные (первичные) экспериментальные данные представлены в виде неупорядоченного набора чисел, записанных исследователем в порядке их поступления. Этот набор данных трудно обозрим, и сделать по ним какие-то выводы невозможно. Поэтому первичные данные нуждаются в обработке, которая всегда начинается с их группировки.
Группировка представляет собой процесс систематизации, или упорядочения, первичных данных с целью извлечения содержащейся в них информации. Группировка выполняется различными методами в зависимости от целей исследования, вида изучаемого признака и количества экспериментальных данных (объема выборки), но наиболее часто группировка сводится к представлению данных в виде статистических таблиц.
Рассмотрим группировку на конкретном примере.
В табл. 2.1 приведены экспериментальные данные, представляющие собой результаты в беге на 100 м, показанные группой школьников — юношей IX классов (50 человек).
В этом примере выборка представляет собой 50 измеренных значений признака (результатов в беге на 100 м), т.е. объем выборки n =50. Как видим, уже при таком сравнительно небольшом объеме выборки таблица исходных данных становится трудно обозримой, поэтому и используется группировка как прием систематизации экспериментальных данных.
Группировка заключается в распределении вариант выборки по группам, или интервалам группировки, каждый из которых содержит некоторый диапазон значений изучаемого признака.
Первая задача, которую необходимо решить при группировке, состоит в том, чтобы разбить весь диапазон варьирования признака в выборке (между минимальной й максимальной вариантами выборки) на интервалы группировки. Эта задача требует определения числа интервалов группировки и ширины каждого из них. Обычно предпочтительны интервалы одинаковой ширины, а при выборе числа интервалов исходят из следующих соображений.
Группировка производится для того, чтобы построить эмпирическое распределение и сформировать с его помощью предположения о форме распределения изучаемого признака в генеральной совокупности, из которой взята выборка.
При увеличении числа интервалов группировки и, следовательно, при сужении каждого из них уменьшается число экспериментальных данных, попадающих в каждый интервал. Поскольку выборочные значения случайны, они случайным образом распределяются по интервалам группировки, поэтому картина эмпирического распределения будет содержать много случайных деталей, что мешает установить общие закономерности варьирования признака.
И наоборот, при чрезмерно широких интервалах группировки нельзя получить детальной картины распределения, поэтому возникает опасность упустить важные закономерные подробности формы распределения.
Поэтому вопрос о выборе числа и ширины интервалов группировки приходится решать в каждом конкретном случае исходя из целей исследования, объема выборки и степени варьирования признака в выборке. Однако приближенно число интервалов k можно оценить исходя только из объема выборки n. Делается это одним из следующих способов:
1) по формуле Стерджеса:
2) с помощью табл. 2.2.
Вернемся к нашему примеру и воспользуемся рекомендациями табл. 2.2 для выбора числа интервалов группировки. Для объема выборки n = 50 принимаем k — 7. Заметим, что расчет по формуле Стерджеса дает k = 6,6.
Если число интервалов выбрано, то ширина каждого из них определяется по следующей формуле:
где h — ширина интервалов;

Для рассматриваемого примера
Поскольку исходные данные определены с точностью 0,1 с, то нет никакого смысла в более точном вычислении h, поэтому округлим найденное значение ширины интервалов с учетом требуемой точности. Обычно округление производится в сторону увеличения, чтобы не уменьшать общий диапазон варьирования признака. С учетом этих замечаний принимаем h = 0,8 с.
Теперь остается наметить границы интервалов группировки. Нижняя граница первого интервала выбирается так, чтобы минимальная варианта выборки 
О 8
Для нашего примера
Прибавив к этой величине ширину интервала, найдем нижнюю границу второго интервала

Аналогично находим 
После того как намечены границы всех интервалов, остается распределить по этим интервалам выборочные варианты. Однако при этом возникает следующий вопрос: как поступать в тех случаях, если какая-либо из вариант попадает точно на границу соседних интервалов группировки, т. е. варианта совпадает с нижней границей одного и верхней границей соседнего с ним интервала? Такие варианты могут быть с одинаковыми основаниями отнесены к любому из соседних интервалов, и, чтобы исключить неопределенность такой ситуации, уменьшим верхние границы всех интервалов на величину, равную точности измерения признака (в нашем примере на 0,1 с).
Для удобства последующей обработки сгруппированных данных вычислим срединные значения интервалов группировки 
где 

Теперь можно приступать к заполнению статистической таблицы. Для этого заготовим таблицу, состоящую из 8 столбцов, назначение которых поясним по ходу изложения (табл. 2.3).
Заполняем вначале 3 первых столбца таблицы. В первом столбце содержится номер интервала группировки, во втором —.границы, а в третьем — срединные значения интервалов.
Далее на основании таблицы первичных данных (см. табл. 2.1) заполняем четвертый столбец. Этот столбец необязателен, но он обеспечивает удобство составления статистической таблицы и позволяет избежать возникающих при этом ошибок. Его назначение в том, чтобы упростить распределение вариант выборки по интервалам группировки. Имея перед собой таблицу исходных данных (табл. 2.1), условными значками, например черточками, отмечаем повторяемость вариант в каждом интервале, т. е. по порядку для каждого из чисел, представленных в таблице исходных данных, ставим условный значок в строке табл. 2.3, соответствующей интервалу группировки, в который это число попадает. Для удобства последующего подсчета условные значки по мере накопления объединяем в группы (в табл. 2.3 принято объединение в группы по 5).
После того как исходные данные будут исчерпаны, остается подсчитать число условных значков в каждой строке табл. 2.3. Получившиеся числа записываем в пятый столбец таблицы. Они имеют в статистике определенное название. Числа, показывающие, сколько раз варианты, относящиеся к каждому интервалу группировки, встречаются в выборке, называются частотами интервалов.
Обозначим частоты символом 
Прежде чем продолжить заполнение статистической таблицы, дадим ряд определений.
Накопленная частота интервала — это число, полученное последовательным суммированием частот в направлении от первого интервала к последнему, до того интервала включительно, для которого определяется накопленная частота. Накопленные частоты обозначим
Частостью (относительной частотой) называется отношение частоты к объему выборки. Обозначим частости символом
Накопленной частостью называется отношение накопленной частоты к объему выборки.
Обозначив накопленную частность как 
Сумма всех частостей всегда равна 1.
Накопленные частоты для рассматриваемого примера приведены в столбце 6 табл. 2.3, частости — в столбце 7, а накопленные частости — в столбце 8.
Следует отметить, что в таком полном виде статистическая таблица необходима далеко не всегда. Часто бывает достаточным ограничиться подсчетом частот. Но остальные данные 
Табличное представление данных о результатах в беге на 100 м
В заключение этого раздела дадим очень важное определение вариационного ряда.
Вариационным рядом называется двойной числовой ряд, показывающий, каким образом численные значения изучаемого признака связаны с их повторяемостью в выборке. Вариационные ряды имеют большое значение при статистической обработке экспериментальных данных, поскольку дают наглядное представление о характерных особенностях варьирования признака.
Вариационные ряды бывают интервальными и безынтервальными.
В интервальном вариационном ряду частоты (или частости), характеризующие повторяемость вариант в выборке, распределяются по интервалам группировки. В рассмотренном выше примере интервальный вариационный ряд представлен столбцами 3 и 5 (или 3 и 7) табл. 2.3. Интервальный вариационный ряд строится, если изучаемый признак варьирует непрерывно, но используется и для дискретно варьирующих признаков в тех случаях, когда признак варьирует в широких пределах.
В безынтервальном вариационном ряду частоты (или частости) распределяются непосредственно по значениям варьирующего признака. Для построения безынтервального вариационного ряда необходимо варианты выборки расположить в порядке возрастания или убывания (проранжировать) и затем подсчитать, сколько раз каждая из них встречается в выборке. Безынтервальный вариационный ряд применяется в тех случаях, когда исследуемый признак варьирует дискретно и слабо.
Пусть, например, при подсчете количества подтягиваний на перекладине для группы испытуемых получены данные, значения которых лежат в диапазоне от 10 до 15. Таким образом, данная выборка содержит всего шесть вариант: 10, 11, 12, 13, 14, 15. В этом случае сами варианты играют роль интервалов группировки и остается только подсчитать, сколько раз каждая из них встречается в выборке.
Графическое представление экспериментальных данных
Для повышения наглядности эмпирических распределений используется их графическое представление. Наиболее распространенными способами графического представления являются гистограмма, полигон частот и полигон накопленных частот (кумулята).
Гистограмма
Гистограмма используется для графического представления распределений непрерывно варьирующих признаков и состоит из примыкающих друг к другу прямоугольников, как показано на рис. 2.1. Основание каждого прямоугольника равно ширине интервала группировки, а высота его такова, что площадь прямоугольника пропорциональна частоте (или частости) попадания в данный интервал. Таким образом, высоты прямоугольников должны быть пропорциональны величинам
где 


На графике гистограммы основание прямоугольников откладывается по оси абсцисс (х), а высота — по оси ординат (у) прямоугольной системы координат.
Однако в тех случаях, когда ширина всех интервалов группировки одинакова, вид гистограммы не изменится, если по оси ординат откладывать не величины 
На рис. 2.1, а представлена гистограмма распределения результатов в беге на 100 м, построенная по данным табл. 2.3. При группировке в табл. 2.3 были приняты интервалы одинаковой ширины, поэтому на гистограмме по оси ординат отложены частоты интервалов 
Продемонстрируем построение гистограммы для случаев, когда ширина некоторых интервалов группировки неодинакова. Объединим в табл. 2.3 два интервала, имеющих границы (14,8—15,6) и (15,6—16,4). Ширина такого объединенного интервала будет вдвое больше ширины остальных интервалов. Поэтому, чтобы не нарушить принцип построения гистограммы (площади прямоугольников пропорциональны частотам интервалов), по оси ординат уже нельзя откладывать частоты, а высоты прямоугольников должны быть пропорциональны отношениям
Полигон частот
Другим распространенным способом графического представления является полигон частот.
Полигон частот образуется ломаной линией, соединяющей точки, соответствующие срединным значениям интервалов группировки и частотам этих интервалов,
Срединные значения откладываются по оси х, а частоты — по оси у.
Из сравнения двух рассмотренных способов графического представления эмпирических распределений следует, что для получения полигона частот из построенной гистограммы нужно середины вершин прямоугольников, образующих гистограмму, соединить отрезками прямых. Полигон частот для рассмотренного выше примера с результатами в беге на 100 м (данные табл. 2.3) представлен на рис. 2.2.
Полигон частот используется для представления распределений как непрерывных, так и дискретных признаков. В случае непрерывного распределения полигон частот является более предпочтительным способом графического представления, чем гистограмма, если график эмпирического распределения описывается плавной зависимостью.
Полигон накопленных частот
Полигон накопленных частот (к у м у-л я т а) получается при соединении отрезками прямых точек, координаты которых соответствуют верхним границам интервалов группировки и накопленным частотам. Если по оси ординат откладывать накопленные частости, то полученный график называется полигоном на. полигон накопленных частот результатов в беге на 100 м (данные табл. 2.3) приведен на рис. 2.3.
На практике полигон накопленных частот используется в основном для представления дискретных данных. Ему свойственна более плавная форма, чем у гистограммы или полигона частот.
Данное свойство и позволяет иногда отдавать предпочтение этому способу графического представления эмпирических распределений.
Числовые характеристики выборки
Вариационные ряды и графики эмпирических распределений дают наглядное представление о том, как варьирует признак в выборочной совокупности. Но они недостаточны для полной характеристики выборки, поскольку содержат много деталей, охватить которые невозможно без применения обобщающих числовых характеристик.
Числовые характеристики выборки дают количественное представление об эмпирических данных и позволяют сравнивать их между собой. Наибольшее практическое значение имеют характеристики положения, рассеяния и асимметрии эмпирических распределений.
В этой лекции рассматриваются характеристики положения и рассеяния, а также практические методы их вычисления. Характеристики асимметрии будут рассмотрены в гл. 6 применительно к проверке гипотез о виде распределения генеральной совокупности.
Характеристики положения
В этом разделе рассмотрены характеристики положения, определяющие положение центра эмпирического распределения. Чаще всего употребляются такие характеристики положения, как среднее арифметическое, медиана и мода.
Среднее арифметическое
Среднее арифметическое, или просто среднее, — одна из основных характеристик выборки. Оно представляет собой такое значение признака, сумма отклонений от которого выборочных значений признака равна нулю (с учетом знака отклонения).
Если воспользоваться геометрической интерпретацией, то среднее арифметическое можно определить как точку на оси х, которая является абсциссой центра масс гистограммы.
Среднее принято обозначать той же буквой, что и варианты выборки, с той лишь разницей, что над буквой ставится символ усреднения — черта. Например, если обозначить исследуемый признак через X, а его числовые значения — через 
Среднее арифметическое, как и другие числовые характеристики выборки, может вычисляться как по необработанным первичным данным, так и по результатам группировки этих данных. Точность вычисления по необработанным данным всегда выше, но процесс вычисления оказывается трудоемким при большом объеме выборки.
Для несгруппированных данных среднее арифметическое определяется по следующей формуле:
где n — объем выборки; 


Если данные сгруппированы, то
где n — объем выборки; k — число интервалов группировки;

Среднее арифметическое, вычисленное по формуле (3.2), называют также взвешенным средним, подчеркивая этим, что в формуле (3.2) 
Пример 3.1.
В качестве одного из тестов для оценки уровня физической подготовленности студентов 1-го курса технического вуза были выбраны прыжки в длину с места. Результаты контрольной группы студентов в количестве 15 человек оказались следующими (в см):
- 212 223 225 208 230 216 241 202
- 235 225 228 252 237 246 219
Требуется определить средний результат в контрольной группе.
По формуле (3.1) находим
В приведенном примере значение среднего арифметического вычислено приближенно, с округлением до значащей цифры, соответствующей точности измерения признака. Вопрос о том, с какой же точностью необходимо вычислять среднее, здесь подробно рассматривать не будем.).
Пример 3.2.
Вычислим среднее арифметическое результатов в беге на 100 м для экспериментальных данных, сгруппированных в табл. 2.3. Для наглядности промежуточные результаты расчетов приведены в табл. 3.1.
Среднее, рассчитанное по формуле (3.2), оказывается равным
Медиана
Медианой (Me) называется такое значение признака X, когда одна половина значений экспериментальных данных меньше ее, а вторая половина — больше.
Собственно, этим и ограничивается смысловое значение медианы. Широкое использование этой характеристики на практике объясняется простотой ее вычисления и независимостью от формы распределения эмпирических данных.
Если данных немного (объем выборки невелик), медиана вычисляется очень просто. Для этого выборку ранжируют, т. е. располагают данные в порядке возрастания или убывания, и в ранжированной выборке, содержащей n членов, ранг R (порядковый номер) медианы определяется как
Пусть, например, имеется ранжированная выборка, содержащая нечетное число членов n = 9: 12 14 14 18 20 22 22 26 28. Тогда ранг медианы и медиана, обозначаемая символом Me, совпадает с пятым членом ряда: Me = 20.
Если выборка содержит четное число членов, то медиана не может быть определена столь однозначно. Например, получен ряд из 10 членов: 6 8 10 12 14 16 18 20 22 24.
Ранг медианы оказывается равным
Медианой в этом случае может быть любое число между 14 и 16 (5-м и 6-м членами ряда). Для определенности принято считать в качестве медианы среднее арифметическое этих значений, т. е.
Если необходимо найти медиану для сгруппированных данных, то поступают следующим образом.
Вначале находят интервал группировки, в котором содержится медиана, путем подсчета накопленных частот или накопленных частостей. Медианным будет тот интервал, в котором накопленная частота впервые окажется больше n/2 (n — объем выборки) или накопленная частость — больше 0,5. Внутри медианного интервала медиана определяется по следующей формуле:
где 



В качестве примера найдем медиану для экспериментальных данных, представленных в табл. 2.3. Медиана содержится в интервале (14,8; 15,6), которому соответствует накопленная частота 27 n/2 = 25. По формуле (3.3) находим
Определив медиану, мы тем самым нашли, что в группе испытуемых одна половина бегунов показала результат лучше 15,5 с, а другая — хуже.
Как видим, медиана несколько отличается от ранее найденного среднего арифметического. Так бывает всегда, когда имеет место несимметричная форма эмпирического распределения.
Для тех случаев, когда эмпирическое распределение оказывается сильно асимметричным, среднее арифметическое теряет свою практическую ценность, поскольку при этом значительно большая часть значений признака оказывается выше или ниже среднего арифметического. В этой ситуации медиана представляет собой лучшую характеристику центра распределения.
Мода
Мода (Мо) представляет собой значение признака, встречающееся в выборке наиболее часто.
Интервал группировки с наибольшей частотой называется модальным.
Для определения моды используется следующая формула:
где 



Для данных табл. 2.3 имеем:

На рис. 3.1 представлена гистограмма распределения результатов в беге на 100 м с нанесенными на нее средним арифметическим, медианой и модой. Из приведенного графика видно, что указанные характеристики положения отличаются друг от друга. Это свидетельствует об асимметрии эмпирического распределения. Вообще, среднее, медиана и мода совпадают только в том случае, если распределение унимодальное (с одним максимумом) и симметричное. Чем больше распределение отличается от симметричного, тем сильнее различие между этими характеристиками.
Характеристики рассеяния
Средние значения не дают полной информации о варьирующем признаке. Нетрудно представить себе два эмпирических распределения, у которых средние одинаковы, но при этом у одного из них значения признака рассеяны в узком диапазоне вокруг среднего, а у другого — в широком. Поэтому наряду со средними значениями вычисляют и характеристики рассеяния выборки. Рассмотрим наиболее употребительные из них.
Размах вариации
Размах вариации вычисляется как разность между максимальной и минимальной вариантами выборки:
Как видим, размах вычисляется очень просто, и в этом его главное и единственное достоинство. Информативность этого показателя невелика. Можно привести очень много распределений, сильно отличающихся по форме, но имеющих одинаковый размах. Не будем здесь подробно останавливаться на особенностях применения данного показателя, укажем лишь, что размах вариации используется иногда в практических исследованиях при малых (не более 10) объемах выборки. Например, по размаху вариации легко оценить, насколько различаются лучший и худший результаты в группе спортсменов. При больших объемах выборки к его использованию надо относиться с осторожностью.
Дисперсия и стандартное отклонение
Дисперсия и стандартное отклонение являются важнейшими характеристиками рассеяния.
Дисперсией называется средний квадрат отклонения значений признака от среднего арифметического. Дисперсия, вычисляемая по выборочным данным, называется выборочной дисперсией и обознача-ется
Выборочную дисперсию вычисляют по приведенным ниже формулам:
Для несгруппированных даных:
В этой формуле 
Для сгруппированных в интервальный вариационный ряд данных:
Здесь 
а

На практике выборочная дисперсия в виде (3.5) или (3.6) вычисляется редко, а вместо этих формул используются следующие.
Для несгруппированных данных:
Для данных, сгруппированных в интервалы:
Различие этих формул лишь в том, что в последних деление сумм квадратов отклонений производится не на объем выборки п, как того требует вычисление среднего квадрата, а на n — 1. Смысл этого уточнения будет ясен из гл. 5 (см. замечание 1 к гл. 5).
Стандартным отклонением (или средним квадратическим отклонением) называется положительный корень квадратный из дисперсии:
Размерность стандартного отклонения в отличие от размерности дисперсии совпадает с единицами измерения варьирующего признака, поэтому в практической статистике для характеристики рассеяния используют обычно стандартное отклонение, а не дисперсию.
Вычисление дисперсии и стандартного отклонения непосредственно по формулам (3.7) — (3.9) неудобно по следующим причинам:
- При вычислении суммы квадратов отклонений приходится каждый раз вычитать из значений признака (или срединных значений интервалов)
предварительно вычисленное х, а затем возводить полученные разности в квадрат. При ручных методах вычислений это вызывает трудности, особенно в случаях многоразрядных значений xi.
- Среднее арифметическое
, входящее в эти формулы, обычно вычисляется с некоторой погрешностью округления. Она приводит к накоплению ошибки округления результатов (дисперсии и стандартного отклонения). Опасность существенных ошибок округления увеличивается с увеличением объема выборки.
Поэтому на практике используют другие расчетные формулы, более удобные как для ручных расчетов, так и для вычислений на ЭВМ.
Для несгруппированных данных
или
Соответственно, если данные сгруппированы
Приведенные формулы легко получаются из исходных выражений (3.7), (3.8), если в последних раскрыть квадрат разности под знаком суммы. Читателю предлагается проверить справедливость формул (3.10) — (3.13) самостоятельно.
Формулы (3.10) и (3.12) применяются для определения дисперсии, если среднее арифметическое уже вычислено. При этом следует иметь в виду, что при подстановке х в эти формулы его значение не следует округлять, иначе результат может получиться с большой ошибкой.
Формулы (3.11) и (3.13) используются в тех случаях, когда среднее и дисперсия вычисляются одновременно.
Пример 3.3.
Рассмотрим вначале пример вычисления характеристик рассеяния по несгруппированным первичным данным. Воспользуемся данными примера 3.1 и найдем дисперсию и стандартное отклонение результатов в прыжках в длину с места для контрольной группы студентов.
Таблица 3.3
По формуле (3.11) получаем:
Стандартное отклонение составит:
Промежуточные расчеты приведены в табл. 3.3.
Пример3.4
В качестве примера расчета для сгруппированных данных найдем дисперсию и стандартное отклонение результатов в беге на 100 м по данным табл. 2.3.
Взвешенная сумма квадратов срединных значений интервалов группировки на основании расчетов в табл. 3.4 составит:
Взвешенная сумма срединных значений 

Коэффициент вариации
Стандартное отклонение выражается в тех же единицах измерения, что и характеризуемый им признак. Если требуется сравнить между собой степень варьирования признаков, выраженных в разных единицах измерения, возникают определенные неудобства. Пусть, например, результаты в беге на 100 м, показанные группой IX классов, имеют стандартное отклонение 0,9 с (данные примера 3.4), а исследование роста тех же учащихся показывает, что его стандартное отклонение составляет 6 см (при среднем росте 168 см). Какой из признаков варьирует сильнее? Очевидно, что только на основании сравнения стандартных отклонений на этот вопрос ответить нельзя. Требуется сопоставить стандартные отклонении со средними арифметическими этих признаков. Поэтому вводится относительный показатель называемый коэффициентом вариации.
Обычно он выражается в процентном отношении:
Коэффициент вариации является относительной мерой рассеяния признака.
Для рассматриваемых примеров:
Как видим, результаты в беге на основании полученных выборочных данных варьируют сильнее, чем рост учащихся.
Коэффициент вариации используется и как показатель однородности выборочных наблюдений. По данным 18], считается, что если коэффициент вариации не превышает 10%, то выборку можно считать однородной, т. е. полученной из одной генеральной совокупности.
Однако к использованию коэффициента вариации нужно подходить с осторожностью. Продемонстрируем возможные ошибки на следующем примере. Если на основании многолетних наблюдений среднее арифметическое среднесуточных температур 8 марта составляет в какой-либо местности 0°С, то по формуле (3.14) получим бесконечный коэффициент вариации независимо от разброса температур. Поэтому в данном случае коэффициент вариации не применим в качестве показателя рассеяния температур, а специфику явления более объективно оценивает стандартное отклонение S.
Коэффициент вариации можно использовать как относительную меру рассеяния только в тех случаях, когда значения признака измерены в шкале с абсолютным нулем.
Практически коэффициент вариации применяется в основном для сравнения выборок из однотипных генеральных совокупностей.
Упрощенные методы вычисления среднего арифметического, дисперсии и стандартного отклонения
В тех случаях, когда экспериментальные данные х, представлены большим числом значащих цифр, вычисление среднего арифметического, и особенно дисперсии и стандартного отклонения, усложняется наличием громоздких операций над многоразрядными числами (см. примеры 3.3 и 3.4). Конечно, эти трудности становятся несущественными, если для статистических расчетов применяются ЭВМ. Но в тех случаях, когда возникает необходимость в ручных вычислениях, полезно помнить элементарные правила, позволяющие существенно упростить расчеты. Кроме того, рассмотренные ниже методы позволяют упростить обработку данных и при использовании вычислительных средств за счет упрощения процедуры ввода данных с клавиатуры ЭВМ или калькулятора. Это уменьшает затраты времени и число допускаемых при вводе ошибок.
Эти методы основаны на следующих математических свойствах среднего арифметического и дисперсии.
1. Если вычесть из всех выборочных значений 


и найти среднее арифметическое 



Следовательно, можно вместо непосредственного определения выборочных характеристик х и 






Смысл предварительного преобразования исходных данных



2. Если разделить выборочные значения х-, на постоянный коэффициент С, т. е. использовать преобразование



Этот прием во многих случаях позволяет упростить вычисления, если удается путем деления на постоянный коэффициент преобразовать исходные данные в целые числа или уменьшить разрядность исходных данных. Пусть, например, исходные данные измерены с точностью 0,5 единицы (…11,5, 12,0, 12,5 13,5…). Тогда естественным упрощением будет деление этих значений на С = = 0,5, в результате чего получим преобразованные данные (… 23 24 25 27…), оперировать которыми проще.
3. Иногда полезным оказывается совместное использование двух рассмотренных выше приемов, например, преобразование вида: В этом случае
Такое преобразование исходных данных всегда позволяет достичь существенного упрощения, если выборочные среднее арифметическое и дисперсия вычисляются по сгруппированным в интервальный вариационный ряд данным. В качестве условного среднего 

где


Пример 3.5.
Определим методом условного среднего среднее арифметическое и стандартное отклонение результатов в прыжках в длину с места, показанных контрольной группой студентов I курса (данные примера 3.1). Для этого ранжируем исходные данные, располагая их в порядке возрастания (столбец 2 табл. 3.5).
Та6лица 3.5 Вычисление среднего арифметического и дисперсии результатов в прыжках в длину с места методом условного среднего
Расчет среднего арифметического и дисперсии результатов в беге на 100 м методом условного среднего
В качестве условного среднего выбираем значение 
По формулам (3.15) и (3.16) находим:
Отсюда стандартное отклонение
Промежуточные расчеты приведены в табл. 3.5. Разумеется, получены те же значения выборочных характеристик, что и в примерах 3.1 и 3.3 при вычислении прямым методом, но сравнение табл. 3.5 с табл. 3.3 показывает, что промежуточные вычисления упростились.
Пример 3.6.
Продемонстрируем применение упрощенных методов для сгруппированных в интервальный вариационный ряд данных. Воспользуемся приведенными выше в примерах 3.2 и 3.4 данными о результатах в беге на 100 м группы школьников.
На основании приведенных в п. 3 настоящего раздела рекомендаций выбираем условное среднее 
По формулам (3.21) и (3.22) находим:
Промежуточные расчеты приведены в табл. 3.6 и наглядно демонстрируют упрощение, достигаемое при использовании метода условного среднего (сравните с табл. 3.2 и 3.4).
Задачи к гл. 2.3
1. Ниже приведены результаты (в см), показанные группой школьников (70 человек) в тесте «Прыжок в высоту с места».
A. Выполните группировку данных при числе интервалов группировки к = 8, используя рекомендации гл. 2; для исключения неопределенности при распределении вариант, приходящихся на границы интервалов группировки, верхние границы интервалов уменьшаются на величину, равную точности измерения признака.
Б. Сгруппируйте данные, увеличив для исключения указанной неопределенности нижние границы интервалов группировки на величину, равную точности измерения.
B. Постройте для обоих методов группировки гистограмму, полигон частот и полигон накопленных частот. Наблюдается ли различие в форме распределений?
Г. Определите для двух случаев группировки среднее арифметическое и стандартное отклонение. Прокомментируйте результаты, полученные в п.п. «А», и «Г».
2. Ниже приведены результаты (в см) измерения длины бегового шага для 43 спринтеров в зоне 20 м от линии финиша на дистанции 100 м:
А. Составьте интервальный вариационный ряд, постройте гистограмму, полигон частот и полигон накопленных частот.
Б. Найдите среднее арифметическое и стандартное отклонение прямым методом и методом условного среднего с помощью преобразования исходных данных: 
3. Группа юных спортсменов в количестве 50 человек для оценки уровня общефизической подготовки тестировалась но числу подтягиваний на перекладине. Результаты распределились следующим образом:
А. Постройте полигон частот и полигон накопленных частот.
Б. Определите среднее арифметическое и стандартное отклонение прямым методом и методом условного среднего с помощью преобразования:
4. Ниже приведены результаты (в мл) исследования жизненной емкости легких (ЖЕЛ) 20 школьников:
Определите среднее арифметическое и стандартное отклонение результатов прямым методом и методом условного среднего.
5. Найдите Me и Мо по данным задач 2 и 3.
6. Ниже приведены результаты (в кГ), показанные группой студентов (65 человек), динамометрии правой руки.
А. Найдите среднее арифметическое и медиану для представленных данных. Какие выводы о форме распределения можно сделать из сопоставления среднего и медианы?
Б. Постройте гистограмму распределения. Рассчитайте коэффициент вариации. Какие предположения можно сделать относительно однородности выборки (однородности состава обследуемой группы студентов)?
Элементы теории вероятностей
В предыдущих двух лекциях были рассмотрены эмпирические распределения и методы вычисления их числовых характеристик. Но обработка экспериментальных данных не ограничивается рассмотренными методами. Обычно исследователь, получив данные эксперимента на одной или нескольких группах испытуемых и определив по ним некоторые обобщающие числовые характеристики (среднее, стандартное отклонение и др.), пытается найти ответ на следующие вопросы: насколько точно полученные результаты можно обобщить для более широкой совокупности (например, на всех спортсменов данного возраста и квалификации)? Как хорошо его данные согласуются с данными других исследователей? Насколько достоверно различие экспериментальных данных, полученных в разных группах испытуемых или в одной и той же группе, но в разные промежутки времени? Существует ли связь между различными признаками, изучаемыми в проводимом исследовании, и если да, то насколько она сильна?
В ряде случаев исследователь пытается установить некую экспериментальную зависимость между изучаемыми признаками, чтобы по значениям одного из них, легко поддающегося измерению, установить значение другого, измерить который трудно или невозможно.
Конечно, в зависимости от целей конкретного исследования задачи могут быть различными и не ограничиваются приведенным перечнем.
Методы математической статистики, с помощью которых можно получить ответы на поставленные выше вопросы, рассматриваются в гл. 5—7. Чаще всего эти методы основаны на использовании тех или иных согласующихся с условиями проводимого эксперимента математических моделей, разработанных теорией вероятностей.
В данной лекции рассматриваются некоторые ее элементарные. положения в том минимальном объеме, который необходим для дальнейшего изложения.
Статистический подход к определению вероятности
Испытание, событие, случайная величина
Под испытанием (случайным испытанием) в теории вероятностей принято понимать наблюдение какого-либо явления при соблюдении определенного комплекса условий, который должен каждый раз строго выполняться при повторении данного испытания. Если то же самое явление наблюдается при другом комплексе условий, то это уже другое испытание.
Результаты испытаний можно охарактеризовать качественно и количественно.
Качественная характеристика заключается в регистрации какого-либо явления, которое может наблюдаться или не наблюдаться при данном испытании. Любое из этих явлений называется в теории вероятностей событием.
Когда речь идет о соблюдении комплекса условий данного испытания, имеется в виду постоянство значений всех факторов, контролируемых в данном испытании. Но при этом, как правило, имеет место большое число неконтролируемых факторов, которые трудно или невозможно учесть. Значения неконтролируемых факторов могут быть различными при каждом повторении испытания, поэтому результаты испытания оказываются случайными. Событие может произойти или не произойти.
Теория вероятностей рассматривает именно такие случайные события. При этом предполагается, что испытание может быть повторено неограниченное (по крайней мере, теоретически) число раз. Например, выполнение штрафного броска в баскетболе есть испытание, а попадание в кольцо — событие.
Другим примером события, часто приводимым в учебниках по теории вероятностей, является выпадение определенного числа очков (от 1 до 6) при бросании игральной кости.
События в теории вероятностей принято обозначать начальными прописными латинскими буквами А, В, С, …
Количественная характеристика испытания состоит в определении значений некоторых величин, которыми интересуются при данном испытании (например, число подтягиваний на перекладине или время на беговой дистанции). В силу действия большого числа неконтролируемых факторов эти величины могут принимать различные значения в результате испытания. Причем до испытания невозможно предсказать значение величины, поэтому она называется случайной величиной.
Вероятность событий
Будем фиксировать число испытаний, в результате которых появилось некоторое событие А. Пусть было проведено N испытаний, в результате которых событие А появилось ровно 


Замечательным экспериментальным фактом является то, что частость события при большом числе повторений испытания начинает мало изменяться и стабилизируется около некоторого определенного значения, в то время как при малом числе повторений она принимает различные, совершенно случайные значения. Поэтому интуитивно ясно, что если при неограниченном повторении испытания частость события будет стремиться к вполне определенному числовому значению, то это значение можно принять в качестве объективной характеристики события А. Такое число Р(A), связанное с событием А, называется вероятностью события А.
Математически неограниченное число повторений испытания записывается в виде предела

Поскольку
Следует отметить, что приведенное определение вероятности является абстрактным, оно не может быть экспериментально проверено, так как на практике нельзя реализовать бесконечно большое число повторений испытания.
Действия над событиями
В этом разделе приводятся основные правила операций над событиями с использованием для наглядности их графического изображения в виде диаграмм.
Вначале введем понятие «поле событий» как совокупности всех случайных событий данного испытания, для которых определены вероятности. На рис. 4.1 поле событий изображено в виде заштрихованного прямоугольника.
1. Сумма (объединение) событий (рис. 4.2) представляет собой сложное событие, состоящее в появлении хотя бы одного из событий A и B. Объединение событий обозначается как
2. Произведением (пересечением) событий А и В называется их совместное появление (рис. 4.3). Обозначается произведение событий как 
3. Достоверным событием называется событие, которое обязательно происходит в результате данного испытания (рис. 4.4). Оно обозначается обычно как Е.
4. Невозможное событие — событие, которое не может произойти в результате данного испытания. Принятое обозначение — 
5. Несовместными называются события, которые в результате данного испытания не могут произойти вместе (рис. 4.5). Примеры несовместных событий: попадание и промах при выстреле, выпадение двух и трех очков при бросании игральной кости. Рис. 4.5 наглядно показывает, что для несовместных событий АВ=- 
6. Противоположным к А событием называется событие, состоящее в непоявлении события А (рис. 4.6). Обозначается противоположное событие символом А. Примеры противоположных событий: промах и попадание при выстреле, выпадение герба или цифры при одном подбрасывании монеты.
Исчисление вероятностей
Непосредственное определение вероятностей
В некоторых простейших случаях вероятности событий могут быть легко определены непосредственно исходя из условий испытаний.
Представим себе общую схему таких испытаний.
Пусть испытание имеет n возможных исходов, т. е. отдельных событий, могущих появиться в результате данного испытания; причем при каждом повторении испытания возможен один и только один из этих исходов. Таким образом, все n исходов испытания несовместны. Кроме того, по условиям испытания нет никаких оснований предполагать, что один из исходов появляется чаще других, т. е. все исходы являются равновозможными.
Допустим теперь, что при п равновозможных исходах интерес представляет некоторое событие А, появляющееся при каждом из т исходов и не появляющееся при остальных n —m исходах. Тогда принято говорить, что в данном испытании имеется п случаев, из которых m благоприятствуют появлению события А.
Вероятность события А в такой схеме равна отношению числа случаев, благоприятствующих событию А, к общему числу всех равновозможных несовместных случаев:
Формула (4.1) представляет собой так называемое классическое определение вероятности по Лапласу, пришедшее из области азартных игр, где теория вероятностей применялась для определения перспективы выигрыша.
Рассмотрим несколько примеров на вычисление вероятностей по формуле (4.1).
Пример 4.1
Испытание состоит в подбрасывании игральной кости, на каждой из граней которой проставлено число очков (от 1 до 6). Какова вероятность того, что: 1) выпадает 2 очка? 2) выпадает нечетное число очков?
В данном испытании имеется 6 равновозможных случаев (выпадение 1, 2, 3, 4, 5, 6 очков), так как нет оснований предполагать, что появление какого-то определенного числа очков более вероятно (если, конечно, кость симметрична). Поэтому вероятность выпадения любого числа очков, в том числе и 2, при одном подбрасывании 1 равна —
Событию А, заключающемуся в появлении нечетного числа очков, благоприятствуют три случая (выпадение 1, 3 и 5), поэтому по формуле (4.1) получаем
Пример 4.2
В урне 5 белых и 10 черных шаров. Шары тщательно перемешивают и затем наугад вынимают 1 шар. Какова вероятность того, что вынутый шар окажется белым?
В этом примере имеется 15 случаев, причем ожидаемому событию (появлению белого шара) благоприятствуют 5 из них, поэтому искомая вероятность составит
Основные правила вычисления вероятностей сложных событий
Ниже приведены основные правила, позволяющие определить вероятность появления сложного события на основании известных вероятностей составляющих его более простых событий.
1. Вероятность достоверного события равна единице:
2. Вероятность объединения (суммы) несовместных событий равна сумме их вероятностей:
Эти два равенства являются аксиомами теории вероятностей, т. е. принимаются в качестве исходных, но требующих доказательства свойств вероятностей. На их основе строится вся теория вероятностей.
Все остальные, приведенные ниже без доказательств формулы могут быть выведены из принятых аксиом.
3. Вероятность невозможного события равна нулю:
4. Вероятность события, противоположного событию А, равна
Формула (4.5) оказывается полезной на практике в тех случаях, когда вычисление вероятности непосредственно события А затруднительно, в то время как вероятность противоположного события находится просто.
5. Теорема сложения вероятностей. Вероятность объединения произвольных событий равна сумме их вероятностей за вычетом вероятности произведения событий:
Для несовместных событий Р(АВ) = 0 и формула (4.6) переходит в (4.2).
6. Условная вероятность. Если требуется найти вероятность события В при условии, что произошло некоторое другое событие А, то такую ситуацию характеризуют с помощью условной вероятности 
В тех случаях, когда события А и В несовместны, Р(АВ) = 0 и соответственно
Определение условной вероятности в виде (4.7) дает возможность записать следующую формулу для вычисления вероятности произведения событий:
Последняя формула носит название теоремы умножения вероятностей.
7. Вероятности для независимых событий. Два события называются независимыми, если появление одного из них не изменяет вероятности другого, иначе говоря, появление одного из них не содержит никакой информации о другом.
Для независимых событий A и В:
Поскольку вероятность события Л (или В) для независимых событий по определению не изменяется при появлении другого события, то условная вероятность Р(А В) совпадает с вероятностью события Л, а условная вероятность 
Теорема умножения вероятностей для независимых событий записывается следующим образом:
т. е. вероятность произведения независимых событий равна произведению их вероятностей.
Пример 4.3
В урне 5 белых, 4 черных и 8 красных шаров. Какова вероятность того, что первый наугад вынутый шар окажется черным или красным?
Здесь имеется всего 17 случаев, из которых появлению черного шара благоприятствует 4, а появлению красного — 8. Поэтому вероятность события Л — появление черного шара:
а вероятность события В — появление красного шара:
Поскольку события A и В несовместны (вынимается всего один шар), то по формуле (4.2) сложения вероятностей несовместных событий получаем:
Пример 4.4
В студенческой группе 25 человек. Какова вероятность того, что дни рождения хотя бы у двоих совпадают?
Вероятность того, что дни рождения у двух произвольно взятых людей совпадают, равна .


Теперь найдем вероятность того, что дни рождения всех 25 членов группы не совпадают. Поскольку все эти события (несовпадение дня рождения каждого очередного члена группы с днями рождения предыдущих) независимы, то по формуле (4.10) умножения вероятностей независимых событий получаем: 
Определяем ее по формуле
Пример 4.5
В урне 3 белых и 7 черных шаров. Какова вероятность того, что два подряд наугад вытянутых шара окажутся белыми?
Нас интересует вероятность произведения двух событий: 





Отсюда искомая вероятность равна:
Случайные величины
Выше мы уже дали интуитивное определение случайной величины, характеризующей количественные результаты испытания и способной в одних и тех же условиях испытания под воздействием случайных причин принимать различные значения.
Изучение случайных величин в теории вероятностей требует связи этих величин с определенными событиями, которые заключаются в попадании случайной величины в некоторый интервал и для которых определены вероятности. Иначе говоря, необходимо связать случайную величину с полем событий данного испытания (см. определение поля событий в разделе 4.3).
Для формального определения случайной величины можно поступить следующим образом: пусть при измерении определенного признака объекта получается некоторая величина X, выражаемая действительными числами. Определим событие А как событие, состоящее в том, что величина X меньше или равна заданному числовому значению 

Обычно рассматриваются два типа случайных величин: дискретные и непрерывные.
Дискретные случайные величины принимают в результате испытания одно из дискретного множества значений. Они хорошо подходят для описания результатов измерений, связанных с подсчетом и выражаемых целыми числами.
Примеры дискретных случайных величин: число подтягиваний на перекладине, число попаданий в кольцо в серии из 10 штрафных бросков и т. п.
Вероятность принятия дискретной случайной величиной каждого из возможных ее значений больше нуля. Эта вероятность может быть записана как
Здесь X — обозначение случайной величины; 

Индекс i может в общем случае пробегать значения от —
Функция 
Непрерывные случайные величины в результате испытания могут принимать любые значения из некоторого интервала.
Примеры непрерывных случайных величин: спортивный результат в беге или прыжках, рост и масса тела человека, сила мышц и др.
Строго говоря, при практических измерениях результаты всегда получаются с точностью до некоторого значения (например, 0, 01 с при измерении времени на беговой дистанции), поэтому их можно было бы описывать, пользуясь моделью дискретных случайных величин, так как они принимают дискретные значения из некоторого интервала: результат в беге—10,12; 10,13; 10,14; …. рост человека —171, 172, 173 Но число возможных значений, как правило, настолько велико, что гораздо удобнее оказывается модель непрерывных случайных величин, хотя она и является в данном случае математической идеализацией.
Поскольку число возможных значений непрерывной случайной величины бесконечно велико и чаще всего нет оснований предположить, что одни значения появляются существенно чаще других, то вероятность принятия непрерывной случайной величиной каждого отдельного значения оказывается равной нулю. По этой причине нельзя описать распределение непрерывной случайной величины в виде вероятностей ее отдельных значений, как в случае дискретных случайных величин. Здесь необходимы другие подходы, которые будут рассмотрены в разделах 4.6 и 4.7.
Функция распределения
Рассмотрим вероятность того, что случайная величина X окажется меньше или равной некоторому заданному числу х, т. е.
Эта вероятность, рассматриваемая как функция переменной х, называется функцией распределения случайной величины X. Она используется для записи распределений как дискретных, так и непрерывных случайных величин.
Обратимся вначале к дискретной случайной величине и поясним построение функции распределения на конкретном примере.
Пусть баскетболист выполняет серию из 10 штрафных бросков, причем вероятность попадания в кольцо для каждой из попыток равна 0,5. Определим вероятность того, что в данной серии баскетболист поразит кольцо ровно 0; 1; 2; …; 10 раз.
Вероятность попадания с одной попытки обозначим как Р = 0,5. Тогда вероятность промаха составит q = 1—Р = 0,5.
Этот пример подходит под общую схему, известную в теории вероятностей как схема Бернулли, описываемая биномиальным распределением: если р — вероятность «успеха» в данном испытании, a q— 1 — р — вероятность «неуспеха», тогда вероятность того, что в п испытаниях «успех» наступит ровно х раз, определяется следующим выражением:
где
Биномиальное распределение широко используется в математической статистике, таблицы биномиальных вероятностей 
Для нашего примера вероятности попадания в кольцо ровно 0; 1; 2; …; 10 раз равны:
Случайная величина (число попаданий в серии из 10 бросков) обозначается через X. События, состоящие в том, что случайная величина X принимает каждое из возможных значений X = 0, X = 1, …, X = 10, являются несовместными, так как случайная величина X может принимать в данной серии испытаний только одно значение.
Определим теперь функцию распределения 
Рис. 4.7 Функция распределения дискретной случайной величины При 

В интервале от 0 до 
Рассмотрим интервал 

Аналогично для интервала



Таким образом, функция распределения 



Если известна функция распределения, легко найти вероятность показания случайной величины в заданный интервал:
т. e. вероятность того, что случайная величина X окажется меньше или равной 

Например, нужно найти для рассматриваемого примера вероятность того, что баскетболист в серии из 10 штрафных бросков наберет число очков меньше 8, но больше 3. По формуле (4.13) получаем:
Перейдем теперь к непрерывным случайным величинам. Как было сказано ранее, вероятность принятия непрерывной случайной величиной какого-либо конкретного значения равна 0. Следовательно, функция распределения не может иметь скачков, как для дискретной случайной величины. Функция распределения непрерывной случайной величины будет гладкой (непрерывной) функцией (рис. 4.8).
Для непрерывной случайной величины важную роль играет вероятность попадания ее в заданный интервал, которая по известной функции распределения находится как

Функция распределения представляет собой теоретический аналог полигона накопленных частот, рассмотренного в разделе 2.3.
Плотность распределения вероятностей
Для непрерывных случайных величин вводится понятие «плотность распределения вероятное-т е й», или «плотность вероятностей», играющее исключительно важную роль при их описании.
Плотность вероятностей — это производная от функции распределения непрерывной случайной величины, т. е.
Более подробно при рассмотрении конкретных непрерывных распределений об этой функции рассказано в разделе 4.9. Вид плотности вероятностей показан на рис. 4.9.
Рис. 4.9. Вид плотности распределения вероятностей Вероятность попадания непрерывной случайной величины в интервал между значениями Х и х2 пропорциональная площади под кривой плотности вероятностей, заключенной между точками 


Плотность вероятностей является теоретическим аналогом гистограммы, рассмотренной в разделе 2.3 гл. 2.
Числовые характеристики случайных величин
Распределение случайной величины, заданное в виде функции распределения или плотности вероятностей, полностью ее характеризует. Однако такая исчерпывающая характеристика случайной величины сложна и далеко не всегда необходима. Для решения многих практических задач не нужно знать распределение случайной величины, а достаточно иметь лишь некоторые обобщающие числовые характеристики этого распределения.
Математическое ожидание
Для более наглядного определения математического ожидания (среднего значения) случайной величины рассмотрим подход к этому понятию на конкретном примере.
Пусть имеется дискретная случайная величина X с возможными значениями 




Таким образом, имеем n наблюдений случайной величины X, т. е. выборку объема n. Определим по формуле (3.2) выборочное среднее арифметическое:
Здесь индекс n при x обозначает, что среднее арифметическое вычислено по п наблюдениям.
Теперь представим, что испытание, состоящее в серии из 10 бросков, повторяется неограниченное число раз. Здесь, абстрагируясь от физической реализуемости такого эксперимента, будем считать, что наблюдению доступна вся теоретически бесконечная генеральная совокупность значений случайной величины X.
Согласно первоначальному определению вероятности, данному в разделе 4.2.2, относительные частоты событий стремятся к их вероятностям при неограниченном повторении испытания.
Поэтому в пределе при
Таким образом, выборочное среднее арифметическое случайной величины X стремится при неограниченном повторении испытания (при неограниченном увеличении объема выборки) к некоторому постоянному числу, так как в последней сумме 
Математическое ожидание обозначает как М (X) или
Математическое ожидание дискретной случайной величины равно сумме всех ее возможных значений, умноженных на вероятности этих значений:
В этой записи 
Только что рассмотренный пример показывает, что математическое ожидание — абстрактное понятие. Оно является теоретическим аналогом выборочного среднего арифметического.
Математическое ожидание равно среднему значению генеральной совокупности.
Для непрерывных случайных величин математическое ожидание определяется с помощью плотности вероятностей по формуле:
Дисперсия и стандартное отклонение
Точно так же, как математическое ожидание, являющееся теоретическим аналогом среднего арифметического, можно ввести теоретические аналоги всех числовых характеристик выборки, рассмотренных в гл. 3. Для этого нужно в соответствующих формулах для выборочных характеристик заменить все средние арифметические на математические ожидания.
Дисперсией случайной величины X называется математическое ожидание квадрата отклонений случайной величины от ее математического ожидания (сравните с определением п. 3.4.2). Дисперсия обозначается как
Для дискретных случайных величин
т. е. дисперсия дискретной случайной величины равна сумме квадратов отклонений отдельных значений случайной величины от ее математического ожидания, умноженных на вероятности этих значений.
Для непрерывных случайных величин
Положительный корень квадратный из дисперсии называется средним квадратическим (стандартным) отклонением случайной величины.
Эта величина обозначается, как ах
Дисперсия и стандартное отклонение характеризуют изменчивость (вариативность) случайной величины. Чем сильнее случайная величина отклоняется от своего математического ожидания, тем больше величины 


Пример 4.6
Определим в качестве примера математическое ожидание и стандартное отклонение случайной величины X, представляющей собой число попаданий в серии из 10 штрафных бросков в баскетболе при вероятности попадания с одного броска р — 0,5.
Как мы уже знаем, наша случайная величина имеет биномиальное распределение (4.12). Если подставить значения биномиальных вероятностей (4.12) в формулы (4.16) и (4.18), то после соответствующих преобразований, которые здесь не приводятся, получим:
В этих выражениях п — число повторений испытания в серии испытаний, т. е. в этом примере число бросков в серии
Моменты
Математическое ожидание и дисперсия представляют собой частные случаи общих числовых характеристик случайной величины, называемых моментами.
Ниже кратко рассматриваются лишь так называемые центральные моменты случайной величины.
K-м центральным моментом случайной величины X называется математическое ожидание k-й степени отклонения случайной величины от ее математического ожидания: 
На практике часто используются также третий и четвертый центральные моменты, позволяющие судить о симметричности и остроте вершины кривой распределения случайной величины.
Если 








Нормальное распределение
Большинство экспериментальных исследований, в том числе и в области спорта, связано с измерениями, результаты которых могут принимать практически любые значения в заданном интервале и, как уже было отмечено, описываются моделью непрерывных случайных величин. Поэтому в дальнейшем будут рассматриваться в основном непрерывные случайные величины и связанные с ними непрерывные распределения.
Одним из непрерывных распределений, имеющим основополагающую роль в математической статистике, является нормальное, или гауссово*, распределение.
Нормальное распределение является самым важным в статистике. Это объясняется целым рядом причин.
1. Прежде всего, многие экспериментальные наблюдения можно успешно описать с помощью нормального распределения. Следует сразу же отметить, что не существует распределений эмпирических данных, которые были бы в точности нормальными, поскольку (как будет показано ниже) нормально распределенная случайная величина находится в пределах от —

Проводятся ли измерения роста, силы мышц, спортивного результата в беге, прыжках, метаниях, ряда физиологических параметров — везде на результаты оказывает влияние очень большое число случайных факторов (естественные причины и ошибки измерения). Причем, как правило, действие каждого из этих факторов незначительно. Опыт показывает, что результаты именно в таких случаях будут распределены приближенно нормально.
2. Нормальное распределение хорошо подходит в качестве аппроксимации (приближенного описания) других распределений (например, биномиального).
3. Многие распределения, связанные со случайной выборкой, при увеличении объема последней переходят в нормальное.
4. Нормальное распределение обладает рядом благоприятных математических свойств, во многом обеспечивших его широкое применение в статистике.
В то же время следует отметить, что в природе встречается много экспериментальных распределений, для описания которых модель нормального распределения малопригодна. Для этого в математической статистике разработан ряд методов, некоторые из которых приводятся в следующих лекциях.
Плотность вероятностей нормально распределенной случайной величины записывается следующим образом:
График плотности (нормальная кривая) представлен на рис. 4.10.
Укажем основные свойства нормального распределения.
1. Нормальная кривая имеет колоколообразную форму, симметричную относительно точки х —
2. Для нормального распределения математическое ожидание 

3. Как видно из выражения (4.23), нормальное распределение полностью определяется двумя параметрами: р и 0— математическим ожиданием и стандартным отклонением.
График плотности вероятности нормального распределения показывает, что для нормально распределенной случайной величины вероятность отклонения от среднего значения 
4. Медиана и мода нормального распределения совпадают и равны математическому ожиданию р.
5. Коэффициенты асимметрии и эксцесса нормального распределения равны нулю
Последнее свойство (5) используется для проверки предположения о нормальности распределения генеральной совокупности (гл. 6).
Нормированное нормальное распределение
Формула (4.23) описывает целое семейство нормальных кривых, зависящих, как было сказано выше, от двух параметров — 
Чтобы избежать неудобств, связанных с расчетами для каждого конкретного случая по достаточно сложной формуле (4.23), используют так называемое нормированное (или’стандартное) нормальное распределение, для которого составлены подробные таблицы.
Нормированное нормальное распределение имеет параметры
Плотность распределения вероятностей нормированного нормального распределения записывается в виде:
На кривой нормированного нормального распределения (рис. 4.11) указаны в процентах доли площадей, соответствующих отмеченным значениям нормированного отклонения и, по отношению 
Таблица значений 

Вероятность попадания в заданный интервал
Очень часто исследователя интересует вопрос: какова вероятность того, что изучаемый признак генеральной совокупности находится в заданных границах (например, вероятность того, что результат в беге на 100 м для группы испытуемых окажется в пределах 11,5—12,5 с)? Если предполагается нормальное распределение признака в генеральной совокупности, то получить ответ на этот вопрос очень просто. Как говорилось ранее, вероятность попадания нормально распределенной случайной величины в заданный интервал 
Если использовать функцию нормированного нормального распределения, эту вероятность можно записать следующим образом:

где Ф — принятое обозначение для функции нормированного нормального распределения; 
Функция нормированного нормального распределения имеет следующий вид:
Интеграл, входящий в это выражение, не выражается в элементарных функциях, поэтому для вычисления функции Ф(и) используют вспомогательную функцию — функцию Лапласа (интеграл вероятностей):
В Приложении приведена табл. 1 удвоенных значений функции Лапласа
Чтобы найти вероятность попадания нормально распределенной случайной величины в заданный интервал 
Функция Лапласа является нечетной, т. е. 
Часто представляет интерес вероятность попадания в симметричный относительно среднего значения р, интервал. При этом
Учитывая нечетность функции Лапласа, получаем:
Отсюда ясен смысл того, что в табл. 1 Приложения приведены удвоенные значения функции Лапласа.
В табл. 4.2 приведены полученные по формуле (4.28) вероятности того, что нормально распределенная случайная величина отклонится от своего среднего значения 
Таблица 4.2 Вероятности попадания нормально распределенной случайной величины в заданный интервал
Из табл. 4.2 следует, что
Это выражение известно в статистике как «правило трех сигм». Оно означает, что с вероятностью 0,9973 (практически с единичной) нормально распределенная случайная величина окажется в пределах 

Некоторые специальные непрерывные распределения
Нормальное распределение широко применяется как математическая модель для описания экспериментальных данных. В этом разделе будут рассмотрены три распределения, которые играют очень важную роль при обработке результатов, связанных со случайной выборкой объема n, и составляют основу применения критериев значимости и проверки статистических гипотез. Примеры использования этих распределений приводятся в гл. б, посвященной указанным статистическим методам.
X распределение
Если 


Его плотность вероятностей представлена на рис. 4.12 и зависит от единственного параметра — числа степеней свободы V.
Кривая 

Таблицы 
t-распределение Стьюдента
Вторым из широко используемых специальных распределений является t-распределение Стьюдента, или просто t-распределение. Это распределение случайной величины:
где U — случайная величина, имеющая нормированное нормальное распределение; V — случайная величина с распределением 
Вид кривой плотности t-распределения показан на рис. 4.13. /-распределение симметрично при любом v и
при 

F-распределение
Если случайные величины U и V независимы и каждая из них распределена как 



Оценка генеральных параметров
Материал, содержащийся в предыдущих лекциях, можно рассматривать как минимальный набор сведений, необходимых для использования основных статистических методов, объединенных в теории статистических выводов.
Перейдем теперь к рассмотрению этих методов. Для этого необходимо определить их место в рамках единого подхода к решению конкретных задач статистических исследований в области спорта.
Основная задача, решаемая с помощью методов математической статистики, — получение информации о закономерностях изменения изучаемого признака для большой совокупности объектов исследования, объединенных по этому признаку. В терминах математической статистики это означает, что делаются выводы о свойствах генеральной совокупности.
Для описания генеральной совокупности используются математические модели теории вероятностей. Исчерпывающую информацию о генеральной совокупности дает распределение вероятностей. Чаще всего используется модель нормально распределенной генеральной совокупности. И в этом случае распределение полностью определено всего двумя параметрами:
- средним значением (математическим ожиданием) и стандартным отклонением.
Следовательно, чтобы полностью описать нормальную генеральную совокупность, нужно знать значения двух генеральных параметров: среднего значения и стандартного отклонения. Так, если интерес вызывают спортивные результаты, то это средний результат всех спортсменов данной категории и стандартное отклонение результата. Эти параметры неизвестны и предположительно находятся в каких-то пределах. Единственное, что можно сделать, чтобы их определить — это провести эксперимент. Эксперимент для всей генеральной совокупности нереализуем или неоправдан, поэтому применяется выборочный метод.
На основании данных, полученных по выборке, делается вывод относительно всей генеральной совокупности. Используемые для этого методы теории статистических выводов обычно подразделяются на два класса: оценка параметров и проверка гипотез.
Задача оценки параметров состоит в получении наилучших в определенном смысле оценок параметров распределения генеральной совокупности на основании выборочных данных.
Проверка гипотез охватывает методы использования выборочных данных для проверки предположений относительно распределения и параметров распределения генеральной совокупности, которые делаются до получения выборочных данных.
В данной лекции будут рассмотрены основные положения теории оценок.
Случайная выборка из генеральной совокупности
Чтобы по выборке можно было делать выводы о свойствах всей генеральной совокупности, она должна быть представительной (репрезентативной). Это обеспечивается в тех ситуациях, когда выборка является случайной. Модель случайной выборки предъявляет к ней следующие требования: 1) каждый из объектов, составляющих генеральную совокупность, должен иметь одинаковую вероятность быть представленным в выборке; 2) все п измерений, образующих выборку, должны быть независимыми, т. е. результаты каждого измерения не должны зависеть от предыдущих измерений.
Существует два основных метода отбора объектов из генеральной совокупности в выборку: повторный и бес-повторный.
При повторном отборе каждый объект после измерения значения признака возвращается в генеральную совокупность. При этом состояние генеральной совокупности перед каждым новым измерением восстанавливается и требование независимости всегда выполняется.
При бесповторном отборе после измерения объект не возвращается в генеральную совокупность. В этом случае соотношение значений признака в оставшейся части генеральной совокупности меняется, и, следовательно, проводимые измерения не являются независимыми, т. е. бесповоротный отбор не является случайным. На практике бесповоротный отбор используется чаще. Когда проводится измерение каких-то признаков, относящихся к спортсменам, выборка составляется таким образом, что после того, как очередной спортсмен принял участие в измерениях, он уже не участвует в следующих измерениях.
Но, как правило, можно считать, что объем генеральной совокупности настолько велик, что при исключении из нее относительно малого числа единиц, составляющих выборку, состояние генеральной совокупности практически не меняется. При бесконечной генеральной совокупности различие между повторным и бесповторным отбором исчезает.
На практике используется несколько способов получении случайных выборок.
1. Истинно случайной будет выборка, полученная способом жеребьевки. Если, например, нужно отобрать группу в 20 человек из генеральной совокупности, включающей 500 человек, то можно заготовить карточки, из которых 20 определенным образом пометить, а остальные оставить пустыми. Затем всем предлагается вытянуть карточку, и таким образом получается необходимая выборка.
Организационно проще случайная выборка получается методом случайных чисел. Суть этого метода заключается в использовании таблицы случайных чисел. Последние располагаются в таблице в случайном порядке, и вероятности появления цифр от 0 до 9 в каждом разряде чисел одинаковы. Фрагмент таблицы случайных чисел представлен в табл. 5.1. Более подробные таблицы можно найти в [3, 4, 7, 13].
Все объекты генеральной совокупности нумеруются. Если объектов 500, то им присваиваются номера от 001 до 500. Затем в таблице случайных чисел произвольным образом выбирается любое число. Например, первое число второго столбца в табл. 5.1 33 834. Это число пятиразрядное, а нам нужны трехразрядные номера, поэтому отбрасываем два любых разряда числа, например последние. Получим 338, и объект с таким номером включаем в выборку. Далее берем следующее число из таблицы, двигаясь слева направо. Поступая аналогичным образом, получаем число 542. Это число больше 500, поэтому оно пропускается. Далее двигаемся по таблице до числа меньше 500, еще не встречавшегося ранее. Это будет 344, затем 448 и т. д. до тех пор, пока не наберем нужное количество номеров. Объекты с полученными номерами включаем в выборку.
Принцип случайности выборки не исключает плановости отбора объектов в нее. При этом планируется отбор по тем признакам объектов, которые не подлежат измерению в проводимом эксперименте. Существуют следующие виды планового отбора.
2. Механический отбор. Генеральная совокупность делится на группы, число которых равно объему выборки, а затем из каждой группы случайным образом выбирается один объект. В других случаях отбирается каждый 10-й, каждый 100-й и т. д. экземпляр генеральной совокупности или ее представительной части. -Например, в группу включается каждый 10-й юный спортсмен ДЮСШ.
3. Типический отбор. Генеральная совокупность делится на типические участки, например по районному принципу, и в каждой из полученных групп случайным образом отбирается одинаковое число объектов.
4. Серийный отбор. Генеральная совокупность делится на группы, называемые сериями, а затем из общего числа серий отбирается нужное число для сплошного исследования. Например, предполагается получить данные о физическом развитии младших школьников города. Если имеется 50 начальных классов средних школ, то при планируемом обследовании шести классов эти классы отбираются случайным образом.
При проведении выборочных исследований предполагается, что выборка является однородной. Это означает, что она получена из одной генеральной совокупности, т. е. в исходной совокупности отсутствуют объекты, резко выделяющиеся по значениям изучаемого признака. Предположение об однородности выборки на практике обычно основывается на предварительном изучении условий эксперимента. Так, обычно есть уверенность в том, что полученные выборочные данные представляют собой результаты измерений для спортсменов одного возраста, квалификации, спортивной специализации и т, п.
Точечные оценки
Под термином «о ц е н к а» в теории оценок понимаются как сами значения параметров генеральной совокупности, полученные по выборке, так и процесс получения этих значений, т. е. правило, по которому они получены.
Определения и требования к оценкам
Оценки подразделяются на два класса: точечные и интервальные.
Точечные оценки представляют собой определенные значения параметров генеральной совокупности, полученные по выборочным данным. Эти значения должны быть максимально близки к значениям соответствующих параметров генеральной совокупности, которые являются истинными значениями оцениваемых параметров.
При формировании интервальных оценок определяют границы интервалов, между которыми с большой вероятностью находятся истинные значения параметров.
Начнем с точечных оценок и рассмотрим оценку произвольного параметра (среднего, дисперсии или какого-то другого) генеральной совокупности, который обозначим 



1. Состоятельность. Точечная оценка 


В математической статистике показывается, что состоятельной оценкой генерального среднего значения 


2. Несмещенность. Оценка называется несмещенной, если она не содержит систематической ошибки, т. е. среднее значение оценки, определенное по многократно повторенной выборке объема n из одной и той же генеральной совокупности, стремится к истинному значению соответствующего генерального параметра.
Выборочное среднее арифметическое 

Несмещенной оценкой генеральной дисперсии 
Замечание 1
При определении выборочной дисперсии как среднего квадрата отклонений значений признака от среднего арифметического была приведена ее формула:
Было отмечено, что эта формула редко используется, а вместо нее применяется выражение
Теперь поясним смысл такого изменения формулы.
Одним из свойств выборочного среднего арифметического является то, что сумма квадратов отклонений значений признака от среднего арифметического меньше, чем сумма квадратов отклонений от любой другой величины (в том числе и от генерального среднего 



Можно показать, что если использовать оценку 
3. Эффективность. Несмещенная оценка является эффективной, если она имеет наименьшую дисперсию по сравнению с другими несмещенными оценками того же параметра генеральной совокупности.
Это надо понимать так: полученные по выборке оценки 


Итак, наилучшими в указанном смысле оценками генерального среднего значения и генеральной дисперсии являются выборочные характеристики:
Стандартная ошибка среднего арифметического
Оценки 


Отклонения оценок генеральных параметров от истинных значений этих параметров называются статистическими ошибками, или ошибками репрезентативности. Их происхождение не имеет ничего общего с ошибками измерения, а возникают они только потому, что не все объекты генеральной совокупности представлены в выборке.
Величины статистических ошибок оценивают по среднему квадратическому (стандартному) отклонению выборочных характеристик. Здесь рассматривается только стандартное отклонение выборочного среднего арифметического.
Если взять очень много независимых выборок объема n из одной и той же генеральной совокупности и определить для каждой из них среднее арифметическое, то окажется, что полученные средние арифметические варьируют вокруг своего среднего значения (равного 



В качестве оценки стандартного отклонения выборочного среднего используется величина 
Величина Si показывает, какая ошибка в среднем допускается, если использовать вместо генерального среднего 

чтобы оценить точность оценки
Из формулы (5.1) видно, как зависит стандартная ошибка 

Пример 5.1
Найдем стандартную ошибку среднего арифметического результатов в беге на 100 м для данных примера 3.4. Рассчитанные в примере_3.4 значения выборочных характеристик составляют: 


Замечание 2
Теперь можно вернуться к вопросу, который был оставлен открытым при вычислении выборочных характеристик в гл. 3: с такой точностью нужно вычислять выборочные характеристики?
Как мы только что убедились, при ограниченном объеме выборки п истинное значение генерального среднего р, не может быть определено сколь угодно точно, поэтому при вычислении 

Для рассмотренного выше примера 

В этом примере значения признака измерены с точностью до десятых долей секунды, поэтому в более точном вычислении 

Интервальные оценки
По известной величине выборочной характеристики 
Вероятности, признанные достаточными для того, чтобы уверенно судить о генеральных параметрах на основании выборочных характеристик, называются доверительными.
Обычно в качестве доверительных вероятностей выбирают значения 0,95, 0,99 или 0,999 (их принято выражать в процентах). Перечисленным значениям соответствуют 95, 99 и 99,9 %. Выбор той или иной доверительной вероятности производится исследователем исходя из практических соображений о той ответственности, с какой делаются выводы о генеральных параметрах.
Замечание 3
Как правило, в научных исследованиях в области спорта считается достаточной доверительная вероятность 0,95 (95 %). В некоторых случаях, когда уточняются результаты предыдущих исследований или когда выводы, сделанные в данном исследовании, связаны с большой ответственностью (например, предлагается в корне пересмотреть программу тренировок или рацион питания сборной команды), применяются более высокие уровни доверительной вероятности: 99 или 99,9%.
Интервал, в котором с заданной доверительной вероятностью находится оцениваемый генеральный параметр, называется доверительным интервалом.
В соответствии с доверительными вероятностями на практике используются 95-, 99-, 99,9-процентные доверительные интервалы.
В литературе по математической статистике обычно говорят о 100 (1 —а)-процентном доверительном интервале, где (1 — а) — доверительная вероятность, а а — некоторое малое число (а — 0,05; 0,01; 0,001), задающее вероятность того, что оцениваемый генеральный параметр выходит за границы доверительного интервала.
Теперь рассмотрим формирование доверительного интервала для среднего (математического ожидания) 




Величина t имеет t-распределение Стьюдента (определенное в гл. 4) с v = n — 1 степенями свободы.
Необходимо определить доверительный интервал, в котором с доверительной вероятностью 100(1 —а) % находится истинное значение оцениваемого параметра ц. Для этого задается значение а (например, 0,05). Доверительная вероятность будет соответствовать площади под кривой t-распределения Стьюдента, заключенной между точками — 


Учитывая формулу (5.1) приходим к окончательному выражению:
т. е. истинное значение 


Чтобы найти границы доверительного интервала для среднего значения генеральной совокупности, действуем в следующем порядке:
- по полученной выборке объема n вычисляем среднее арифметическое
и стандартное отклонение S. Методы вычислений рассмотрены в гл. 3;
- задаемся доверительной вероятностью 1 — а (например, 0,95) исходя из целей исследования;
- по таблице t-распределения Стьюдента находим граничные значения
В силу симметричности t-распределения достаточно знать только положительное значение
. Например, если объем выборки п — 12, то число степеней свободы t-распределения v = 12— 1 = 11, и по табл. 4 Приложения определяем для а = 0,05:
= 2,20;
- находим границы доверительного интервала по формуле (5.3). Для а= 0,05 и n = 12:
Как было отмечено в гл. 4, при больших объемах выборки (практически при n > 30) t-распределение Стьюдента переходит в нормальное. Поэтому для определения границ доверительного интервала для 
Доверительный интервал для 
где ua — процентные точки нормированного нормального распределения, определяемые по табл. 1 Приложения.
Для стандартных доверительных вероятностей (95, 99, 99,9%) значения
Чтобы найти доверительный интервал для среднего значения генеральной совокупности при больших объемах выборки (n >30), поступаем следующим образом:
- По выборочным данным находим среднее арифметическое
и стандартное отклонение S, как показано в гл. 3.
- Задаемся доверительной вероятностью I—а (например, 0,95).
- По табл. 5.2 находим значение
соответствующее заданной доверительной вероятности
= 1,96).
- Определяем границы доверительного интервала по формуле (5.4). Для а = 0,05 получаем:
Как видно из сравнения найденного доверительного интервала с доверительным интервалом, полученный выше по t-распределению, при малых объемах выборки границы первого интервала шире 
Пример 5.2
Определим границы 95 %-ного доверительного интервала для среднего результата в беге на 100 м по данным обследования группы из 50 школьников, приведенным в табл. 2.1.
Объем выборки n= 50, т. е. для определения доверительного интервала можно использовать рекомендации для большого объема выборки. Действуем в указанном выше порядке:
- Среднее арифметическое и стандартное отклонение для рассматриваемого примера вычислены в примере 3:4:
— 15,4 с, S = 0,94 с.
- Задаемся доверительной вероятностью 95%.
- Из табл. 5.2 находим
— 1,96.
- По формуле (5.4) определяем границы доверительного интервала:
Таким образом, истинное значение среднего времени на дистанции 100 м для школьников этой группы находится в интервале (15,1 с, 15,7 с) с вероятностью 0,95 (95%).
Сделаем еще одно замечание по поводу доверительных интервалов.
Среднее значение р генеральной совокупности является хотя и неизвестным, но фиксированным параметром, а границы доверительного интервала, полученные по случайной выборке объема n, будут также случайными величинами. Когда говорится о 95-процентной доверительной вероятности, это означает, что примерно в 95 % случаев фиксированное, но неизвестное значение 
Образная трактовка доверительных интервалов приведена в книге «Статистика и планирование эксперимента в технике и науке»*. «Доверительный интервал и связанные с ним понятия похожи на то, с чем мы сталкиваемся при игре с набрасыванием подковы на кол. Кол здесь играет роль оцениваемого параметра (его положение никогда не изменяется)… Подкова выступает в роли доверительного интервала. Если при 100 набрасываниях подковы удается в среднем 90 раз набросить ее на кол, то имеется 90 %-ная гарантия (или уровень доверия) набросить подкову на кол. Доверительный интервал, подобно подкове, меняет свое положение. При любом броске (или при построении некоторой интервальной оценки) кол (или параметр) может как попасть внутрь подковы (интервала), так и оказаться вне ее. Таким образом, делается вероятностное утверждение относительно переменных величин, характеризующих положение подковы».
Оценку параметра 


Определение необходимого объема выборки для получения оценок заданной точности
Обычно исследователя интересует вопрос: какой минимальный объем выборки необходим для того, чтобы оценка (чаще всего выборочное среднее арифметическое
Ответить на этот вопрос можно, если ввести доверительную вероятность и выбрать объем выборки n таким образом, чтобы доверительный интервал имел заданный размер.
Если генеральная совокупность предполагается нормально распределенной и ее дисперсия 
где «а для стандартных доверительных вероятностей определены в табл. 5.2.
Пусть требуется, чтобы выборочное среднее 



Истинное значение параметра о генеральной совокупности обычно неизвестно, но при больших объемах выборки 
В качестве примера найдем минимальный объем выборки, необходимый для того, чтобы выборочное среднее значение результата в беге на 100 м, определяемое для группы школьников, отличалось от истинного значения среднего результата не более чем на d = 0,1 с.
По результатам выборочного исследования (пример 5.2) выборочное стандартное отклонение, определенное при n = 50, составляет 0,94 с. Задаемся доверительной вероятностью 95% 

Критерии значимости и проверка гипотез
В этой лекции рассматривается группа статистических методов, которые получили наибольшее распространение в статистических исследованиях, связанных с практикой спорта. Эти методы применяются всегда, когда предстоит проверить какие-то теоретические предположения, связанные с эффективностью мероприятий, направленных на совершенствование тренировочного процесса. Исследователь выдвигает предположения исходя из анализа конкретного явления с позиций спортивной педагогики, физиологии, медицины, психологии или другой области знаний, представителем которой он является. Затем справедливость предположений проверяется на основании данных соответствующего эксперимента, условия, которого контролируются.
Нулевая гипотеза (нуль-гипотеза) и альтернатива (альтернативная гипотеза)
Статистической гипотезой (или просто гипотезой) называется утверждение о распределении генеральной совокупности, соответствующее некоторым представлениям об изучаемом явлении. В частном случае это может быть утверждение о значениях параметров
Предположим, что в эксперименте участвуют две группы юных спортсменов — прыгунов в высоту. Одна из них (контрольная) тренируется по традиционной программе, а для второй (экспериментальная) используется новый комплекс специальных упражнений. Действенность нового комплекса оценивается по различию результатов, показанных в этих группах после определенного тренировочного цикла. По полученным данным необходимо проверить следующие утверждения:
- 1. Среднее значение результатов не изменилось, т. е.
Здесь
— средние значения соответствующих генеральных совокупностей (результатов всех прыгунов данного класса, которые могли бы тренироваться по традиционной
и новой
программам).
- Вариативность результатов возросла: Z
Здесь
— так же, как и в п. 1, значения соответствующих генеральных параметров.
- Средний результат возрос на 3 см:
Это три различные статистические гипотезы. Конечно, возможные утверждения не ограничиваются приведенным списком. Гипотезы предстоит проверить с помощью какого-то метода — критерия.
Статистические гипотезы обычно рассматривают две генеральные совокупности, одна из которых может представлять собой теоретическую модель (например, нормальное распределение), а о второй судят по выборке из нее. В других случаях обе генеральные совокупности представлены выборками.
При проверке статистических гипотез принят следующий подход. Считается, что получение в результате эксперимента любых новых данных об изучаемом явлении, не согласующихся с данными, имеющимися до проведения эксперимента,— маловероятное событие. В то же время, если взять две выборки, представляющие собой результаты измерения одного и того же признака, и сравнить между собой их характеристики (среднее арифметическое, стандартное отклонение и др.), то окажется, что они практически всегда различаются. Это различие можно рассматривать как обусловленное только действием случайностей. Поэтому первоначально гипотезу всегда можно сформулировать таким образом: между двумя генеральными совокупностями нет ожидаемого различия. Такая гипотеза называется нулевой гипотезой, или нуль-гипотезой. Обратное ей утверждение о том, что в действительности между генеральными совокупностями есть различие, называется альтернативной гипотезой, или альтернативой.
Итак, вначале выдвигается нулевая гипотеза о том, что различие между генеральными совокупностями равно нулю. Затем получают выборку или несколько выборок, и если выборочные данные не противоречат нулевой гипотезе, т. е. различие можно объяснить только случайностью выборки, то нулевая гипотеза сохраняется (принимается). Если же полученные результаты не удается объяснить только действием случайных факторов, то нулевая гипотеза отвергается, а принимается альтернативная гипотеза.
Нулевую гипотезу принято обозначать, как 
Пусть, например, оценивается эффективность нового комплекса упражнений для юных спортсменов — прыгунов в высоту по среднему значению спортивного результата в контрольной и экспериментальной группах. Тогда нулевую гипотезу 


Если заранее нельзя сказать, к чему приведет новый комплекс упражнений — к увеличению или уменьшению результатов, то альтернативная гипотеза 
Ошибки при проверке гипотез
Ошибки, допускаемые при проверке гипотез, удобно разделить на два типа: L) отклонение гипотезы 

Вероятность ошибки первого рода обозначается а. Величина а называется уровнем значимости критерия, по которому проверяется справедливость гипотезы Но.
Вероятность ошибки второго рода обозначается 


Вероятности а и 
Наглядным способом интерпретации ошибок является их графическое представление.
Предположим, что проверяется гипотеза 

Для этого берется выборка объема b, находится ее среднее арифметическое 

Распределение среднего арифметического 


Распределение среднего арифметического х при условии, что верна альтернативная гипотеза 
Будем считать, что гипотеза 


Область непринятия гипотезы 
Вероятность ошибки второго рода 

Величина 1—
Следует особо подчеркнуть, что любая гипотеза должка формулироваться, а уровень значимости а задаваться исследователем всегда до получения экспериментальных данных, по которым эта гипотеза будет проверяться.
При выборе уровня значимости а исследователь исходит из практических соображений, отвечая на вопрос: какую вероятность ошибки он считает допустимой для его конкретной задачи?
Обычно считают достаточным а =0,05 (5%), иногда а =0,01, редко а= 0,001. Здесь можно руководствоваться соображениями, изложенными в замечании 3 гл. 5 при выборе доверительной вероятности.
Между стандартными статистическими критериями и стандартными доверительными интервалами существует тесная связь: если принимается гипотеза о том, что значение параметра (р,, с?) нормально распределенной генеральной совокупности равно фиксированному значению (ро, ао) с уровнем значимости а, то это эквивалентно заданию 100 (1—а%-ного доверительного интервала для данного параметра нормального распределения. Поэтому оба подхода — доверительные интервалы и критерии значимости — в данном случае равноценны. Преимущество доверительных интервалов в том, что они дают представление об истинном значении параметра генеральной совокупности, а недостаток в том, что их трудно построить в более сложных случаях, например при анализе дисперсий (стандартных отклонений).
Критерии значимости
В рассмотренном выше примере (см. п. 6.2.2) при проверке гипотезы об отсутствии различия среднего результата спортсменов в контрольной и экспериментальной группах можно было бы поступить следующим образом:
вычислить средние арифметические результаты в группах после этапа тренировки и сравнить их между собой. Если окажется, что различие средних арифметических больше, например, 5 см, то можно утверждать, что новый комплекс упражнений оказался эффективным. Но при этом неизвестно, какие ошибки допускаются при таком утверждении, поэтому невозможно точно доказать наличие или отсутствие различий.
Методы, которые для каждой выборки формально точно определяются, удовлетворяют выборочные данные нулевой гипотезы или нет, называются критериями значимости.
Процедура проверки гипотез обычно сводится к тому, что по выборочным данным вычисляется значение некоторой величины, называемой статистикой критерия, или просто критерием, который имеет известное стандартное распределение (нормальное, t-распределение Стьюдента и т. п.), поэтому вычислительная работа упрощается. Найденное значение критерия сравнивается с критическим (граничным) значением крите-терия, взятым из соответствующих таблиц, и по результатам сравнения делается вывод: принять гипотезу или отвергнуть.
Если вычисленное по выборке значение критерия не превосходит граничного значения, то гипотеза 
Когда вычисленное значение критерия оказывается больше граничного (критического) значения при заданном уровне значимости а, то наблюдаемое различие генеральных совокупностей уже нельзя объяснить только случайностями. В этом случае гипотеза 

Следует подчеркнуть разницу между статистической значимостью и практической значимостью. Заключение о практической значимости всегда делается человеком, изучающим данное явление. И здесь истинным критерием является опыт и интуиция исследователя, а статистические критерии значимости — лишь формально точный инструмент, используемый в исследовании. Чем больше исследователь знает об изучаемом явлении, тем точнее будет сформулированная им гипотеза и тем точнее будут выводы, сделанные с помощью критериев значимости.
Замечание 1
Ранее уже подчеркивалось, что уровень значимости ос должен выбираться исследователем до получения экспериментальных данных, по которым будет проверяться гипотеза. Но часто с предварительным выбором возникают затруднения. Обычно говорят, что для научных исследований (в том числе и в спорте) достаточен уровень значимости а = 0,05, но если выводы, которые предстоит сделать по результатам проверки гипотез, связаны с большой ответственностью, то рекомендуется выбирать а = 0,01 или а =0,001.
Как установить ответственность в трактовке результатов эксперимента и тот риск, который связан с выбором уровня значимости а? Чтобы не давать прямых ответов на эти непростые вопросы, часто поступают следующим образом: уровень значимости до эксперимента точно не устанавливается, а по экспериментальным данным вычисляется вероятность Р того, что критерий (статистика критерия) выйдет за пределы значения, рассчитанного по выборке. Таким образом, Р — это экспериментальный уровень значимости. Точное значение Р обычно не указывают, а окончательные результаты приводят в следующем виде: 1) если вычисленное значение критерия не превосходит критического значения на уровне значимости а =0,05, то различие считается статистически незначимым; 2) если вычисленное по выборке значение критерия превышает критические значения при а=0,05, а=0,01 или а= 0,001, то записывают Р<0,05, Р<0,01 или Р<0,001. Это означает, что наблюдаемые различия статистически значимы на уровнях значимости 0,05, 0,01 или 0,001.
Критерии значимости подразделяются на три типа:
- Критерии значимости, которые служат для проверки гипотез о параметрах распределений генеральной совокупности (чаще всего нормального распределения). Эти критерии называются параметрическими.
- Критерии, которые для проверки гипотез не используют предположений о распределении генеральной совокупности. Эти критерии не требуют знания параметров распределений, поэтому называются непараметрически м и.
- Особую группу критериев составляют критерии согласия, служащие для проверки гипотез о согласии распределения генеральной совокупности, из которой получена выборка, с ранее принятой теоретической моделью (чаще всего нормальным распределением).
Односторонние и двусторонние критерии
Остановимся на одном важном обстоятельстве, которое часто не учитывается в спортивных приложениях математической статистики. Если цель исследования в том, чтобы выявить различие параметров двух генеральных совокупностей, которые соответствуют различным естественным условиям (условия тренировки, возраст испытуемых и т.п.), то часто неизвестно, какой из этих параметров будет больше, а какой меньше. Например, если интересуются вариативностью результатов в контрольной и экспериментальной группах, то, как правило, нет уверенности в знаке различия дисперсий или стандартных отклонений результатов, по которым оценивается вариативность. В этом случае нулевая гипотеза состоит в том, что дисперсии равны между собой 

Но иногда задача состоит в том, чтобы доказать увеличение или уменьшение параметра; например, средний результат в экспериментальной группе выше, чем в контрольной. При этом уже не допускается, что различие может быть другого знака. Тогда альтернативная гипотеза 


Критерии значимости, служащие для проверки двусторонних гипотез, называются двусторонними, а для односторонних — односторонними.
Возникает вопрос о том, какой из критериев следует выбирать в том или ином случае. Ответ на этот вопрос находится за пределами формальных статистических методов и полностью зависит от целей исследования. Ни в коем случае нельзя выбирать тот или иной критерий после проведения эксперимента на основе анализа экспериментальных данных, поскольку это может привести к неверным выводам. Если до проведения эксперимента допускается, что различие сравниваемых параметров может быть как положительным, так и отрицательным, то следует использовать двусторонний критерий. Если же есть дополнительная информация, например, из предшествующих экспериментов, на основании которой можно сделать предположение, что один из параметров больше или меньше другого, то используется односторонний критерий. Когда имеются основания дли применения одностороннего критерия, его следует предпочесть двустороннему, потому что односторонний критерий полнее использует информацию об изучаемом явлении и поэтому чаще дает правильные результаты.
Например, необходимо доказать различие средних значений генеральных совокупностей (средних значений спортивного результата) при двух различных методиках тренировки по результатам в контрольной и экспериментальной группах. Если есть данные, что экспериментальная группа покажет в среднем лучший результат, то нужно выдвинуть нулевую гипотезу 




Решение об отклонении гипотезы 


Рис. 6.2. Уровни значимости при двустороннем (а) и одностороннем (б) критериях стороны от нуля). Ошибка, которая при этом допускается, равна, как известно, уровню значимости а. Но поскольку отклонения возможны в обе стороны, то при симметричном распределении вероятности отклонении, больших 

Нели предположить, что в экспериментальной группе будут показаны в среднем более высокие результаты, то можно выдвинуть одностороннюю альтернативу 









Таким образом, двусторонние критерии оказываются более консервативными, чем односторонние.
Критерии, основанные на нормальном распределении
Если необходимо проверить гипотезу о том, что две независимые выборки получены из генеральных совокупностей X и У с одинаковыми дисперсиями

Сравнение двух выборочных дисперсий из нормальных совокупностей
Условия применения F-критерия: обе выборки независимы и получены из нормально распределенных генеральных совокупностей с параметрами
Известно, что это двусторонняя гипотеза, поэтому следует применять двусторонний критерий. Если же предположить, что одна из генеральных совокупностей имеет большую дисперсию (обозначим ее 


Уровень значимости критерия задается а.
Порядок применения F-критерия следующий:
1. Принимается предположение о нормальности распределения генеральных совокупностей, формулируется гипотеза и альтернатива, назначается уровень значимости а, как указано выше.
2. Получают две независимые выборки из совокупностей X и У объемом 
3. Рассчитываются значения выборочных дисперсий


4. Вычисляется значение F-критерия по формуле:
5. Сравнивается вычисленное значение F с критическим значением F-критерия при заданном уровне значимости а и числе степеней свободы 

Отметим, что в табл. 3 Приложения приведены критические значения одностороннего F-критерия. Поэтому если цель исследования доказать, что одна дисперсия больше другой 

6. Делается вывод: если вычисленное значение F-критерия больше или равно критическому, то дисперсии различаются значимо на заданном уровне значимости. В противном случае нет оснований для отклонения нулевой гипотезы о равенстве двух дисперсий.
Пример 6.1
Одна группа школьников 

Действуем в порядке, указанном выше.
1. Гипотеза 

Задаемся уровнем значимости а = 0,02 (такой «нестандартный» уровень значимости выбран из желания воспользоваться данными табл. 3 Приложения). Критические значения для двустороннего F-критерия содержатся в [8].
Принимаем предположение о нормальности распределения обеих генеральных совокупностей. Вопросы, связанные с тем, чем можно обосновать такое предположение, рассмотрены ниже в п. 6.4.
2—3. Пусть рассчитанные выборочные стандартные отклонения результатов составили: 
4. Вычисляем значение F-критерия по формуле (6.1):
5. Из табл. 3 Приложения при а= 0,02; 


6. Вывод: поскольку
Хотя наблюдаемое в эксперименте различие выборочных стандартных отклонений и кажется большим, но имеющиеся статистические данные не дают оснований для отклонения гипотезы о том, что для генеральных совокупностей (всех школьников шестых классов обычных школ и школ со спортивной подготовкой) дисперсии (а значит, и стандартное отклонение) различаются на уровне значимости 0,02.
Следует отметить, что F-критерий очень чувствителен к отклонениям от нормальности распределения генеральной совокупности. Если предположение о нормальном распределении не может быть принято (см. п.п. 6.4), то F-критерий применять не следует. В этом случае используются непараметрические методы, рассмотренные в [3, 4).
F-критерий используется для малых и средних объемов выборки (n < 100). Для больших объемов выборки (n > 100) при проверке гипотезы о равенстве дисперсий применяется «-критерий. В этом случае вычисляется величина
и сравнивается с критическими значениями 

Сравнение выборочного среднего арифметического со средним значением генеральной совокупности
Рассмотрим, как с помощью статистических критериев решить вопрос: значимо ли отличие выборочного среднего значения от среднего значения генеральной совокупности, из которой предположительно взята выборка, или наблюдаемое различие является случайным? Такая постановка вопроса типична для выборочного контроля качества продукции в промышленности, но и в спортивных исследованиях такой вопрос часто возникает, когда предстоит решить, значимо ли отличается среднее значение признака, полученное по выборке, от среднего значения, известного по результатам многочисленных предыдущих экспериментов.
Применяемый для этих целей t-критерий Стьюдента также основан на предположении о нормальности распределения генеральной совокупности, но результаты проверки гипотез удовлетворяют по точности и при небольших отклонениях от нормальности распределения (см. п. 6.4).
Условия применения t-критерия: выборка получена из генеральной совокупности, имеющей приближенно нормальное распределение с параметрами
Гипотеза 

Альтернатива

Уровень значимости: а.
Порядок применения T-критерия:
1. Принимается предположение о нормальности, формулируются гипотезы
2. Получают выборку объема n.
3. Вычисляется выборочное среднее арифметическое 

4. Определяется значение t-критерия по формуле: 


Величина t имеет при справедливости гипотезы 
5. По табл. 4 Приложения находится критическое значение t-критерия при уровне значимости а и числе степеней свободы v = n — 1. Табл. 4 Приложения содержит критические значения 
6. Делается вывод: если 




Пример 6.2
Цель исследования — проверить на основании результатов соревнований по спринтерскому бегу известное утверждение о том, что среднее различие между показаниями ручного и электронного хронометража составляет 0,25 с. На соревнованиях результаты фиксировались одновременно системой электронного хронометража и бригадой судей-хронометристов. Допустим, что есть результаты 30 спринтеров, пришедших на финиш первыми в своих забегах (для них, как правило, обеспечена наивысшая точность ручного хронометража, поскольку их результаты фиксируются несколькими хронометристами).
Используем t-критерий и действуем в указанном выше порядке.
1. Предполагаем, что распределение результатов в спринте приближенно нормальное (можно отметить, что справедливость этого предположения подтверждена исследованиями, проведенными в лаборатории спортивной радиоэлектроники ЛЭТИ им. В. И. Ульянова (Ленина) на большом статистическом материале).
Гипотеза
Альтернатива
Уровень значимости а= 0,01 (задается такой малый уровень значимости, поскольку цель — уточнить результаты, являющиеся общепринятыми).
2. Мы получили выборку объема n — 30 (разности
30 результатов по ручному и электронному хронометражу).
3. Допустим, например, что вычисленные выборочные характеристики оказались равными: х = 0,48 с, S = 0,39 с.
4. Вычисляем значение t-критерия по формуле (6.2):
5. По табл. 4 Приложения при а = 0,01 и v = 30 — 1 = 29 находим критическое значение /-критерия: /о,о! = 2,756.
6. Вывод. Поскольку

Значит ли это, что значение 0,25 с вообще неверно? Конечно, нет. Основываясь только на полученных результатах, мы не должны даже подозревать этого. Скорее всего наши данные получены из какой-то менее обширной генеральной совокупности, в которой среднее значение отличается от 0,25 с. 
При больших объемах выборки 
В этом случае вычисляют величину
и сравнивают ее с критическими значениями иа нормированного нормального распределения. Для стандартных уровней значимости значения иа приведены в табл. 6.2.

Сравнение двух выборочных средних значений для независимых выборок
В этом разделе рассматривается очень важный для практики спорта критерий математической статистики, позволяющий получить ответ на вопрос: значимо ли различаются средние значения, полученные по двум независимым выборкам (например, по результатам в контрольной и экспериментальной группах)? Здесь также применяется t-критерий Стьюдента, основанный на предположении, что выборки получены из генеральных совокупностей, имеющих приближенно нормальное распределение. Кроме того, применение t-критерия отличается при различных предположениях относительно дисперсий этих генеральных совокупностей. В математической статистике обычно рассматриваются случаи известных и неизвестных генеральных дисперсий, но, поскольку на практике генеральные дисперсии, как правило, неизвестны, здесь описывается только случай неизвестных дисперсий. При этом возможны следующие варианты предположений: 1) обе дисперсии неизвестны, но предполагается, что они равны между собой; 2) обе дисперсии неизвестны, и предположение о их равенстве не делается.
Как выбрать подходящий вариант? Конечно, если нет уверенности в равенстве дисперсий, нужно использовать второй вариант, потому что в этом случае требуется меньше знаний о распределении генеральных совокупностей, но всегда платой за это является меньшая точность выводов.
Поэтому обычно поступают следующим образом: вначале по имеющимся выборочным данным проверяют гипотезу о равенстве дисперсий, используя F-критерий, а затем уже выбирают тот или иной вариант t-критерия. Строго говоря, это некорректно с точки зрения математической статистики, поскольку, как уже неоднократно подчеркивалось, критерий должен выбираться до получения экспериментальных данных, и правильнее было бы выбрать предположение о равенстве или неравенстве дисперсий по другим, предварительно полученным экспериментальным данным.
При описанном выше подходе t-критерий применяется следующим образом.
Условия применения: обе выборки независимы и получены из генеральных совокупностей X и Y, имеющих нормальное распределение с параметрами
Гипотеза
Альтернатива 
Уровень значимости: а.
Порядок применения:
1. Принимается предположение о нормальности, формулируются гипотеза 

2. Получают две независимые выборки из совокупностей X и Y объемом
3. Вычисляются выборочные характеристики 
4. Используется F-критерий для проверки гипотезы о равенстве генеральных дисперсий, как показано в разделе 6.3.1.
5. По результатам применения F-критерия принимается или не принимается предположение о равенстве дисперсий.
6. Вычисляются значение t-критерия и число степеней свободы v. Применяемые для этого формулы приведены в табл. 6.3, они различаются в зависимости от предположения о дисперсиях и соотношения между объемами выборок
7. Из табл. 4 Приложения находится критическое значение t-критерия при заданном уровне значимости а и числе степеней свободы v.
8. Делается вывод: если

Пример 6.3
Две группы юных баскетболистов, занимающихся на базе одной ДЮСШ, в течение годичного цикла тренировки занимались но разным программам специальной подготовки (традиционной и новой). Эффективность новой программы оценивалась по уровню общефизической подготовки в конце цикла, и одним из контрольных упражнений был бег на 100 м. Численность групп одинакова и составляет n — 10.
Результаты на дистанции 100 м (в с):
Используем t-критерий Стьюдента в указанной выше последовательности:
1. Принимаем предположение о нормальности распределения генеральных совокупностей, из которых получены результаты.
Гипотеза
Альтернатива 
Выбираем уровень значимости а — 0,05.
2. Получаем две выборки, независимость которых обеспечивается планированием эксперимента (результаты, показанные в одной группе, не зависят от результатов другой).
3. Рассчитываем выборочные характеристики по формулам (3.1) и (3.11) гл. 3. Расчеты дают:





5. Поскольку
6. Вычисляем значение t-критерия: нашему случаю соответствует формула (1) из табл. 6.3. Поэтому 



Примечание. Если бы до проведения эксперимента было принято предположение, что новая программа обеспечивает прирост результатов в беге на 100 м, и нужно было бы доказать это, мы выдвинули бы одностороннюю альтернативу 
Последовательность действий точно такая же, за исключением того, что на этапе 7 при использовании табл. 4 Приложения нужно иметь в виду, что в ней содержатся критические значения двустороннего критерия. В случае одностороннего критерия данные табл. 4 соответствуют удвоенным уровням значимости. Таким образом, если для одностороннего критерия устанавливается уровень значимости а = 0,05, то в табл. 4 Приложения находим значение для а = 0,1.
Для этого примера имеем
Теперь уже результат проверки гипотезы будет противоположным. Поскольку
В этом нет никакого противоречия или доказательства несостоятельности статистических методов. Просто в первом случае, используя двустороннюю гипотезу, мы допускали и отрицательный эффект новой программы. В такой ситуации выводы должны быть более осторожными, чем в случае односторонней гипотезы, когда имеется дополнительная информация, позволяющая сделaть предположeние о положительном эффекте новой программы, что, естественно, дает возможность сделать более точный вывод. Правда, следует отметить, что превышение критического значения в рассмотренном примере столь незначительно, что в достоверности вывода о наличии положительного эффекта можно усомниться. В такой ситуации следует провести дополнительные исследования.
Сравнение двух выборочных средних значений для связанных выборок
Существует много практических задач, в которых две сравниваемые выборки взаимосвязаны в силу особенностей организации эксперимента или просто потому, что этой взаимосвязи нельзя избежать.
В практике медицинских, биологических и педагогических исследований часто используются так называемые парные сравнения. Один из методов таких сравнений заключается в том, что измерения проводятся для одной и той же группы испытуемых до и после применения интересующих исследователя воздействий. Результаты парных сравнений всегда точнее, чем сравнения на независимых группах, и объясняется это тем, что разброс результатов внутри группы испытуемых всегда больше, чем разброс разностей результатов, полученных при повторных измерениях для одних и тех же индивидуумов. Это можно пояснить на следующем простом примере. Допустим, необходимо но частоте сердечных сокращений (ЧСС) установить влияние на спортсменов какого-то вида тренировочной нагрузки. Конечно, можно было бы провести такой эксперимент на двух независимых однородных группах: в одной из них определить среднее значение ЧСС в покое, а в другой после тренировочной нагрузки. 
При парных сравнениях нельзя использовать рассмотренные выше методы для независимых выборок, поскольку это приведет к большим ошибкам.
Для сравнения средних значений здесь используется модификация t-критерия для связанных выборок. Особенность его в том, что гипотеза формулируется в отношении разностей 
Условия применения: 
Гипотеза
Альтернатива 
Уровень значимости: а.
Порядок применения:
1. Делается предположение о нормальном распределении разностей d


2. Получают две выборки объема n, представляющие собой ряды связанных пар наблюдений.
3. Вычисляются среднее арифметическое 

4. Определяется значение t-критерия: 

6. Делается вывод: если 
Пример 6.4
Группа школьников (n = 10) в течение летних каникул находилась в спортивном лагере. До и после сезона у них измерили жизненную емкость легких (ЖЕЛ). По результатам измерений нужно определить, значимо ли изменился этот показатель под влиянием интенсивных физических упражнений.
До эксперимента
3400 3600 3000 3500 2900 3100 3200 3400 3200 3400
После эксперимента
3800 3700 3300 3600 3100 3200 3200 3300 3500 3600
Действуем в указанном выше порядке:
1. Принимаем предположение о нормальности распределения разностей
Г ипотеза
Альтернатива
Выбираем уровень значимости: а = 0,05.
2. Имеем две связанные выборки объема n =10.
3. Вычисляем выборочные характеристики: значения разностей: 
4. Значение t-критерия, определяемое по формуле (6.3), равно 

6. Вывод: поскольку 
При больших выборках (для п

Критерии согласия
Все рассмотренные выше критерии значимости являются оптимальными, т. е. обеспечивают наивысшую достоверность статистических выводов только в тех случаях, когда выборки получены из нормально распределенной генеральной совокупности. При отклонениях от нормального распределения точность оптимальных критериев существенно падает, поэтому, чтобы уверенно применять оптимальные критерии, необходимо проверить предположение о нормальном распределении генеральной совокупности. Для этого используются критерии согласия. Здесь нулевая гипотеза 
Предварительная проверка соответствия нормальному распределению
Критерии согласия требуют достаточно большой вычислительной работы, поэтому целесообразно перед тем, как их использовать, проверить с помощью более простых методов соответствие имеющихся экспериментальных данных нормальному распределению. Эти методы, естественно, обладают меньшей мощностью и позволяют установить только значительные расхождения с нормальным распределением, но если такие расхождения будут установлены, то необходимость в применении более точных, но более сложных критериев, как правило, отпадает.
Для предварительной проверки эмпирического распределения на нормальность можно использовать основные свойства нормального распределения, изложенные в гл. 4. При этом эмпирическое распределение представляется в виде вариационного ряда или гистограммы (см. гл. 2). Если в качестве параметров 




Для проверки по этому свойству необходимо вычислить выборочные оценки этих параметров по формулам: 

Значения коэффициентов As и Ех сравниваются с критическими значениями на уровне значимости а, и если критические значения превышены, то делается вывод о том, что распределение генеральной совокупности, из которой получена выборка, не согласуется с нормальным. В противном случае модель нормального распределения может быть принята. Таблица критических значений 
Критерий согласия x2 (хи-квадрат)
Критерий согласия 
Условия применения: объем выборки 
Гипотеза 


Альтернатива
Уровень значимости: а.
Порядок применения:
1. Формулируется гипотеза, выбирается уровень значимости а.
2. Получается выборка объема 
3. Рассчитываются выборочные характеристики 


4. Вычисляются значения теоретических частот
где 


Если окажется, что вычисленные ожидаемые частоты п’ некоторых интервалов группировки меньше 5, то соседние интервалы объединяются так, чтобы сумма их ожидаемых частот была больше или равна 5. Соответственно складываются и эмпирические частоты объединяемых интервалов.
5. Значение 



6. Из табл. 5 Приложения находится критическое значение 
7. Вывод: если 
Пример 6.5
Воспользуемся данными табл. 2.3, где представлены результаты в беге на 100 м группы школьников (n = 50) для проверки соответствия эмпирического распределения нормальному распределению.
Исходные данные помещены в графы 2, 3 табл. 6.4 (графа 2 — границы интервалов группировки, графа 3 — эмпирические частоты интервалов). В табл. 2.3 верхние границы были уменьшены на 0,1 с для удобства подсчета частот. В табл. 6.4 верхние границы оставлены без изменений.
1. Формулируем гипотезу
2. Получаем выборку объема n = 50, строим интервальный вариационный ряд с числом интервалов к— 7 (см. табл. 2.3).
3. Выборочные характеристики по этим данным рассчитаны в примере 3.6:
х — 15,4 с, S — 0,9 с.
4. Вычисляем значения теоретических частот по формуле (6.4) с использованием табл. 1 Приложения. Предварительно нормируем границы интервалов группировки:
Нормированные границы занесены в графу 4, а вычисленные теоретические частоты — в графу 5 табл. 6.4.
Поскольку для интервалов с номерами 1, 2, 7 теоретические частоты оказались меньше 5, объединяем интервалы 1 и 2 с 3-м, а интервал 7 с 6-м интервалами. Суммируем эмпирические и ожидаемые частоты интервалов, которые мы объединили. После объединения получилось k = 4 интервала. Таблица 6.4 

Промежуточные расчеты отражены в графах 6 и 7 табл. 6.4.
6. Из табл. 5 Приложения находим для уровня значимости а = 0,05 и числа степеней свободы v = 4— 3= 1:
7. Вывод: поскольку 
Критерий X (лямбда)
Другим критерием, часто используемым для проверки гипотезы о нормальности распределения, является критерий 


Колмогорова — Смирнова
Условия применения: объем выборки 
Гипотеза
Альтернатива
Уровень значимости: а.
Порядок применения:
1. Формулируется гипотеза 
2. Получают выборку объема 
3. Вычисляются выборочные характеристики 
4. Рассчитываются значения эмпирических накопленных частот 

где n — объем выборки; 

5. Вычисляются значения критерия
где 


6. Определяется критическое значение 
Они соответствуют рассматриваемому варианту применения критерия Колмогорова — Смирнова, когда для вычисления теоретических накопленных частот используются выборочные характеристики 

7. Вывод: если 
Пример 6.6
Воспользуемся данными предыдущего примера (6.5) для проверки их соответствия нормальному распределению по критерию Колмогорова — Смирнова.
В табл. 6.5 в столбцах 2, 3 приведены срединные значения интервалов группировки и эмпирические накопленные частоты, взятые из табл. 2.3.
1. Формулируем гипотезу 
2. Имеем выборку объема n — 50, сгруппированную в интервальный вариационный ряд с семью интервалами.
3. Выборочные характеристики рассчитаны в предыдущем примере:
4. Эмпирические накопленные частоты приведены в графе 3, а теоретические, рассчитанные по формуле (6.6) — в графе 5.
5. Значение критерия 


7. Вывод: поскольку 
Оба рассмотренных критерия — 




Критерий W Шапиро — Уилки
Два рассмотренных выше критерия применяются при больших выборках 

Пример 6.7
Проверим на соответствие нормальному распределению данные примера 6.3 — результаты в беге на 100 м одной из групп (например, контрольной) юных баскетболистов.
Эти результаты представлены в графе 2 табл. 6.6.
Порядок применения:
1. Формулируем гипотезу 
2. Получаем выборку объема n = 10 независимых измерений.
3. Рассчитываем значение выборочной дисперсии. Из примера 6.З: 
Таблица 6.6
4. Ранжируем выборку, т. е. располагаем выборочные значения в возрастающем порядке, как показано в графе 2 табл. 6.6.
5. Образуем разности 




k = n/2, если n— нечетное, то 
центральная варианта выборки в образовании разностей не участвует.
Номера разностей k приведены в графе 3, а значения разностей 
6. По табл. 6 Приложения находим значение коэффициентов 
7. Находим произведения 
занесены в графу 6 табл. 6.6. . 8. Вычисляем величину 
10. Из табл. 7 Приложения находим критическое значение критерия Шапиро — Уилки для уровня значимости а = 0,05:
11. Вывод: поскольку
Заметим, что критерий W Шапиро — Уилки строится таким образом, что гипотеза 


Непараметрические критерии
Применение рассмотренных в разделе 6.3 параметрических критериев было связано с целым рядом допущений. Например, сравнивая выборочные средние значения с помощью t-критерия, принимались следующие предположения: обе выборки являются случайными, т. е. каждая из них получена в результате независимых измерений; обе выборки получены из генеральных совокупностей, имеющих нормальное распределение; дисперсии генеральных совокупностей равны между собой.
На практике эти предположения строго никогда не выполняются, поэтому применение параметрических критериев всегда связано с опасностью ошибочных выводов, возникающей из-за нарушения принятых допущений. В последнее время в математической статистике по этой причине интенсивно разрабатываются непараметрические методы, которые строятся так, чтобы их применение зависело от возможно меньшего числа допущений.
Отметим в связи с этим еще одно важное обстоятельство. Параметрические критерии значимости применимы только для сравнения выборочных данных, представляющих собой результаты измерений, выраженные в единицах метрических шкал (метры, килограммы, секунды и т. п.). Но в спортивных исследованиях часто приходится иметь дело с данными, выраженными в шкалах наименований или порядка, например произвольная нумерация игроков футбольной команды, места, запятые спортсменами на соревнованиях и т. д. Такие данные нельзя сравнивать с помощью параметрических критериев, а непараметрические критерии могут быть успешно применены и к данным этого типа.
Если рассматривать только те случаи, когда выборки можно считать полученными ид нормально распределенных совокупностей, непараметрические критерии всегда проигрывают соответствующим параметрическим критериям, оптимальным в этих случаях, потому что применение непараметрических критериев обычно связано с потерей части информации об измеренных значениях признаков. Поэтому вводится показатель эффективности критерия (E). Он представляет собой отношение объема выборки параметрического критерия к объему выборки непараметрического критерия при одинаковой мощности критериев в условиях нормального распределения генеральной совокупности. Этим показателем и принято оценивать эффективность непараметрических критериев.
Важную группу непараметрических критериев составляют ранговые критерии. Они хорошо разработаны, и эффективность их оказывается очень высокой (для большинства из них при больших объемах выборки эффективность близка к единице). В то же время они очень просты в пользовании и не требуют сложных математических вычислений.
Ниже рассматриваются некоторые из ранговых критериев. 
Ранги
Если расположить выборочные данные в порядке возрастания или убывания (точнее, в неубывающем или невозрастающем порядке, потому что некоторые данные могут совпадать), то получается ранжированная выборка. Порядковый номер выборочного значения в ней называется рангом этого значения.
Ранг однозначно определен порядковым номером, если в выборке нет совпадающих значений. Если же они есть, то их ранги определяются как среднее арифметическое порядковых номеров совпадающих значений. Пусть, например, получена выборка объема n — 10, которая после ранжирования выглядит следующим образом:
Значения с порядковыми номерами 3, 4, 5 и 8, 9 совпали, поэтому их ранги R определяются как
Таким образом, ранг не обязательно будет целым числом.
Для остальных, не совпадающих элементов выборки их ранги равны порядковым номерам. Ранги R, представленных выборочных значений равны:
В ранговых критериях точные значения признаков заменяются их рангами, поэтому информация о них теряется.
Рангами могут быть представлены данные, выраженные в порядковой шкале, в том числе результаты наблюдения качественных признаков, когда невозможно измерить точное численное значение признака, но можно определить очередность значений по принципу «больше— меньше» (например, места в спортивных состязаниях, результаты судейства в баллах, отметки за экзамен и т. п.).
Сравнение двух независимых выборок
К сравнению двух независимых выборок сводится очень широкий круг практических задач, которые в математической статистике часто называются задачами об эффекте обработки. Под «обработкой» здесь понимается любой процесс из конкретной области исследования, например методика или программа тренировки, тактические приемы соревновательной деятельности и др. Об эффекте обработки судят по результатам выборочных исследований. Если эксперимент организован так, что экспериментальный способ обработки сравнивается со стандартным (контрольным), то сопоставляются данные, представляющие собой две независимые выборки: одна получена из контрольной генеральной совокупности (результаты контрольной группы), а вторая — из экспериментальной (результаты экспериментальной группы).
Нулевая гипотеза 
Для таких случаев разработано несколько параметрических критериев. Рассмотрим один из них — критерий Вилкоксона для независимых выборок (критерий иногда называют также критерием Уайта). Это самый простой ранговый критерий.
Применение критерия Вилкоксона основано на единственном предположении: выборки получены из однотипных непрерывных распределений. При этом вид распределения генеральных совокупностей X и Y никак не оговаривается. Допущение о непрерывности распределений может быть ыриннто, когда исследуемый признак имеет большое число возможных градаций.
Гипотеза 
Поясним это более подробно. Поскольку функции распределения F (х) и F {у) равны, то, следовательно, равны и характеристики положения этих распределений (среднее значение и медиана). Поэтому если эффект оценивается по различию средних арифметических двух выборок, то нулевую гипотезу можно было бы записать в виде 
Одним из ценных свойств ранговых критериев является и то, что они могут применяться к данным, выраженным в шкале порядков или в шкале наименований. Для таких данных вычисление среднего арифметического не имеет смысла, а в качестве характеристики положения также используется 

Эта запись относится к медианам генеральных совокупностей, хотя здесь используется тот же символ Me, что и для выборочной медианы. В частном случае, когда распределение симметричное (нормальное), эта запись эквивалентна 
Альтернатива— 

Ниже рассматривается применение критерия Вилкок-сона на конкретном примере.
Пример 6.8
Воспользуемся данными примера 6.3, где приведены результаты в беге на 100 м контрольной и экспериментальной групп юных баскетболистов. В примере 6.3 принималось предположение о нормальном распределении совокупностей, из которых получены выборки. Здесь такого предположения не делается.
Объем выборки для контрольной группы —

Проверим гипотезу 

Порядок применения критерия Вилкоксона:
1. Объединяем обе выборки в одну. Объем объединенной выборки будет 
2. Находим ранги 
3. Суммируем по отдельности ранги, относящиеся к первой и второй выборкам, т. е. находим суммы:
Суммы рангов:
Контроль:
Для проверки правильности этих операций можно использовать тот факт, что сумма всех рангов
4. Меньшую из сумм рангов 
Для нашего примера W = 
5. Из табл. 8 Приложения находим критическое значение 



6. Вывод: если 
Для нашего примера 

Как видно из примера 6,8, применение критерия Вил-коксона основано на очень простых вычислениях сумм рангов. Это характерно для всех ранговых критериев. В то же время эффективность этого критерия довольно высока. Если он применяется для сравнения выборок из нормальных генеральных совокупностей, то при неограниченном увели-нении объема выборок эффективность его равна 0,95. Это означает, что при n = 1000 критерий Вилкоксона имеет такую же мощность (т. е. с такой же вероятностью правильно обнаруживает различие), как и оптимальный для этого случая t-критерий при пn— 950. Если же распределения несимметричны, то эффективность критерия Вилкоксона может быть и значительно больше 1.
В табл. 8 Приложения критические значения 



где 

Удобнее пользоваться выражением
Вычисленное по этой формуле значение w сравнивается с критическим значением 



Сравнение двух связанных выборок
Здесь будет рассмотрено применение непараметрических методов в тех случаях, когда требуется доказать различие двух связанных выборок, т. е. выборок, полученных при парных сравнениях (например, при повторных измерениях на одной и той же группе испытуемых спортсменов). В предположении нормальности распределения разностей результатов парных измерений используется t-критерий для связанных выборок (см. раздел G.3.4). Теперь же предположение о нормальности не делается.
Наиболее часто применяемый непараметрический критерий в таких случаях — критерий Вилкоксона для связанных выборок, являющийся непараметрическим аналогом упомянутого t-критерия.
Нулевая гипотеза 





Альтернатива 
Ниже приводится пример использования критерия Вилкоксона.
Пример 6.9
Воспользуемся данными примера 6.4, в котором представлены результаты измерения ЖЕЛ У школьников до и после пребывания в спортивном лагере. Применим непараметрический критерий Вилкоксона для доказательства различия связанных пар наблюдений
Зададимся уровнем значимости а = 0,05.
Исходные данные х: и У( помещены в столбцах 2 и 3 табл. 6.9.
Порядок применения:
1. Отбрасываем пары с одинаковыми значениями 

В нашем примере отбрасывается пара 3200, 3200, и объем выборки будет n = 10 — 1 
2. Из оставшихся пар образуем разности 
3. Находим ранги

4. Отмечаем ранги, относящиеся к положительным и отрицательным значениям разностей.
В графе 5 ранги обозначены (+) и (—).
5. Находим по отдельности суммы рангов отрицательных^ положительных разностей R(—) и R(+).
6. Меньшую из сумм рангов принимаем в качестве значения критерия W. Для нашего примера
7. Из табл. 9 Приложения находим критическое значение 
В табл. 9 Приложения приведены критические значения двустороннего критерия Вилкоксоиа. Если используется односторонний критерий, то значения этой таблицы соответствуют удвоенным уровням значимости, т. е.
8. Вывод: если 
Для рассматриваемого примера 
К такому же выводу мы пришли и в примере 6.4 при использовании t-критерия для нормального распределения разностей
Если объем выборок достаточно велик

где W — значение критерия Вилкоксона, определяемое как указано выше.
Вычисленное по этой формуле значение и сравнивается с критическим




Регрессионный и корреляционный анализ
В предыдущих лекциях были рассмотрены простейшие ситуации, когда в ходе исследования измерялись значения только одного варьирующего признака генеральной совокупности. Остальные признаки либо считались постоянными для данной совокупности, либо относились к случайным факторам, определяющим варьирование исследуемого признака. Как правило, исследования в спорте значительно сложнее и носят комплексный характер. Например, при контроле за ходом тренировочного процесса измеряется спортивный результат и одновременно может оцениваться целый ряд биомеханических, физиологических, биохимических и других параметров (скорость и ускорения общего центра масс и отдельных звеньев тела, углы в суставах, сила мышц, показатели систем дыхания и кровообращения, объем физической нагрузки и энергозатраты организма на ее выполнение и т. д.).
При этом часто возникает вопрос о взаимосвязи отдельных признаков. Например, как зависит спортивный результат от некоторых элементов техники спортивных движений? как связаны энергозатраты организма с объемом физической нагрузки определенного вида? насколько точно по результатам выполнения некоторых стандартных упражнений можно судить о потенциальных возможностях человека в конкретном виде спортивной ‘ деятельности? и т. п. Во всех этих случаях внимание исследователя привлекает зависимость между различными величинами, описывающими интересующие его признаки.
Иногда значение одной величины однозначно определяет значение другой, связанной с ней величины. В этих случаях имеет место функциональная зависимость между величинами. Например, средняя скорость 



Но чаще исследователя интересуют зависимости другого рода, когда при фиксированном значении одной величины другая величина имеет некоторую свободу и
может принимать различные значения. Так, средняя скорость на фиксированном отрезке пути будет различной для разных спортсменов, пульсовая стоимость 1 м пути при одной и той же скорости отличается для разных испытуемых.
Если в такой ситуации рассматривать одну величину как независимую (контролируемую), а вторую — как зависимую от первой, то зависимая величина ведет себя как случайная и ее можно описать некоторым вероятностным распределением. В то же время интерес вызывает то, что это распределение (или его параметры: среднее значение, стандартное отклонение) закономерно изменяется при изменении значений независимой величины. Например, среднее значение пульсовой стоимости 1 м пути для группы испытуемых будет закономерно изменяться при изменении скорости движения. В таких ситуациях говорят о стохастической (или вероятностной) зависимости между величинами.
При изучении стохастических зависимостей различают регрессию и корреляцию.
Регрессия — это зависимость среднего значения (точнее, математического ожидания) случайной величины Y от величины х. При этом принято говорить: «регрессия Y на х». Независимая величина х может быть не обязательно случайной, поэтому она обозначается здесь строчной буквой, прописные буквы используются обычно для случайных величин.
Корреляция — это зависимость между двумя случайными величинами Y и X, характеризуемая с помощью коэффициентов корреляции.
В соответствии с этим различают регрессионный и корреляционный анализы.
Регрессионный анализ устанавливает формы зависимости между случайной величиной Y и значениями одной или нескольких переменных величин, причем значения последних считаются точно заданными. Такая зависимость обычно определяется некоторой математической моделью (уравнением регрессии), содержащей несколько неизвестных параметров. Вначале на основании выборочных данных находят оценки этих параметров. Далее определяются статистические ошибки оценок или границы доверительных интервалов И проверяется соответствие (адекватность) примятой математической модели экспериментальным данным.
Корреляционный анализ состоит в определении степени связи между двумя случайными величинами X и Y. В качестве меры связи используется коэффициент корреляции. Коэффициент корреляции оценивается по выборке объема n связанных пар наблюдений
Теперь перейдем к более подробному рассмотрению методов регрессионного и корреляционного анализа.
Регрессионные модели
Самый важный этап регрессионного анализа — это выбор подходящей регрессионной модели, т. е. математического выражения, связывающего значения зависимой случайной величины Y и значения независимой величины х. Так же как и в рассмотренных выше статистических методах, мы относим эту абстрактную математическую модель к некоторой генеральной совокупности, в которой между значениями Y и х действительно существует зависимость, определенная выбранной моделью, и считаем, что экспериментальные данные получены именно из такой генеральной совокупности.
В простейшем случае предполагается линейная зависимость, выраженная уравнением:
Запись 
Это уравнение задает прямую линию в прямоугольной системе координат 

Регрессия, выраженная таким уравнением, называется простой линейной регрессией, потому что она учитывает зависимость только от одной контролируемой переменной х.
Иногда не удается объяснить поведение зависимой случайной величины Y влиянием только одной независи-
мой переменной х. Тогда часто используется модель множественной линейной регрессии:
Здесь среднее значение случайной величины У определяется уже значениями k независимых переменных:
Величины 

Частным случаем множественной линейной регрессии является полиномиальная регрессия, выражаемая полиномом степени k:
Рассмотренные уравнения регрессии определяют функциональную зависимость среднего значения




В этом выражении 

Во всех регрессионных моделях на случайные величины
Итак, регрессионная модель описывает зависимость случайной величины Y от независимой величины х в генеральной совокупности Y. Но поскольку вся генеральная совокупность У недоступна для наблюдений, то истинное уравнение регрессии неизвестно, и любая регрессионная модель будет лишь приближением к действительности.
Как выбрать наилучщую регрессионную модель? Математическая статистика по этому поводу говорит, что выбор модели — искусство и правильность выбора целиком зависит от опыта и интуиции исследователя. Обычно при выборе модели исходят из предметного анализа явления (какую форму связи можно ожидать?), и если имеющейся информации недостаточно, то, как правило, помогает графическое представление экспериментальных данных в виде диаграммы рассеяния (этот график называют также корреляционным полем, потому что при корреляционном анализе применяется точно такое же графическое представление данных). Для каждого значения х; независимой переменной измеренные значения 
Если удается «на глазок» провести прямую линию так, что все значения 
Примеры регрессионных задач в спорте
Рассмотрим несколько простых примеров, цель которых — показать, почему регрессионный анализ находит широкое применение а статистических исследованиях в области спорта.
Пример 7.1
В табл. 7.1 приведены данные о мировых рекордах в прыжках с шестом за период с 1957 по 1981 г.*.
Нанесем эти данные на график (рис. 7.3), где по оси х отложим годы, а по оси у — рекордные результаты.
График демонстрирует тенденцию к возрастанию рекордных результатов по годам. Более тонкий анализ позволяет сделать предположения, что начиная с 1965 г. наблюдалось приблизительное линейное возрастание результатов, а в более ранний период зависимость имеет, по-видимому, и более сложный характер. Для первой грубой оценки общей картины можно попытаться представить зависимость в виде прямой линии (ее примерный ход намечен на графике), и тогда имеется заманчивая возможность прогнозировать рекордные результаты на какой-то период времени вперед. (Интересно нанести на этот график более свежие данные и посмотреть, как они вписываются в наш «прямолинейный» прогноз).
Рис. 7.3. График зависимости мировых рекордов в прыжках с шестом от времени установления
Спортивное прогнозирование — одна из важных областей применения регрессионного анализа в спортивных исследованиях*.
Пример 7.2
Другая важная область применения регрессионного анализа в спортивных исследованиях также связана с прогнозированием, но в несколько другом понимании этого термина. Очень часто предметом исследования является такой признак, который непосредственно измерить затруднительно или невозможно. Это особенно характерно для исследований в области спортивной физиологии, медицины, психологии. В то же время известно, что изучаемый признак связан с другими признаками, которые измеряются сравнительно просто. Тогда пытаются подобрать модель предполагаемой зависимости и по этой модели прогнозировать значения неизмеряемого зависимого признака, основываясь на значениях других, легко измеряемых признаков. Прогнозируемые таким образом значения неизмеряемых признаков называются в статистике предикторами. Здесь также используются регрессионные модели, потому что оцениваемая величина является случайной: помимо контролируемых факторов, влияние которых учитывается значениями измеряемых признаков, она зависит и от множества других случайных факторов, которые контролировать не удается.
Например, часто интересуются энергозатратами организма человека при выполнении той или иной фиксированной физической нагрузки. Известно (опять же на основании регрессионного анализа!), что энергозатраты закономерно связаны с потреблением кислорода 
Предположим, что цель исследований состоит в оценке энергозатрат организма спортсмена при выполнении стандартной нагрузки: бег на тредбане в течение определенного времени с заданной скоростью.
Энергозатраты оцениваются по ЧСС, и далее определяется пульсовая стоимость 1 м пути (ПС — ЧСС/
Анализ графика (см. рис. 7.4) показывает, что в эксперименте также наблюдается некоторая закономерная связь скорости и ПС, но в этом случае зависимость является уже более сложной и не может быть описана уравнением прямой линии. Можно попытаться использовать полиномиальную модель регрессии (более подробно эти вопросы рассмотрены в специальной литературе). Если в результате регрессионного анализа окажется, что выбранная модель хорошо согласуется с экспериментальными данными, то можно использовать ее для прогнозирования энергозатрат по скорости бега, не прибегая каждый раз к достаточно сложным измерениям ЧСС.
Пример 7.3
Довольно часто интерес вызывает связь между двигательными достижениями в различных видах спортивных упражнений. Это особенно важно при подборе тестов, по результатам которых судят о возможных достижениях в том или ином виде спорта. Как правило, при этом пытаются установить просто наличие достоверной взаимосвязи между результатами теста и результатами в том упражнении, которое по общему признанию объективно отражает возможности человека в конкретном виде спорта. Это делается с помощью корреляционного анализа, но, как мы скоро увидим, чтобы корректно использовать коэффициент корреляции, также необходимо знать предполагаемую форму связи между результатами в двух видах спортивных упражнений.
Рассмотрим следующий пример. В табл. 7.2 приведены результаты, показанные группой школьников (n = 10) в беге на дистанциях 30 и 100 м.
На рис. 7.5 эти данные представлены в графической форме. Результаты в беге на 100 м

Отметим существенное отличие этого примера от двух предыдущих. В первых двух примерах независимая величина (время и скорость) не является случайной, а ее значения произвольно устанавливаются исследователем в определенном диапазоне. В последнем примере обе величины (и зависимая, и независимая) являются случайными, а их значения получаются по случайной выборке из генеральной совокупности. Исследователь по своему усмотрению вправе считать одну из этих величин зависимой, а другую — независимой.
Это две различные ситуации, рассматриваемые в регрессионном анализе. Методы его одинаковы в обоих случаях, а различие состоит в том, что в ситуациях, описываемых в первых двух примерах, нельзя оценить значимость корреляции между двумя величинами методами корреляционного анализа, рассмотренными ниже (хотя формально вычислить коэффициент корреляции можно и здесь).
Простая линейная регрессия
Из-за ограниченности объема книги мы не сможем рассмотреть многие вопросы регрессионного анализа, и для углубленного знакомства с ним следует обратиться к специальной литературе. В этом разделе излагается простейший, но очень важный для практики спорта случай — простая линейная регрессия.
Предположения регрессионного анализа
Выше было показано, что модель простой линейной регрессии, отражающая зависимость значений 

В этом уравнении 


Применение модели линейной регрессии основано на следующих предположениях:
1. В генеральной совокупности, из которой получены экспериментальные данные, действительно существует линейная регрессия, т. е. среднее значение 
2. Нет никаких факторов, существенно влияющих на
связь между величинами У и х. Это два самых важных предположения, определяющих практическую полезность линейного регрессионного анализа.
3. В генеральной совокупности все остатки



Если это предположение не выполняется, то невозможно оценить точность приближенного описания экспериментально наблюдаемых зависимостей с помощью регрессии. Это предположение обычно справедливо в тех случаях, когда выборочные данные, по которым строится линия регрессии, представляют собой результаты измерения для разных индивидов. Поэтому эти результаты можно считать независимыми друг от друга.
4. В генеральной совокупности, из которой получены выборочные данные, при любом значении независимой переменной х случайные величины 

Это предположение является необходимым при проверке значимости линейной регрессии и определении границ доверительных интервалов для параметров а и
Оценка параметров уравнения регрессии
Истинное уравнение регрессии



Оценки параметров а и 

Таким образом, по методу наименьших квадратов получаем эмпирическое уравнение некоторой прямой:
Здесь 
Оценка по методу наименьших квадратов является наилучшей в том смысле, что она дает уравнение такой прямой, для которой ошибка (сумма квадратов отклонений измеренных значений у; от этой прямой) будет наименьшей по сравнению с любой другой прямой линией (в том числе и с неизвестной истинной линией регрессии). В то же время, если каждому значению


Значения а и b по методу наименьших квадратов находятся из решения системы так называемых нормальных уравнений:
Решения этой системы уравнений можно записать в следующем, удобном для расчетов виде:
где 
Обычно b называют коэффициентом регрессии, a — свободным членом уравнения регрессии.
Пример 7.4
Найдем значения коэффициента регрессии (b) и свободного члена уравнения регрессии (а) для данных примера 7.3, т. е. построим прямую линию, устанавливающую приближенную зависимость результатов в беге на 100 м от результатов в беге на 30 м.
1. По данным табл. 7.2 находим значения промежуточных сумм, входящих в формулу (7.4):
2. Определим значения средних арифметических:
3. По формуле (7.4) вычисляем коэффициент регрессии: 
Таким образом, уравнение регрессии имеет вид:
Прямая, построенная по этому уравнению, показана на рис. 7.6 вместе с исходными данными. Эта прямая является наилучшей линейной оценкой уравнения регрессии, полученной по имеющимся данным. Но это не означает, что нельзя построить оценку регрессии в виде какой-то другой зависимости (нелинейной), которая будет лучше соответствовать экспериментальным данным, чем прямая линия.
Полученное эмпирическое уравнение регрессии можно использовать для прогнозирования результатов на дистанции 100 м по результатам дистанции 30 м. Например, если в группе школьников, которая участвовала в эксперименте, будет показан результат 5,2 с на дистанции 30 м, то можно ожидать, что результат на дистанции 100 м будет:
И это будет наилучшим прогнозом, который можно сделать, используя модель линейной регрессии.
Стандартная ошибка предсказания
Мерой качества приближенного описания реальной зависимости между величинами Y и х с помощью уравнения линейной регрессии является стандартное отклонение значений 


Пример 7.4 (продолжение)
Определим стандартную ошибку предсказания для данных примера с результатами в беге на 100 и 30 м. Для этого найдем значение промежуточной суммы 
Подставив эти значения в формулу (7.6) и используя найденные ранее значения остальных составляющих формулы (7.6), получим:
Две прямые линии, отстоящие от прямой регрессии на


Зона, определяемая стандартной ошибкой предсказания, показана на рис. 7.6 штриховыми линиями.
Проверка адекватности линейной модели
Проверка адекватности линейной модели может быть произведена с помощью стандартного F-критерия. Гипотеза 



Проверка адекватности линейной модели производится по графику остатков: 




Если остатки 

Следует отметить, что регрессионный анализ в полном объеме достаточно сложен даже для простой линейной модели. Здесь не обойтись без помощи ЭВМ. Для универсальных ЭВМ существуют стандартные программы регрессионного анализа*.
Здесь нет возможности уделить этому внимание, поэтому рассматриваются лишь простейшие методы, при которых для расчетов вполне достаточно обычных микрокалькуляторов.
В заключение построим график остатков для примера 7.4. Этот график приведен на рис. 7.7.
Как следует из рис. 7.7, остатки 
Проверка значимости коэффициента регрессии
Если в результате проведенной проверки нет оснований сомневаться в адекватности линейной модели, то необходимо проверить гипотезу о том, что в действительности в генеральной совокупности отсутствует линейная регрессия, а то, что полученный коэффициент регрессии b отличен от нуля,, объясняется только случайностью выборки.
Если данных много, то необходимость в такой проверке, как правило, отпадает, потому что зависимость явно прослеживается при графическом представлении данных (см., например, рис. 7.3). Но если выборка невелика, то такaя проверка полезна.
Гипотеза 
где 

t-критерий применяется обычным образом, как показано в гл. 6. Вычисленное по формуле (7.7) значение критерия сравнивается с критическим значением 
Заметим, что здесь a-уровень значимости, его не следует путать со свободным членом уравнения регрессии 
Если значение критерия

Пример 7.4 (продолжение)
Оценим значимость коэффициента регрессии b = 3,0, рассчитанного для данных нашего примера. Зададимся уровнем значимости а=0,05.
Подставим найденные ранее значения в формулу
(7.7) и определим значение t-критерия:
Из табл. 4 Приложения находим при а = 0,05 и v = 10-2 = 8:
Поскольку 

Полиномиальная регрессия
Часто зависимость между двумя величинами, которую можно предположить, анализируя графическое представление экспериментальных данных или опираясь на предметный анализ явлений, оказывается достаточно сложной, и модель линейной регрессии плохо подходит. Тогда прибегают к более сложным моделям, начиная обычно с самой простой из них — полиномиальной регрессии. Эти модели описываются выражением, содержащим, кроме линейного члена (1-й степени х) более высокие степени переменной х
Все предположения, которые принимаются при регрессионном анализе с использованием такой модели, полностью соответствуют предположениям, которые были сделаны в случае простой линейной регрессии.
Оценка параметров полиномиальной модели 


Решая совместно эти уравнения, находим коэффициенты 
Можно получить эти решения в готовом виде, и они приведены в
Коэффициент корреляции
Как уже отмечалось в начале этой лекции, при исследовании корреляции двух признаков обе величины X и Y, описывающие поведение этих признаков, рассматриваются как случайные величины, которые представлены совместным вероятностным распределением. Для двух случайных величин совместное распределение называется двумерным.
Корреляция изучается на основании экспериментальных данных, представляющих собой измеренные значения (



Корреляционный анализ, как и другие статистические методы, основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения
Когда исследуется корреляция между количественными признаками, значение которых можно точно измерить в единицах метрических шкал (метры, секунды, килограммы и т. п.), то очень часто принимается модель двумерной нормально распределенной генеральной совокупности. Плотность вероятностей двумерного нормального распределения имеет вид
где
Это распределение зависит от пяти параметров, четыре из которых нам уже знакомы:

Модель двумерного нормального распределения позволяет дать наглядную графическую интерпретацию коэффициента корреляции.
Если р — 0, то значения 
Если р= I или р= — 1, то между случайными величинами X и У существует линейная функциональная зависимость (У = с + dX). В этом случае говорят о полной корреляции. При р = 1 значения 


В промежуточных случаях 



Таким образом, коэффициент корреляции является мерой линейной связи между случайными величинами.
В двумерном нормальном распределении существуют две линии регрессии: регрессия У на X и регрессия X на У (в зависимости от того, какую из величин X или У считать независимой, а какую — зависимой). Причем для нормального распределения регрессия всегда линейна, т. е. среднее значение одной случайной величины линейно зависит от значений другой случайной величины. Поэтому для двумерного нормального распределения коэффициент корреляции является мерой взаимосвязи двух случайных величин.
Это справедливо только для двумерного нормального распределения. При произвольном распределении корреляция является мерой только линейной связи. Пусть, например, две случайные величины связаны функциональной квадратичной зависимостью 
Если нет оснований предполагать двумерное нормальное распределение, в качестве меры связи часто используется коэффициент ранговой корреляции Спирмена, для которого вид распределения случайных величин X и Y не имеет значения. Коэффициент ранговой корреляции является мерой любой монотонной (неубывающей или невозрастаюшей) зависимости между случайными величинами. Его применение рассмотрено в разделе 7.7
Если исследуется корреляционная зависимость между качественными признаками, которые не поддаются непосредственному измерению, то такая зависимость называется сопряженностью. В качестве меры зависимости используются коэффициенты сопряженности, рассмотренные в разделе 7.8.
Оценка коэффициента корреляции
Коэффициент корреляции р для генеральной совокупности, как правило, неизвестен, поэтому он оценивается по экспериментальным данным, представляющим собой выборку объема n пар значений 
В качестве оценки генерального коэффициента корреляции р используется коэффициент корреляции r Бра-ве — Пирсона. Для его определения принимается предположение о двумерном нормальном распределении генеральной совокупности, из которой получены экспериментальные данные. Это предположение может быть проверено с помощью соответствующих критериев значимости. Следует отметить, что если по отдельности одномерные эмпирические распределения значений 
Коэффициент корреляции r Браве — Пирсона вычис ляется по формуле:
где 
Для практических расчетов более удобна следующая формула:
В этой формуле все суммы также вычисляются для i от 1 до n. Удобство формулы (7.9) в том, что она оперирует непосредственно с исходными данными 

Важным свойством коэффициента корреляции является то, что он не изменяет своего значения при любом линейном преобразовании исходных данных 

то значение 

Это свойство позволяет существенно упростить вычисление коэффициента корреляции в тех случаях, когда значения 
Между коэффициентом корреляции r и коэффициентами регрессии 
Зная коэффициент корреляции, можно легко определить коэффициент регрессии:
где 
Квадрат коэффициента корреляции называется коэффициентом детерминации (d):
Коэффициент детерминации является мерой определенности линейной регрессии. Чем больше коэффициент детерминации, тем меньше наблюдаемые значения



Пример 7.5
Определим, существует ли связь между результатами в беге на 30 и на 100 м для данных примера 7.4, полученных для группы школьников.
Исходные данные 

1. Наносим исходные данные


Анализ графика позволяет сделать предположение о линейной связи между результатами в беге на 30 и 100 м для данной категории испытуемых. Силу этой связи можно оценить по коэффициенту корреляции r Браве — Пирсона.
2. Вычисляем значения промежуточных сумм, входящих в формулу (7.9), для коэффициента корреляции:
Промежуточные расчеты приведены в столбцах 2—6 табл. 7.3.
3. По формуле (7.9) вычисляем коэффициент корреляции:
Такое значение коэффициента корреляции свидетельствует о наличии сильной положительной корреляции между результатами в беге на 30 и 100 м.
4, Находим коэффициент детерминации
93,5% рассеяния результатов в беге на 100 м может быть объяснено изменением результатов в беге на 30 м. Иными словами, на оба исследуемых признака (результаты в беге на 30 и 100 м) действуют общие факторы, вызывающие варьирование этих признаков, и доля общих факторов составляет 93,5 %. Остальные 6,5 % приходятся на долю факторов, действующих на исследуемые признаки избирательно.
Пример 7.6
Исследовалась группа спортсменок I разряда, специализирующихся в беге на 400 м. Цель исследования состояла в том, чтобы выявить влияние времени на первой половине дистанции на время пробегания последних 200 м. На соревнованиях для 20 спортсменок измерены результаты на обеих половинах дистанции 400 м. Эти данные приведены в столбцах 2 и 3 табл. 7.4: 

Проведем корреляционный анализ экспериментальных данных.
1. Построим график корреляционного поля (рис. 7.9). Анализ графика показывает, что в данном случае можно предположить существование линейной корреляции между исследуемыми признаками, причем здесь корреляция отрицательная для данной категории испытуемых, т. е. при более быстром пробегании первой половины дистанции время на последних 200 м имеет тенденцию к возрастанию.
Вычислим коэффициент корреляции 
Как показал предыдущий пример 7.5, расчет коэффициента корреляции достаточно громоздкий. Можно ожидать, что в данном примере расчеты будут еще сложнее, потому что данных вдвое больше. Чтобы упростить вычисления, воспользуемся линейным преобразованием исходных данных (7.10). Это не изменит значения коэффициента корреляции, но позволит существенно упростить расчеты при правильном выборе линейного преобразования. Применим следующие преобразования:
Значения 


Преобразованные данные приведены в столбцах-4 и
5 табл. 7.4. Далее порядок вычислений ничем не отличается от рассмотренного в примере 7.5.
2. Находим значения промежуточных сумм:
По формуле (7.9) определяем:
Полученный результат говорит о наличии сильной отрицательной корреляции.
4. Коэффициент детерминации равен
В данном случае 64 % рассеяния результатов на последних 200 м объясняется изменением результатов на первой половине дистанции.
Критерий значимости и доверительные интервалы для коэффициента корреляции
Основываясь только на значении выборочного коэффициента корреляции, особенно если это значение не очень близко к ±1, нельзя сделать вывод о достоверности корреляции между признаками. Этот вывод может быть сделан с помощью соответствующих критериев значимости корреляции. Такие критерии служат для проверки гипотезы 



Применение стандартных критериев значимости корреляции основано на предположении о двумерном нормальном распределении генеральной совокупности, из которой получены экспериментальные данные.
Если принять предположение о наличии линейной связи между исследуемыми признаками, то гипотезу о двумерном нормальном распределении можно проверить с помощью стандартных критериев согласия (см. раздел 6.4), примененных к одномерным эмпирическим распределениям признаков X и Y.
Если предположение о двумерном нормальном распределении принимается, то могут быть использованы следующие критерии значимости корреляции:
t-критерий. При использовании t-критерия Стыодента-вычисляется значение критерия по формуле:
где r — выборочный коэффициент корреляции; n — объем выборки.
Вычисленное по формуле (7.13) значение t-критерия сравнивается с критическим значением

Чтобы упростить применение t-критерия, составлена таблица критических значений 
коэффициент корреляции r с критическим значением 






Величина Z имеет приближенно нормальное распределение со средним значением
и стандартным отклонением
Z-преобразование можно применять при
1. Вычисляем значение 



3. Если



отличается от 0. Для одностороннего критерия отклонение
Доверительный интервал для коэффициента корреляции
Z-преобразование удобно тем, что с его помощью можно определить границы доверительного интервала для генерального коэффициента корреляции p. Доверительный интервал строится следующим образом:
1. Вычисляем значение Z по формуле (7.14) или с помощью табл. 11 Приложения и стандартное отклонение 
2. Задаемся доверительной вероятностью 1 — а и определяем граничные значения 


3. Находим границы доверительного интервала для среднего значения 
4. С помощью обратного преобразования Фишера переходим к доверительному интервалу для коэффициента корреляции р. Для этого по табл. 12 Приложения’ находим значения r, соответствующие значениям Z 
Пример 7.6 (продолжение)
Оценим значимость корреляции на уровне значимости a = 0,05 и границы 95 %-ного доверительного интервалу для коэффициента корреляции для данных примера 7.6, представляющих собой результаты на первой и второй половине дистанции 400 м для спортсменок I разряда.
Действуем в таком порядке:
1. Вначале проверим гипотезу о том, что экспериментальные данные получены из двумерной нормальной совокупности.
Значения критерия W Шапиро — Уилки (см. раздел 6.4.4) для рядов 

Критическое значение 
Поскольку 


2. Оценим значимость корреляции путем сравнения с критическим значением коэффициента корреляции. Ранее вычисленный выборочный коэффициент корреляции


Поскольку 

Воспользуемся Z-преобразованием для проверки значимости корреляции. Отметим, что для рассматриваемого примера данный критерий можно не применять, так как выборочный коэффициент корреляции значительно превышает критическое значение, и использование еще одного критерия вряд ли изменит в такой ситуации вывод о значимости корреляции. Но Z-преобразование потребуется нам для определения доверительного интервала для коэффициента корреляции.
По табл. 11 Приложения при r =0,802 находим Z = 1,099.
Стандартное отклонение
Значение ц-критерия по формуле (7.15) составляет:
При уровне значимости а — 0,05 по табл. 6.2 находим критическое значение 

Поскольку 
4. Определим границы доверительного интервала для генерального коэффициента корреляции р.
Границы 95 %-ного доверительного интервала для 
По табл. 12 Приложения находим значения r, соответствующие границам доверительного интервала для р: 0,558 и 0,917.
Следовательно, 95 %-ный доверительный интервал для р будет: —0,917<р<—0,558.
Здесь мы учли, что выборочный коэффициент корреляции отрицательный.
Коэффициент ранговой корреляции Спирмена
Если потребуется установить связь между двумя признаками, значения которых в генеральной совокупности распределены не по нормальному закону, т. е. предположение о том, что двумерная выборка





Формула (7.17) получается непосредственно из формулы (7.8) для коэффициента корреляции Браве — Пирсона, если в последнюю вместо
Коэффициент ранговой корреляции также имеет пределы 1 и —1. Если ранги одинаковы для всех значений 




Когда ранги всех значений
или постоянно убывающей зависимостью). Если зависимость монотонно возрастающая, то ранги значений 


В тех случаях, когда в рядах 



При небольшом числе совпадающих значений формула (7.17)обеспечивает практически приемлемую точность и можно не усложнять расчеты вычислением
Коэффициент ранговой корреляции Спирмена вычисляется значительно проще, чем коэффициент корреляции Браве — Пирсона при одних и тех же исходных данных, поскольку при вычислении используются ранги, представляющие собой обычно целые числа.
Коэффициент ранговой корреляции целесообразно использовать в следующих случаях:
1. Если экспериментальные данные представляют собой точно измеренные значения признаков X и Y и требуется быстро найти приближенную оценку коэффициента корреляции. Тогда даже в случае двумерного нормального распределения генеральной совокупности можно воспользоваться коэффициентом ранговой корреляции вместо точного коэффициента корреляции Браве — Пирсона. Вычисления будут существенно проще, а точность оценки генерального параметра р с помощью коэффициента 
2. Когда значения 

Пример 7.7.
Воспользуемся данными примера 7.5 и определим коэффициент ранговой корреляции между результатами школьников в беге на 30 и 100 м. Исходные данные приведены в столбцах 2 и 3 табл. 7.5.
Расчет производится в следующем порядке:
1. Находим ранги 

Ранги приведены в столбцах 4 и 5 табл. 7.5. 2 3 4
2. Вычисляем разности рангов 



Предварительно найдем значения 

В ряду 
5. По формуле (7.18) находим 

Как видим, коэффициент ранговой корреляции
Пример 7.8
Выясним, существует ли связь между результатами в
прыжках в длину с места и местами, занятыми на соревнованиях, для гимнастов 11—12 лет. Данные, полученные по наблюдениям за 10 гимнастами этой возрастной категории, приведены в столбцах 2 и 3 табл. 7.6.
Данный пример соответствует второму случаю применения коэффициента ранговой корреляции Спирмена. Здесь значения 
Порядок расчета полностью соответствует рассмотренному выше в примере 7.7, за исключением того, что в данном примере отсутствуют совпадающие значения 

Коэффициент ранговой корреляции по формуле (7.17) составляет
Значимость коэффициента ранговой корреляции
Гипотеза 




Если 

Табл. 13 Приложения содержит критические значения для объемов выборки 

приближенно воспользоваться t-критерием, значение которого вычисляется следующим образом:
Это значение сравнивается с критическим значением 

Пример 7.7 (продолжение)
Выборочный коэффициент ранговой корреляции, определенный для данных примера7.7, составляет 
Поскольку



Пример 7.8 (продолжение)
Для данных примера 7.8 выборочный коэффициент ранговой корреляции 



Сопряженность качественных признаков
Если требуется выявить связь (сопряженность) между качественными признаками, которые не поддаются непосредственному измерению, для этого используются коэффициенты сопряженности.
Здесь рассматривается только простейший случай: связь между двумя альтернативными признаками. Мерой альтернативных признаков является наличие или отсутствие их у объектов исследования. Например, человек может заниматься или не заниматься спортом, заболеть или не заболеть простудным заболеванием, сдать или не сдать зачет по математической статистике, установить или не установить мировой рекорд в плавании, легкой атлетике и т. д.
При исследовании сопряженности двух альтернативных признаков исходные экспериментальные данные представляют в виде четырехклеточной таблицы сопряженности признаков (табл. 7.7). В этой таблице содержатся частоты а, b, с и d, соответствующие для выборки объема n наличию (+) или отсутствию (—) каждого из признаков «1» или «2» у испытуемых.
Взаимосвязь между двумя альтернативными признаками устанавливается с помощью тетрахорического коэффициента сопряженности (или коэффициента ассоциации) Пирсона
Рассмотрим его применение на примере.
Пример 7.9
Пусть, например, было проведено исследование влияния занятий спортом на утомляемость в течение рабочего дня у молодых выпускников технического вуза. Обследование проводилось с помощью анкетного опроса, и 200 ответов на вопросы анкеты «Занимаетесь ли вы спортом систематически?», «Чувствуете ли вы состояние психического или физического утомления к концу рабочего дня?» распределились, как показано в табл. 7.8.
Тетрахорический коэффициент сопряженности 

Для данных рассматриваемого примера 
Для проверки нулевой гипотезы о независимости признаков (об отсутствии сопряженности) используется 






Для рассматриваемого примера значение 
Зададимся уровнем значимости а =0,05 и по табл. 5 Приложения находим критические значения 
Поскольку 


Приложение
Удвоенные значения функции Лапласа
Удвоенные значения функции Лапласа:
(площадь под кривой нормального распределения между точками —u, u)
Ординаты нормальной кривой
Ординаты нормальной кривой
Критические значения одностороннего F-критерия Фишера
Критические значения одностороннего F-критерия Фишера (верхние числа в строке соответствуют уровню значимости 0,05; средние — 0,01; нижние — 0,001) Таблица 3
Критические значения двустороннего t-критерия Стьюдента
Критические значения двустороннего t-критерия Стьюдента
(v — число степеней свободы)
Вспомогательные коэффициенты для проверки нормальности
Вспомогательные коэффициенты 
Лекции по предметам:
- Математика
- Алгебра
- Линейная алгебра
- Векторная алгебра
- Геометрия
- Аналитическая геометрия
- Высшая математика
- Дискретная математика
- Математический анализ
- Теория вероятностей
- Математическая логика
Учебник онлайн:
- Точечные оценки, свойства оценок
- Доверительный интервал для вероятности события
- Проверка гипотезы о равенстве вероятностей
- Доверительный интервал для математического ожидания
- Доверительный интервал для дисперсии
- Проверка статистических гипотез
- Регрессионный анализ
- Корреляционный анализ
- Статистические решающие функции
- Случайные процессы
- Выборочный метод
- Статистическая проверка гипотез
- Статистические оценки
- Теория статистической проверки гипотез
- Линейный регрессионный анализ
- Вариационный ряд
- Законы распределения случайных величин
- Дисперсионный анализ
- Математическая обработка динамических рядов
- Корреляция — определение и вычисление
- Элементы теории ошибок
- Методы математической статистики
Регрессионный анализ
Определение
Регрессионный анализ — раздел математической статистики, устанавливающий формы зависимости между случайной величиной Y и значениями одной или нескольких переменных величин, причем значения последних считаются точно заданными.
Такая зависимость обычно определяется некоторой математической моделью (уравнением регрессии).
Использование в области физической культуры и спорта
В области ФКиС регрессионный анализ используется для прогноза результатов (рекордов) на основе математической модели. Однако, когда прогноз распространяется за пределы исследуемых данных интерпретировать результаты необходимо с особой осторожностью.
Второй областью применения регрессионного анализа является вычисление значений признака, который напрямую измерить достаточно трудно.
Регрессионная модель
Самый важный этап регрессионного анализа – выбор подходящей регрессионной модели.
Регрессионная модель – это математическое выражение, связывающее значения зависимой случайной величины Y и значения независимой случайной величины Х.
Существуют различные регрессионные модели:
1.Модели простой регрессии (построены на элементарных математических функциях):
Y=а+bX
Y= exp(a+bX)
Y= aXb
- Модель полиномиальной регрессии имеет следующий вид:
Y=b0+b1X+b2X2+…+bnXn
- Модель множественной регрессии выражается формулой:
Y= b0+b1X1+b2X2+…bnXn
Последовательность регрессионного анализа
Приступая к регрессионному анализу, необходимо оценить:
- значимость (достоверность) коэффициентов модели.
- адекватность модели.
Проверку значимости коэффициентов регрессии осуществляем по критерию Стьюдента. Если p-value < 0,05 – коэффициенты регрессии значимы (достоверны). В статистических пакетах значение p-value выводится рядом с коэффициентами уравнения регрессии.
Адекватность регрессионной модели
Для оценки адекватности модели существует несколько критериев:
- Критерий Фишера
- Коэффициент детерминации (R2 );
- Стандартная ошибка предсказания;
- График «предсказание – наблюдение».
Коэффициент детерминации
R2 (R-squared) — коэффициент детерминации. R2=74,5% показывает, что на 74,5% расчетные параметры модели (то есть сама модель), объясняют зависимость и изменения изучаемого параметра Y от исследуемых факторов -X.
Коэффициент детерминации показывает, какая доля вариации объясняемой переменной учтена в модели и обусловлена влиянием на нее факторов, включенных в модель.
Чем ближе к 100% тем выше адекватность модели. Считается неплохо, когда R2 больше чем 80%, если он меньше 50%, то адекватность модели можно смело ставить под большой вопрос.
Стандартная ошибка предсказания
Мерой качества приближенного описания реальной зависимости между Y и X является стандартная ошибка предсказания (Standard Error of Est.). Чем ближе наблюдаемые значения к предсказываемым, тем меньше стандартная ошибка предсказания.
Литература
- Высшая математика и математическая статистика: учебное пособие для вузов / Под общ. ред. Г. И. Попова. – М. Физическая культура, 2007.– 368 с.
- Основы математической статистики: Учебное пособие для ин-тов физ. культ / Под ред. В.С. Иванова. – М.: Физкультура и спорт, 1990. 176 с.






































































предварительно вычисленное х, а затем возводить полученные разности в квадрат. При ручных методах вычислений это вызывает трудности, особенно в случаях многоразрядных значений xi.
, входящее в эти формулы, обычно вычисляется с некоторой погрешностью округления. Она приводит к накоплению ошибки округления результатов (дисперсии и стандартного отклонения). Опасность существенных ошибок округления увеличивается с увеличением объема выборки.






























































































































и стандартное отклонение S. Методы вычислений рассмотрены в гл. 3;
В силу симметричности t-распределения достаточно знать только положительное значение
. Например, если объем выборки п — 12, то число степеней свободы t-распределения v = 12— 1 = 11, и по табл. 4 Приложения определяем для а = 0,05:
= 2,20;


и стандартное отклонение S, как показано в гл. 3.
соответствующее заданной доверительной вероятности
= 1,96).
— 15,4 с, S = 0,94 с.
— 1,96.



Здесь
— средние значения соответствующих генеральных совокупностей (результатов всех прыгунов данного класса, которые могли бы тренироваться по традиционной
и новой
программам).
Здесь
— так же, как и в п. 1, значения соответствующих генеральных параметров.





































































































































































































