Линейная регрессия ошибка аппроксимации

Работа по теме: МАтериалы к экзамену ЭКОНОМЕТРИКА. Глава: Прогноз по линейному уравнению регрессии. Средняя ошибка аппроксимации.. ВУЗ: МФЮА.

Прогноз по линейному уравнению регрессии. Средняя ошибка аппроксимации.

Проверить значимость уравнения регрессии
– значит установить, соответствует ли
математическая модель, выражающая
зависимость между переменными,
экспериментальным данным и достаточно
ли включенных в уравнение объясняющих
переменных (одной или нескольких) для
описания зависимой переменной.

Чтобы иметь общее суждение о качестве
модели из относительных отклонений по
каждому наблюдению, определяют среднюю
ошибку аппроксимации:

.
(1.8)

Средняя ошибка аппроксимации не должна
превышать 8–10%.

В прогнозных расчетах по уравнению
регрессии определяется предсказываемое
значение как точечный прогнозпри,
т.е. путем подстановки в уравнение
регрессиисоответствующего значения.
Однако точечный прогноз явно не реален.
Поэтому он дополняется расчетом
стандартной ошибки,
т.е.,
и соответственно интервальной оценкой
прогнозного значения:

,

где
,
а– средняя ошибка прогнозируемого
индивидуального значения:

.

Нелинейная регрессия. Классы нелинейных регрессий. Оценка нелинейной регрессии в целом

Если между экономическими явлениями
существуют нелинейные соотношения, то
они выражаются с помощью соответствующих
нелинейных функций.

Различают два класса нелинейных
регрессий:

  1. Регрессии, нелинейные относительно
    включенных в анализ объясняющих
    переменных, но линейные по оцениваемым
    параметрам, например

– полиномы различных степеней –
,;

– равносторонняя гипербола –
;

– полулогарифмическая функция –
.

  1. Регрессии, нелинейные по оцениваемым
    параметрам, например

– степенная –
;

– показательная –
;

– экспоненциальная –
.

Уравнение нелинейной регрессии, так
же, как и в случае линейной зависимости,
дополняется показателем тесноты связи.
В данном случае это индекс корреляции:

,
(1.21)

где
– общая дисперсия результативного
признака,– остаточная дисперсия.

Величина данного показателя находится
в пределах:
.
Чем ближе значение индекса корреляции
к единице, тем теснее связь рассматриваемых
признаков, тем более надежно уравнение
регрессии.

Квадрат индекса корреляции носит
название индекса детерминации и
характеризует долю дисперсии
результативного признака
,
объясняемую регрессией, в общей дисперсии
результативного признака:

,
(1.22)

т.е. имеет тот же смысл, что и в линейной
регрессии;
.

Индекс детерминации
можно сравнивать с коэффициентом
детерминациидля обоснования возможности применения
линейной функции. Чем больше кривизна
линии регрессии, тем величинаменьше.
А близость этих показателей указывает
на то, что нет необходимости усложнять
форму уравнения регрессии и можно
использовать линейную функцию.

Индекс детерминации используется для
проверки существенности в целом уравнения
регрессии по
-критерию
Фишера:

,
(1.23)

где
– индекс детерминации,– число наблюдений,– число параметров при переменной.
Фактическое значение-критерия
(1.23) сравнивается с табличным при уровне
значимостии числе степеней свободы(для остаточной суммы квадратов) и(для факторной суммы квадратов).

О качестве
нелинейного уравнения регрессии можно
также судить и по средней ошибке
аппроксимации

Регрессии нелинейные относительно включенных в анализ объясняющих переменных.

Регрессии нелинейные по включенным
переменным приводятся к линейному виду
простой заменой переменных, а дальнейшая
оценка параметров производится с помощью
метода наименьших квадратов. Рассмотрим
некоторые функции.

Парабола второй степени
приводится к линейному виду с помощью
замены:.
В результате приходим к двухфакторному
уравнению,
оценка параметров которого при помощи
МНК, как будет показано в параграфе 2.2
приводит к системе следующих нормальных
уравнений:

А после обратной замены переменных
получим

(1.17)

Парабола второй степени обычно применяется
в случаях, когда для определенного
интервала значений фактора меняется
характер связи рассматриваемых признаков:
прямая связь меняется на обратную или
обратная на прямую.

Равносторонняя гипербола может быть использована для характеристики
связи удельных расходов сырья, материалов,
топлива от объема выпускаемой продукции,
времени обращения товаров от величины
товарооборота, процента прироста
заработной платы от уровня безработицы
(например, кривая А.В. Филлипса), расходов
на непродовольственные товары от доходов
или общей суммы расходов (например,
кривые Э. Энгеля) и в других случаях.
Гипербола приводится к линейному
уравнению простой заменой:.
Система линейных уравнений при применении
МНК будет выглядеть следующим образом:

(1.18)

Аналогичным
образом приводятся к линейному виду
зависимости
,и другие

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Основы линейной регрессии

Время прочтения
13 мин

Просмотры 108K

Здравствуй, Хабр!

Цель этой статьи — рассказать о линейной регрессии, а именно собрать и показать формулировки и интерпретации задачи регрессии с точки зрения математического анализа, статистики, линейной алгебры и теории вероятностей. Хотя в учебниках эта тема изложена строго и исчерпывающе, ещё одна научно-популярная статья не помешает.

! Осторожно, трафик! В статье присутствует заметное число изображений для иллюстраций, часть в формате gif.

Содержание

  • Введение
  • Метод наименьших квадратов
    • Математический анализ
    • Статистика
    • Теория вероятностей
  • Мультилинейная регрессия
    • Линейная алгебра
  • Произвольный базис
  • Заключительные замечания
    • Проблема выбора размерности
    • Численные методы
  • Реклама и заключение

Введение

Есть три сходных между собой понятия, три сестры: интерполяция, аппроксимация и регрессия.
У них общая цель: из семейства функций выбрать ту, которая обладает определенным свойством.


Интерполяция — способ выбрать из семейства функций ту, которая проходит через заданные точки. Часто функцию затем используют для вычисления в промежуточных точках. Например, мы вручную задаем цвет нескольким точкам и хотим чтобы цвета остальных точек образовали плавные переходы между заданными. Или задаем ключевые кадры анимации и хотим плавные переходы между ними. Классические примеры: интерполяция полиномами Лагранжа, сплайн-интерполяция, многомерная интерполяция (билинейная, трилинейная, методом ближайшего соседа и т.д). Есть также родственное понятие экстраполяции — предсказание поведения функции вне интервала. Например, предсказание курса доллара на основании предыдущих колебаний — экстраполяция.

Аппроксимация — способ выбрать из семейства «простых» функций приближение для «сложной» функции на отрезке, при этом ошибка не должна превышать определенного предела. Аппроксимацию используют, когда нужно получить функцию, похожую на данную, но более удобную для вычислений и манипуляций (дифференцирования, интегрирования и т.п). При оптимизации критических участков кода часто используют аппроксимацию: если значение функции вычисляется много раз в секунду и не нужна абсолютная точность, то можно обойтись более простым аппроксимантом с меньшей «ценой» вычисления. Классические примеры включают ряд Тейлора на отрезке, аппроксимацию ортогональными многочленами, аппроксимацию Паде, аппроксимацию синуса Бхаскара и т.п.

Регрессия — способ выбрать из семейства функций ту, которая минимизирует функцию потерь. Последняя характеризует насколько сильно пробная функция отклоняется от значений в заданных точках. Если точки получены в эксперименте, они неизбежно содержат ошибку измерений, шум, поэтому разумнее требовать, чтобы функция передавала общую тенденцию, а не точно проходила через все точки. В каком-то смысле регрессия — это «интерполирующая аппроксимация»: мы хотим провести кривую как можно ближе к точкам и при этом сохранить ее максимально простой чтобы уловить общую тенденцию. За баланс между этими противоречивыми желаниями как-раз отвечает функция потерь (в английской литературе «loss function» или «cost function»).

В этой статье мы рассмотрим линейную регрессию. Это означает, что семейство функций, из которых мы выбираем, представляет собой линейную комбинацию наперед заданных базисных функций ${f_i}$

$ f = sum_i w_i f_i. $

Цель регрессии — найти коэффициенты этой линейной комбинации, и тем самым определить регрессионную функцию $f$ (которую также называют моделью). Отмечу, что линейную регрессию называют линейной именно из-за линейной комбинации базисных функций — это не связано с самыми базисными функциями (они могут быть линейными или нет).

Регрессия с нами уже давно: впервые метод опубликовал Лежандр в 1805 году, хотя Гаусс пришел к нему раньше и успешно использовал для предсказания орбиты «кометы» (на самом деле карликовой планеты) Цереры. Существует множество вариантов и обобщений линейной регрессии: LAD, метод наименьших квадратов, Ridge регрессия, Lasso регрессия, ElasticNet и многие другие.

Метод наименьших квадратов

Начнём с простейшего двумерного случая. Пусть нам даны точки на плоскости ${(x_1,y_1),cdots,(x_N,y_N)}$ и мы ищем такую аффинную функцию

$ f(x) = a + b cdot x, $

чтобы ее график ближе всего находился к точкам. Таким образом, наш базис состоит из константной функции и линейной $(1, x)$.

Как видно из иллюстрации, расстояние от точки до прямой можно понимать по-разному, например геометрически — это длина перпендикуляра. Однако в контексте нашей задачи нам нужно функциональное расстояние, а не геометрическое. Нас интересует разница между экспериментальным значением и предсказанием модели для каждого $x_i,$ поэтому измерять нужно вдоль оси $y$.

Первое, что приходит в голову, в качестве функции потерь попробовать выражение, зависящее от абсолютных значений разниц $|f(x_i) - y_i|$. Простейший вариант — сумма модулей отклонений $sum_i |f(x_i) - y_i|$ приводит к Least Absolute Distance (LAD) регрессии.

Впрочем, более популярная функция потерь — сумма квадратов отклонений регрессанта от модели. В англоязычной литературе она носит название Sum of Squared Errors (SSE)

$ text{SSE}(a,b)=text{SS}_{res[iduals]}=sum_{i=1}^N{text{отклонение}_i}^2=sum_{i=1}^N(y_i-f(x_i))^2=sum_{i=1}^N(y_i-a-bcdot x_i)^2, $

Метод наименьших квадратов (по англ. OLS) — линейная регрессия c $text{SSE}(a,b)$ в качестве функции потерь.

Такой выбор прежде всего удобен: производная квадратичной функции — линейная функция, а линейные уравнения легко решаются. Впрочем, далее я укажу и другие соображения в пользу $text{SSE}(a,b)$.

Математический анализ

Простейший способ найти $text{argmin}_{a,b} , text{SSE}(a,b)$ — вычислить частные производные по $ a $ и $ b $, приравнять их нулю и решить систему линейных уравнений

$ begin{aligned} frac{partial}{partial a}text{SSE}(a,b)&=-2sum_{i=1}^N(y_i-a-bx_i), \ frac{partial}{partial b}text{SSE}(a,b)&=-2sum_{i=1}^N(y_i-a-bx_i)x_i. end{aligned} $

Значения параметров, минимизирующие функцию потерь, удовлетворяют уравнениям

$ begin{aligned} 0 &= -2sum_{i=1}^N(y_i-hat{a}-hat{b}x_i), \ 0 &= -2sum_{i=1}^N(y_i-hat{a}-hat{b}x_i)x_i, end{aligned} $

которые легко решить

$ begin{aligned} hat{a}&=frac{sum_i y_i}{N}-hat{b}frac{sum_i x_i}{N},\ hat{b}&=frac{frac{sum_i x_i y_i}{N}-frac{sum_i x_isum_i y_i}{N^2}}{frac{sum_i x_i^2}{N}-left(frac{sum_i x_i^2}{N}right)^2}. end{aligned} $

Мы получили громоздкие и неструктурированные выражения. Сейчас мы их облагородим и вдохнем в них смысл.

Статистика

Полученные формулы можно компактно записать с помощью статистических эстиматоров: среднего $langle{cdot}rangle$, вариации $sigma_{cdot}$ (стандартного отклонения), ковариации $sigma({cdot},{cdot})$ и корреляции $rho({cdot},{cdot})$

$ begin{aligned} hat{a}&=langle{y}rangle-hat{b}langle{x}rangle, \ hat{b}&=frac{langle{xy}rangle-langle{x}ranglelangle{y}rangle}{langle{x^2}rangle-langle{x}rangle^2}. end{aligned} $

Перепишем $hat{b}$ как

$ hat{b} = frac{sigma(x,y)}{sigma_x^2}, $

где $sigma_x$ это нескорректированное (смещенное) стандартное выборочное отклонение, а $sigma(x,y)$ — ковариация. Теперь вспомним, что коэффициент корреляции (коэффициент корреляции Пирсона)

$ rho(x,y)=frac{sigma(x,y)}{sigma_x sigma_y} $

и запишем

$ hat{b}=rho(x,y)frac{sigma_y}{sigma_x}. $

Теперь мы можем оценить все изящество дескриптивной статистики, записав уравнение регрессионной прямой так

$ boxed{y-langle {y} rangle = rho(x,y)frac{sigma_y}{sigma_x}(x-langle {x} rangle)}. $

Во-первых, это уравнение сразу указывает на два свойства регрессионной прямой:

Во-вторых, теперь становится понятно, почему метод регрессии называется именно так. В единицах стандартного отклонения $y$ отклоняется от своего среднего значения меньше чем $x$, потому что $|rho(x,y)|leq1$. Это называется регрессией(от лат. regressus — «возвращение») по отношению к среднему. Это явление было описано сэром Фрэнсисом Гальтоном в конце XIX века в его статье «Регрессия к посредственности при наследовании роста». В статье показано, что черты (такие как рост), сильно отклоняющиеся от средних, редко передаются по наследству. Характеристики потомства как бы стремятся к среднему — на детях гениев природа отдыхает.

Возведя коэффициент корреляции в квадрат, получим коэффициент детерминации $R = rho^2$. Квадрат этой статистической меры показывает насколько хорошо регрессионная модель описывает данные. $R^2$, равный $1$, означает что функция идеально ложится на все точки — данные идеально скоррелированны. Можно доказать, что $R^2$ показывает какая доля вариативности в данных объясняется лучшей из линейных моделей. Чтобы понять, что это значит, введем определения

$ begin{aligned} text{Var}_{data} &= frac{1}{N}sum_i (y_i-langle y rangle)^2, \ text{Var}_{res} &= frac{1}{N} sum_i (y_i-text{модель}(x_i))^2, \ text{Var}_{reg} &= frac{1}{N} sum_i (text{модель}(x_i)-langle y rangle)^2. end{aligned} $

$text{Var}_{data}$ — вариация исходных данных (вариация точек $y_i$).

$text{Var}_{res}$ — вариация остатков, то есть вариация отклонений от регрессионной модели — от $y_i$ нужно отнять предсказание модели и найти вариацию.

$text{Var}_{reg}$ — вариация регрессии, то есть вариация предсказаний регрессионной модели в точках $x_i$ (обратите внимание, что среднее предсказаний модели совпадает с $langle y rangle$).

Дело в том, что вариация исходных данных разлагается в сумму двух других вариаций: вариации случайного шума (остатков) и вариации, которая объясняется моделью (регрессии)

$ boxed{{color{red}{text{Var}_{data}}} ={color{green}{text{Var}_{res}}}+ {color{blue}{text{Var}_{reg}}}.} $

или

$ sigma^2_{data} =sigma^2_{res}+ sigma^2_{reg}. $

Как видим, стандартные отклонения образуют прямоугольный треугольник.

Мы стремимся избавиться от вариативности, связанной с шумом и оставить лишь вариативность, которая объясняется моделью, — хотим отделить зерна от плевел. О том, насколько это удалось лучшей из линейных моделей, свидетельствует $R^2$, равный единице минус доля вариации ошибок в суммарной вариации

$ R^2=frac{text{Var}_{data}-text{Var}_{res}}{text{Var}_{data}}=1-frac{color{green}{text{Var}_{res}}}{color{red}{text{Var}_{data}}} $

или доле объясненной вариации (доля вариации регрессии в полной вариации)

$ R^2=frac{color{blue}{text{Var}_{reg}}}{color{red}{text{Var}_{data}}}. $

$R$ равен косинусу угла в прямоугольном треугольнике $(sigma_{data}, sigma_{reg}, sigma_{res})$. Кстати, иногда вводят долю необъясненной вариации $FUV=1-R^2$ и она равна квадрату синуса в этом треугольнике. Если коэффициент детерминации мал, возможно мы выбрали неудачные базисные функции, линейная регрессия неприменима вовсе и т.п.

Теория вероятностей

Ранее мы пришли к функции потерь $text{SSE}(a,b)$ из соображений удобства, но к ней же можно прийти с помощью теории вероятностей и метода максимального правдоподобия (ММП). Напомню вкратце его суть. Предположим, у нас есть $N$ независимых одинаково распределенных случайных величин (в нашем случае — результатов измерений). Мы знаем вид функции распределения (напр. нормальное распределение), но хотим определить параметры, которые в нее входят (например $mu$ и $sigma$). Для этого нужно вычислить вероятность получить $N$ датапоинтов в предположении постоянных, но пока неизвестных параметров. Благодаря независимости измерений, мы получим произведение вероятностей реализации каждого измерения. Если мыслить полученную величину как функцию параметров (функция правдоподобия) и найти её максимум, мы получим оценку параметров. Зачастую вместо функции правдоподобия используют ее логарифм — дифференцировать его проще, а результат — тот же.

Вернемся к задаче простой регрессии. Допустим, что значения $x$ нам известны точно, а в измерении $y$ присутствует случайный шум (свойство слабой экзогенности). Более того, положим, что все отклонения от прямой (свойство линейности) вызваны шумом с постоянным распределением (постоянство распределения). Тогда

$ y = a + bx + epsilon, $

где $epsilon$ — нормально распределенная случайная величина

$ epsilon sim mathcal{N}(0,,sigma^{2}), qquad p(epsilon) = frac{1}{sqrt{2 pi sigma^2}} e^{-frac{epsilon^2}{2sigma^2}}. $

Исходя из предположений выше, запишем функцию правдоподобия

$ begin{aligned} L(a,b|mathbf{y})&=P(mathbf{y}|a,b)=prod_i P(y_i|a,b)=prod_i p(y_i-a-bx|a,b)=\ &= prod_i frac{1}{sqrt{2 pi sigma^2}} e^{-frac{(y_i-a-bx)^2}{2sigma^2}}= frac{1}{sqrt{2 pi sigma^2}}e^{-frac{sum_i (y_i-a-bx)^2}{2 sigma^2}}=\ &= frac{1}{sqrt{2 pi sigma^2}}e^{-frac{text{SSE}(a,b)}{2 sigma^2}} end{aligned} $

и ее логарифм

$ l(a,b|mathbf{y})=log{L(a,b|mathbf{y})}=-text{SSE}(a,b)+const. $

Таким образом, максимум правдоподобия достигается при минимуме $text{SSE}$

$ (hat{a},hat{b})=text{argmax}_{a,b} , l(a,b|mathbf{y}) = text{argmin}_{a,b} , text{SSE}(a,b), $

что дает основание принять ее в качестве функции потерь. Кстати, если

$ begin{aligned} epsilon sim text{Laplace}(0, alpha), qquad p_{L}(epsilon; mu, alpha) =frac{alpha}{2}e^{-alpha |epsilon-mu|} end{aligned} $

мы получим функцию потерь LAD регрессии

$ E_{LAD}(a,b)=sum_i |y_i-a-bx_i|, $

которую мы упоминали ранее.

Подход, который мы использовали в этом разделе — один из возможных. Можно прийти к такому же результату, используя более общие свойства. В частности, свойство постоянства распределения можно ослабить, заменив на свойства независимости, постоянства вариации (гомоскедастичность) и отсутствия мультиколлинеарности. Также вместо ММП эстимации можно воспользоваться другими методами, например линейной MMSE эстимацией.

Мультилинейная регрессия

До сих пор мы рассматривали задачу регрессии для одного скалярного признака $x$, однако обычно регрессор — это $n$-мерный вектор $mathbf{x}$. Другими словами, для каждого измерения мы регистрируем $n$ фич, объединяя их в вектор. В этом случае логично принять модель с $n+1$ независимыми базисными функциями векторного аргумента — $n$ степеней свободы соответствуют $n$ фичам и еще одна — регрессанту $y$. Простейший выбор — линейные базисные функции $(1, x_1, cdots, x_n)$. При $n = 1$ получим уже знакомый нам базис $(1, x)$.

Итак, мы хотим найти такой вектор (набор коэффициентов) $mathbf{w}$, что

$ sum_{j=0}^n w_j x_j^{(i)}= mathbf{w}^{top}mathbf{x}^{(i)} simeq y_i, qquad qquad qquad qquad i=1dots N. $

Знак «$simeq$» означает, что мы ищем решение, которое минимизирует сумму квадратов ошибок

$ hat{mathbf{w}}=text{argmin}_mathbf{w} , sum_{i=1}^N left({y_i - mathbf{w}^{top}mathbf{x}^{(i)}}right)^2 $

Последнее уравнение можно переписать более удобным образом. Для этого расположим $mathbf{x}^{(i)}$ в строках матрицы (матрицы информации)

$ X= begin{pmatrix} - & mathbf{x}^{(1)top} & - \ cdots & cdots & cdots\ - & mathbf{x}^{(N)top} & - end{pmatrix} = begin{pmatrix} | & | & & | \ mathbf{x}_0 & mathbf{x}_1 & cdots & mathbf{x}_n \ | & | & & | end{pmatrix} = begin{pmatrix} 1 & x^{(1)}_{1} & cdots & x^{(1)}_{n} \ cdots & cdots & cdots & cdots\ 1 & x^{(N)}_{1} & cdots & x^{(N)}_{n} end{pmatrix}. $

Тогда столбцы матрицы $mathbf{x}_{i}$ отвечают измерениям $i$-ой фичи. Здесь важно не запутаться: $N$ — количество измерений, $n$ — количество признаков (фич), которые мы регистрируем. Систему можно записать как

$ X , mathbf{w} simeq mathbf{y}. $

Квадрат нормы разности векторов в правой и левой частях уравнения образует функцию потерь

$ text{SSE}(mathbf{w}) = {|mathbf{y}-X mathbf{w}|}^2, qquad qquad mathbf{w} in mathbb{R}^{n+1}; , mathbf{y} in mathbb{R}^{N}, $

которую мы намерены минимизировать

$ begin{aligned} hat{mathbf{w}}&=text{argmin}_mathbf{w} , text{SSE}(mathbf{w}) = text{argmin}_mathbf{w} , (mathbf{y}-X mathbf{w})^{top}(mathbf{y}-X mathbf{w})=\ &= text{argmin}_mathbf{w} ,(mathbf{y}^{top}mathbf{y}-2mathbf{w}^{top}X^{top}mathbf{y}+mathbf{w}^{top}X^{top}Xmathbf{w}). end{aligned} $

Продифференцируем финальное выражение по $mathbf{w}$ (если забыли как это делается — загляните в Matrix cookbook)

$ frac{partial , text{SSE}(mathbf{w})}{partial mathbf{w}}=-2 X^{top}mathbf{y}+2 X^{top}Xmathbf{w}, $

приравняем производную к $mathbf{0}$ и получим т.н. нормальные уравнения

$ X^{top}X , hat{mathbf{w}}=X^{top}mathbf{y}. $

Если столбцы матрицы информации $X$ линейно независимы (нет идеально скоррелированных фич), то матрица $X^{top}X$ имеет обратную (доказательство можно посмотреть, например, в видео академии Хана). Тогда можно записать

$ boxed{hat{mathbf{w}} = (X^{top}X)^{-1}X^{top}mathbf{y}=X^{+}mathbf{y}}, $

где

$ X^{+}=(X^{top}X)^{-1}X^{top} $

псевдообратная к $X$. Понятие псевдообратной матрицы введено в 1903 году Фредгольмом, она сыграла важную роль в работах Мура и Пенроуза.

Напомню, что обратить $X^{top}X$ и найти $X^{+}$ можно только если столбцы $X$ линейно независимы. Впрочем, если столбцы $X$ близки к линейной зависимости, вычисление $(X^{top}X)^{-1}$ уже становится численно нестабильным. Степень линейной зависимости признаков в $X$ или, как говорят, мультиколлинеарности матрицы $X^{top}X$, можно измерить числом обусловленности — отношением максимального собственного значения к минимальному. Чем оно больше, тем ближе $X^{top}X$ к вырожденной и неустойчивее вычисление псевдообратной.

Линейная алгебра

К решению задачи мультилинейной регрессии можно прийти довольно естественно и с помощью линейной алгебры и геометрии, ведь даже то, что в функции потерь фигурирует норма вектора ошибок уже намекает, что у задачи есть геометрическая сторона. Мы видели, что попытка найти линейную модель, описывающую экспериментальные точки, приводит к уравнению

$ X , mathbf{w} simeq mathbf{y}. $

Если количество переменных равно количеству неизвестных и уравнения линейно независимы, то система имеет единственное решение. Однако, если число измерений превосходит число признаков, то есть уравнений больше чем неизвестных — система становится несовместной, переопределенной. В этом случае лучшее, что мы можем сделать — выбрать вектор $mathbf{w}$, образ которого $Xmathbf{w}$ ближе остальных к $mathbf{y}$. Напомню, что множество образов или колоночное пространство $mathcal{C}(X)$ — это линейная комбинация вектор-столбцов матрицы $X$

$ begin{pmatrix} | & | & & | \ mathbf{x}_0 & mathbf{x}_1 & cdots & mathbf{x}_n \ | & | & & | end{pmatrix} mathbf{w} = w_0 mathbf{x}_0 + w_1 mathbf{x}_1 + cdots w_n mathbf{x}_n . $

$mathcal{C}(X)$$n+1$-мерное линейное подпространство (мы считаем фичи линейно независимыми), линейная оболочка вектор-столбцов $X$. Итак, если $mathbf{y}$ принадлежит $mathcal{C}(X)$, то мы можем найти решение, если нет — будем искать, так сказать, лучшее из нерешений.

Если в дополнение к векторам $mathcal{C}(X)$ мы рассмотрим все вектора им перпендикулярные, то получим еще одно подпространство и сможем любой вектор из $mathbb{R}^{N}$ разложить на две компоненты, каждая из которых живет в своем подпространстве. Второе, перпендикулярное пространство, можно характеризовать следующим образом (нам это понадобится в дальнейшем). Пускай $mathbf{v} in mathbb{R}^{N}$, тогда

$ X^top mathbf{v} = begin{pmatrix} - & mathbf{x}_0^{top} & - \ cdots & cdots & cdots\ - & mathbf{x}_n^{top} & - end{pmatrix} mathbf{v} = begin{pmatrix} mathbf{x}_0^{top} cdot mathbf{v} \ cdots \ mathbf{x}_n^{top} cdot mathbf{v} \ end{pmatrix} $

равен нулю в том и только в том случае, если $mathbf{v}$ перпендикулярен всем $mathbf{x}_i$, а значит и целому $mathcal{C}(X)$. Таким образом, мы нашли два перпендикулярных линейных подпространства, линейные комбинации векторов из которых полностью, без дыр, «покрывают» все $mathbb{R}^N$. Иногда это обозначают c помощью символа ортогональной прямой суммы

где $text{ker}(X^{top})={mathbf{v}|X^{top}mathbf{v}=mathbf{0}}$. В каждое из подпространств можно попасть с помощью соответствующего оператора проекции, но об этом ниже.

Теперь представим $mathbf{y}$ в виде разложения

$ mathbf{y} = mathbf{y}_{text{proj}} + mathbf{y}_{perp}, qquad mathbf{y}_{text{proj}} in mathcal{C}(X), qquad mathbf{y}_{perp} in text{ker}(X^{top}). $

Если мы ищем решение $hat{mathbf{w}}$, то естественно потребовать, чтобы $|| mathbf{y} - Xmathbf{w} ||$ была минимальна, ведь это длина вектора-остатка. Учитывая перпендикулярность подпространств и теорему Пифагора

$ text{argmin}_mathbf{w} || mathbf{y} - Xmathbf{w} || = text{argmin}_mathbf{w} || mathbf{y}_{perp} + mathbf{y}_{text{proj}} - Xmathbf{w} || = text{argmin}_mathbf{w} sqrt{|| mathbf{y}_{perp} ||^2 + || mathbf{y}_{text{proj}} - Xmathbf{w} ||^2}, $

но поскольку, выбрав подходящий $mathbf{w}$, я могу получить любой вектор колоночного пространства, то задача сводится к

$ Xhat{mathbf{w}} = mathbf{y}_{text{proj}}, $

а $mathbf{y}_{perp}$ останется в качестве неустранимой ошибки. Любой другой выбор $hat{mathbf{w}}$ сделает ошибку только больше.

Если теперь вспомнить, что $X^{top} mathbf{y}_{perp} = mathbf{0}$, то легко видеть

$ X^top X mathbf{w} = X^{top} mathbf{y}_{text{proj}} = X^{top} mathbf{y}_{text{proj}} + X^{top} mathbf{y}_{perp} = X^{top} mathbf{y}, $

что очень удобно, так как $mathbf{y}_{text{proj}}$ у нас нет, а вот $mathbf{y}$ — есть. Вспомним из предыдущего параграфа, что $X^{top} X$ имеет обратную при условии линейной независимости признаков и запишем решение

$ mathbf{w} = (X^top X)^{-1} X^top mathbf{y} = X^{+} mathbf{y}, $

где $X^{+}$ уже знакомая нам псевдообратная матрица. Если нам интересна проекция $mathbf{y}_{text{proj}}$, то можно записать

$ mathbf{y}_{text{proj}} = X mathbf{w} = X X^{+} mathbf{y} = text{Proj}_X mathbf{y}, $

где $text{Proj}_X$ — оператор проекции на колоночное пространство.

Выясним геометрический смысл коэффициента детерминации.

Заметьте, что фиолетовый вектор $bar{y} cdot boldsymbol{1}=bar{y} cdot (1,1,dots,1)^{top}$ пропорционален первому столбцу матрицы информации $X$, который состоит из одних единиц согласно нашему выбору базисных функций. В RGB треугольнике

$ {color{red}{mathbf{y}-hat{y} cdot boldsymbol{1}}}={color{green}{mathbf{y}-bar{mathbf{y}}}}+{color{blue}{hat{mathbf{y}}-bar{y} cdot boldsymbol{1}}}. $

Так как этот треугольник прямоугольный, то по теореме Пифагора

$ {color{red}{|mathbf{y}-hat{y} cdot boldsymbol{1}|^2}}={color{green}{|mathbf{y}-bar{mathbf{y}}|^2}}+{color{blue}{|hat{mathbf{y}}-bar{y} cdot boldsymbol{1}|^2}}. $

Это геометрическая интерпретация уже известного нам факта, что

$ {color{red}{text{Var}_{data}}} = {color{green}{text{Var}_{res}}}+{color{blue}{text{Var}_{reg}}}. $

Мы знаем, что

$ R^2=frac{color{blue}{text{Var}_{reg}}}{color{red}{text{Var}_{data}}}, $

а значит

$ R=cos{theta}. $

Красиво, не правда ли?

Произвольный базис

Как мы знаем, регрессия выполняется на базисных функциях $f_i$ и её результатом есть модель

$ f = sum_i w_i f_i, $

но до сих пор мы использовали простейшие $f_i$, которые просто ретранслировали изначальные признаки без изменений, ну разве что дополняли их постоянной фичей $f_0(mathbf{x}) = 1$. Как можно было заметить, на самом деле ни вид $f_i$, ни их количество ничем не ограничены — главное, чтобы функции в базисе были линейно независимы. Обычно, выбор делается исходя из предположений о природе процесса, который мы моделируем. Если у нас есть основания полагать, что точки ${(x_1,y_1),cdots,(x_N,y_N)}$ ложатся на параболу, а не на прямую, то стоит выбрать базис $(1, x, x^2)$. Количество базисных функций может быть как меньшим, так и большим, чем количество изначальных фич.

Если мы определились с базисом, то дальше действуем следующим образом. Мы формируем матрицу информации

$ Phi = begin{pmatrix} - & boldsymbol{f}^{(1)top} & - \ cdots & cdots & cdots\ - & boldsymbol{f}^{(N)top} & - end{pmatrix} = begin{pmatrix} {f}_{0}left(mathbf{x}^{(1)}right) & {f}_{1}left(mathbf{x}^{(1)}right) & cdots & {f}_{n}left(mathbf{x}^{(1)}right) \ cdots & cdots & cdots & cdots\ {f}_{0}left(mathbf{x}^{(N)}right) & {f}_{1}left(mathbf{x}^{(N)}right) & cdots & {f}_{n}left(mathbf{x}^{(N)}right) end{pmatrix}, $

записываем функцию потерь

$ E(mathbf{w})={|{boldsymbol{epsilon}}(mathbf{w})|}^2={|mathbf{y}-Phi , mathbf{w}|}^2 $

и находим её минимум, например с помощью псевдообратной матрицы

$ hat{mathbf{w}} = text{argmin}_mathbf{w} ,E(mathbf{w}) = (Phi^{top}Phi)^{-1}Phi^{top}mathbf{y}=Phi^{+}mathbf{y} $

или другим методом.

Заключительные замечания

Проблема выбора размерности

На практике часто приходится самостоятельно строить модель явления, то есть определяться сколько и каких нужно взять базисных функций. Первый порыв «набрать побольше» может сыграть злую шутку: модель окажется слишком чувствительной к шумам в данных (переобучение). С другой стороны, если излишне ограничить модель, она будет слишком грубой (недообучение).

Есть два способа выйти из ситуации. Первый: последовательно наращивать количество базисных функций, проверять качество регрессии и вовремя остановиться. Или же второй: выбрать функцию потерь, которая определит число степеней свободы автоматически. В качестве критерия успешности регрессии можно использовать коэффициент детерминации, о котором уже упоминалось выше, однако, проблема в том, что $R^2$ монотонно растет с ростом размерности базиса. Поэтому вводят скорректированный коэффициент

$ bar{R}^2=1-(1-R^2)left[frac{N-1}{N-(n+1)}right], $

где $N$ — размер выборки, $n$ — количество независимых переменных. Следя за $bar{R}^2$, мы можем вовремя остановиться и перестать добавлять дополнительные степени свободы.

Вторая группа подходов — регуляризации, самые известные из которых Ridge($L_2$/гребневая/Тихоновская регуляризация), Lasso($L_1$ регуляризация) и Elastic Net(Ridge+Lasso). Главная идея этих методов: модифицировать функцию потерь дополнительными слагаемыми, которые не позволят вектору коэффициентов $mathbf{w}$ неограниченно расти и тем самым воспрепятствуют переобучению

$ begin{aligned} E_{text{Ridge}}(mathbf{w})&=text{SSE}(mathbf{w})+alpha sum_i |w_i|^2 = text{SSE}(mathbf{w})+alpha | mathbf{w}|_{L_2}^2,\ E_{text{Lasso}}(mathbf{w})&=text{SSE}(mathbf{w})+beta sum_i |w_i| =text{SSE}(mathbf{w})+beta | mathbf{w}|_{L_1},\ E_{text{EN}}(mathbf{w})&=text{SSE}(mathbf{w})+alpha | mathbf{w}|_{L_2}^2+beta | mathbf{w}|_{L_1}, \ end{aligned} $

где $alpha$ и $beta$ — параметры, которые регулируют «силу» регуляризации. Это обширная тема с красивой геометрией, которая заслуживает отдельного рассмотрения. Упомяну кстати, что для случая двух переменных при помощи вероятностной интерпретации можно получить Ridge и Lasso регрессии, удачно выбрав априорное распределения для коэффициента $b$

$ y = a + bx + epsilon,qquad epsilon sim mathcal{N}(0,,sigma^{2}),qquad left{begin{aligned} &b sim mathcal{N}(0,,tau^{2})&leftarrowtext{Ridge},\ &b sim text{Laplace} (0,,alpha)&leftarrowtext{Lasso}. end{aligned}right. $

Численные методы

Скажу пару слов, как минимизировать функцию потерь на практике. SSE — это обычная квадратичная функция, которая параметризируется входными данными, так что принципиально ее можно минимизировать методом скорейшего спуска или другими методами оптимизации. Разумеется, лучшие результаты показывают алгоритмы, которые учитывают вид функции SSE, например метод стохастического градиентного спуска. Реализация Lasso регрессии в scikit-learn использует метод координатного спуска.

Также можно решить нормальные уравнения с помощью численных методов линейной алгебры. Эффективный метод, который используется в scikit-learn для МНК — нахождение псевдообратной матрицы с помощью сингулярного разложения. Поля этой статьи слишком узки, чтобы касаться этой темы, за подробностями советую обратиться к курсу лекций К.В.Воронцова.

Реклама и заключение

Эта статья — сокращенный пересказ одной из глав курса по классическому машинному обучению в Киевском академическом университете (преемник Киевского отделения Московского физико-технического института, КО МФТИ). Автор статьи помогал в создании этого курса. Технически курс выполнен на платформе Google Colab, что позволяет совмещать формулы, форматированные LaTeX, исполняемый код Python и интерактивные демонстрации на Python+JavaScript, так что студенты могут работать с материалами курса и запускать код с любого компьютера, на котором есть браузер. На главной странице собраны ссылки на конспекты, «рабочие тетради» для практик и дополнительные ресурсы. В основу курса положены следующие принципы:

  • все материалы должны быть доступны студентам с первой пары;
  • лекция нужны для понимания, а не для конспектирования (конспекты уже готовы, нет смысла их писать, если не хочется);
  • конспект — больше чем лекция (материала в конспектах больше, чем было озвучено на лекции, фактически конспекты представляют собой полноценный учебник);
  • наглядность и интерактивность (иллюстрации, фото, демки, гифки, код, видео с youtube).

Если хотите посмотреть на результат — загляните на страничку курса на GitHub.

Надеюсь вам было интересно, спасибо за внимание.

Средняя ошибка аппроксимации

По семи территориям Уральского района за 199Х г. известны значения двух признаков.

Район Расходы на покупку продовольственных товаров в общих расходах, %, у Среднедневная заработная плата одного работающего, руб., х
Удмуртская респ. 68,8 45,1
Свердловская обл. 61,2 59,0
Башкортостан 59,9 57,2
Челябинская обл. 56,7 61,8
Пермская обл. 55,0 58,8
Курганская обл. 54,3 47,2
Оренбургская обл. 49,3 55,2

Требуется:
1. Для характеристики зависимости у от х рассчитать параметры следующих функций:
а) линейной;
б) степенной;
в) показательной;
г) равносторонней гиперболы (так же нужно придумать как предварительно линеаризовать данную модель).
2. Оценить каждую модель через среднюю ошибку аппроксимации Аср и F-критерий Фишера.

Решение проводим при помощь онлайн калькулятора Линейное уравнение регрессии.
а) линейное уравнение регрессии;
Использование графического метода.
Этот метод применяют для наглядного изображения формы связи между изучаемыми экономическими показателями. Для этого в прямоугольной системе координат строят график, по оси ординат откладывают индивидуальные значения результативного признака Y, а по оси абсцисс — индивидуальные значения факторного признака X.
Совокупность точек результативного и факторного признаков называется полем корреляции.

Для наших данных система уравнений имеет вид

Из первого уравнения выражаем а и подставим во второе уравнение
Получаем b = -0.35, a = 76.88
Уравнение регрессии: y = -0.35 x + 76.88

x y x 2 y 2 x • y y(x) (y i -y cp ) 2 (y-y(x)) 2 |y — y x |:y
45,1 68,8 2034,01 4733,44 3102,88 61,28 119,12 56,61 0,1094
59 61,2 3481 3745,44 3610,8 56,47 10,98 22,4 0,0773
57,2 59,9 3271,84 3588,01 3426,28 57,09 4,06 7,9 0,0469
61,8 56,7 3819,24 3214,89 3504,06 55,5 1,41 1,44 0,0212
58,8 55 3457,44 3025 3234 56,54 8,33 2,36 0,0279
47,2 54,3 2227,84 2948,49 2562,96 60,55 12,86 39,05 0,1151
55,2 49,3 3047,04 2430,49 2721,36 57,78 73,71 71,94 0,172
384,3 405,2 21338,41 23685,76 22162,34 405,2 230,47 201,71 0,5699

Примечание: значения y(x) находятся из полученного уравнения регрессии:
y(45.1) = -0.35*45.1 + 76.88 = 61.28
y(59) = -0.35*59 + 76.88 = 56.47
. . .

Ошибка аппроксимации
Оценим качество уравнения регрессии с помощью ошибки абсолютной аппроксимации. Средняя ошибка аппроксимации — среднее отклонение расчетных значений от фактических:

F-статистики. Критерий Фишера.
Проверка значимости модели регрессии проводится с использованием F-критерия Фишера, расчетное значение которого находится как отношение дисперсии исходного ряда наблюдений изучаемого показателя и несмещенной оценки дисперсии остаточной последовательности для данной модели.
Если расчетное значение с k1=(m) и k2=(n-m-1) степенями свободы больше табличного при заданном уровне значимости, то модель считается значимой.

где m – число факторов в модели.
Оценка статистической значимости парной линейной регрессии производится по следующему алгоритму:
1. Выдвигается нулевая гипотеза о том, что уравнение в целом статистически незначимо: H0: R 2 =0 на уровне значимости α.
2. Далее определяют фактическое значение F-критерия:

где m=1 для парной регрессии.
3. Табличное значение определяется по таблицам распределения Фишера для заданного уровня значимости, принимая во внимание, что число степеней свободы для общей суммы квадратов (большей дисперсии) равно 1 и число степеней свободы остаточной суммы квадратов (меньшей дисперсии) при линейной регрессии равно n-2.
4. Если фактическое значение F-критерия меньше табличного, то говорят, что нет основания отклонять нулевую гипотезу.
В противном случае, нулевая гипотеза отклоняется и с вероятностью (1-α) принимается альтернативная гипотеза о статистической значимости уравнения в целом.
Табличное значение критерия со степенями свободы k1=1 и k2=5, Fkp = 6.61
Поскольку фактическое значение F b
в) показательная регрессия;
г) модель равносторонней гиперболы.
Система нормальных уравнений.

Для наших данных система уравнений имеет вид
7a + 0.1291b = 405.2
0.1291a + 0.0024b = 7.51
Из первого уравнения выражаем а и подставим во второе уравнение
Получаем b = 1054.67, a = 38.44
Уравнение регрессии:
y = 1054.67 / x + 38.44
Ошибка аппроксимации.
Оценим качество уравнения регрессии с помощью ошибки абсолютной аппроксимации.

Задача №3. Расчёт параметров регрессии и корреляции с помощью Excel

По территориям региона приводятся данные за 200Х г.

Номер региона Среднедушевой прожиточный минимум в день одного трудоспособного, руб., х Среднедневная заработная плата, руб., у
1 78 133
2 82 148
3 87 134
4 79 154
5 89 162
6 106 195
7 67 139
8 88 158
9 73 152
10 87 162
11 76 159
12 115 173

Задание:

1. Постройте поле корреляции и сформулируйте гипотезу о форме связи.

2. Рассчитайте параметры уравнения линейной регрессии

.

3. Оцените тесноту связи с помощью показателей корреляции и детерминации.

4. Дайте с помощью среднего (общего) коэффициента эластичности сравнительную оценку силы связи фактора с результатом.

5. Оцените с помощью средней ошибки аппроксимации качество уравнений.

6. Оцените с помощью F-критерия Фишера статистическую надёжность результатов регрессионного моделирования.

7. Рассчитайте прогнозное значение результата, если прогнозное значение фактора увеличится на 10% от его среднего уровня. Определите доверительный интервал прогноза для уровня значимости .

8. Оцените полученные результаты, выводы оформите в аналитической записке.

Решение:

Решим данную задачу с помощью Excel.

1. Сопоставив имеющиеся данные х и у, например, ранжировав их в порядке возрастания фактора х, можно наблюдать наличие прямой зависимости между признаками, когда увеличение среднедушевого прожиточного минимума увеличивает среднедневную заработную плату. Исходя из этого, можно сделать предположение, что связь между признаками прямая и её можно описать уравнением прямой. Этот же вывод подтверждается и на основе графического анализа.

Чтобы построить поле корреляции можно воспользоваться ППП Excel. Введите исходные данные в последовательности: сначала х, затем у.

Выделите область ячеек, содержащую данные.

Затем выберете: Вставка / Точечная диаграмма / Точечная с маркерами как показано на рисунке 1.

Рисунок 1 Построение поля корреляции

Анализ поля корреляции показывает наличие близкой к прямолинейной зависимости, так как точки расположены практически по прямой линии.

2. Для расчёта параметров уравнения линейной регрессии
воспользуемся встроенной статистической функцией ЛИНЕЙН.

1) Откройте существующий файл, содержащий анализируемые данные;
2) Выделите область пустых ячеек 5×2 (5 строк, 2 столбца) для вывода результатов регрессионной статистики.
3) Активизируйте Мастер функций: в главном меню выберете Формулы / Вставить функцию.
4) В окне Категория выберете Статистические, в окне функция – ЛИНЕЙН. Щёлкните по кнопке ОК как показано на Рисунке 2;

Рисунок 2 Диалоговое окно «Мастер функций»

5) Заполните аргументы функции:

Известные значения у – диапазон, содержащий данные результативного признака;

Известные значения х – диапазон, содержащий данные факторного признака;

Константа – логическое значение, которое указывает на наличие или на отсутствие свободного члена в уравнении; если Константа = 1, то свободный член рассчитывается обычным образом, если Константа = 0, то свободный член равен 0;

Статистика – логическое значение, которое указывает, выводить дополнительную информацию по регрессионному анализу или нет. Если Статистика = 1, то дополнительная информация выводится, если Статистика = 0, то выводятся только оценки параметров уравнения.

Щёлкните по кнопке ОК;

Рисунок 3 Диалоговое окно аргументов функции ЛИНЕЙН

6) В левой верхней ячейке выделенной области появится первый элемент итоговой таблицы. Чтобы раскрыть всю таблицу, нажмите на клавишу , а затем на комбинацию клавиш + + .

Дополнительная регрессионная статистика будет выводиться в порядке, указанном в следующей схеме:

Значение коэффициента b Значение коэффициента a
Стандартная ошибка b Стандартная ошибка a
Коэффициент детерминации R 2 Стандартная ошибка y
F-статистика Число степеней свободы df
Регрессионная сумма квадратов

Остаточная сумма квадратов

Рисунок 4 Результат вычисления функции ЛИНЕЙН

Получили уровнение регрессии:

Делаем вывод: С увеличением среднедушевого прожиточного минимума на 1 руб. среднедневная заработная плата возрастает в среднем на 0,92 руб.

3. Коэффициент детерминации означает, что 52% вариации заработной платы (у) объясняется вариацией фактора х – среднедушевого прожиточного минимума, а 48% — действием других факторов, не включённых в модель.

По вычисленному коэффициенту детерминации можно рассчитать коэффициент корреляции: .

Связь оценивается как тесная.

4. С помощью среднего (общего) коэффициента эластичности определим силу влияния фактора на результат.

Для уравнения прямой средний (общий) коэффициент эластичности определим по формуле:

Средние значения найдём, выделив область ячеек со значениями х, и выберем Формулы / Автосумма / Среднее, и то же самое произведём со значениями у.

Рисунок 5 Расчёт средних значений функции и аргумент

Таким образом, при изменении среднедушевого прожиточного минимума на 1% от своего среднего значения среднедневная заработная плата изменится в среднем на 0,51%.

С помощью инструмента анализа данных Регрессия можно получить:
— результаты регрессионной статистики,
— результаты дисперсионного анализа,
— результаты доверительных интервалов,
— остатки и графики подбора линии регрессии,
— остатки и нормальную вероятность.

Порядок действий следующий:

1) проверьте доступ к Пакету анализа. В главном меню последовательно выберите: Файл/Параметры/Надстройки.

2) В раскрывающемся списке Управление выберите пункт Надстройки Excel и нажмите кнопку Перейти.

3) В окне Надстройки установите флажок Пакет анализа, а затем нажмите кнопку ОК.

• Если Пакет анализа отсутствует в списке поля Доступные надстройки, нажмите кнопку Обзор, чтобы выполнить поиск.

• Если выводится сообщение о том, что пакет анализа не установлен на компьютере, нажмите кнопку Да, чтобы установить его.

4) В главном меню последовательно выберите: Данные / Анализ данных / Инструменты анализа / Регрессия, а затем нажмите кнопку ОК.

5) Заполните диалоговое окно ввода данных и параметров вывода:

Входной интервал Y – диапазон, содержащий данные результативного признака;

Входной интервал X – диапазон, содержащий данные факторного признака;

Метки – флажок, который указывает, содержит ли первая строка названия столбцов или нет;

Константа – ноль – флажок, указывающий на наличие или отсутствие свободного члена в уравнении;

Выходной интервал – достаточно указать левую верхнюю ячейку будущего диапазона;

6) Новый рабочий лист – можно задать произвольное имя нового листа.

Затем нажмите кнопку ОК.

Рисунок 6 Диалоговое окно ввода параметров инструмента Регрессия

Результаты регрессионного анализа для данных задачи представлены на рисунке 7.

Рисунок 7 Результат применения инструмента регрессия

5. Оценим с помощью средней ошибки аппроксимации качество уравнений. Воспользуемся результатами регрессионного анализа представленного на Рисунке 8.

Рисунок 8 Результат применения инструмента регрессия «Вывод остатка»

Составим новую таблицу как показано на рисунке 9. В графе С рассчитаем относительную ошибку аппроксимации по формуле:

Рисунок 9 Расчёт средней ошибки аппроксимации

Средняя ошибка аппроксимации рассчитывается по формуле:

Качество построенной модели оценивается как хорошее, так как не превышает 8 – 10%.

6. Из таблицы с регрессионной статистикой (Рисунок 4) выпишем фактическое значение F-критерия Фишера:

Поскольку при 5%-ном уровне значимости, то можно сделать вывод о значимости уравнения регрессии (связь доказана).

8. Оценку статистической значимости параметров регрессии проведём с помощью t-статистики Стьюдента и путём расчёта доверительного интервала каждого из показателей.

Выдвигаем гипотезу Н0 о статистически незначимом отличии показателей от нуля:

.

для числа степеней свободы

На рисунке 7 имеются фактические значения t-статистики:

t-критерий для коэффициента корреляции можно рассчитать двумя способами:

I способ:

где – случайная ошибка коэффициента корреляции.

Данные для расчёта возьмём из таблицы на Рисунке 7.

II способ:

Фактические значения t-статистики превосходят табличные значения:

Поэтому гипотеза Н0 отклоняется, то есть параметры регрессии и коэффициент корреляции не случайно отличаются от нуля, а статистически значимы.

Доверительный интервал для параметра a определяется как

Для параметра a 95%-ные границы как показано на рисунке 7 составили:

Доверительный интервал для коэффициента регрессии определяется как

Для коэффициента регрессии b 95%-ные границы как показано на рисунке 7 составили:

Анализ верхней и нижней границ доверительных интервалов приводит к выводу о том, что с вероятностью параметры a и b, находясь в указанных границах, не принимают нулевых значений, т.е. не являются статистически незначимыми и существенно отличны от нуля.

7. Полученные оценки уравнения регрессии позволяют использовать его для прогноза. Если прогнозное значение прожиточного минимума составит:

Тогда прогнозное значение прожиточного минимума составит:

Ошибку прогноза рассчитаем по формуле:

где

Дисперсию посчитаем также с помощью ППП Excel. Для этого:

1) Активизируйте Мастер функций: в главном меню выберете Формулы / Вставить функцию.

2) В окне Категория выберете Статистические, в окне функция – ДИСП.Г. Щёлкните по кнопке ОК.

3) Заполните диапазон, содержащий числовые данные факторного признака. Нажмите ОК.

Рисунок 10 Расчёт дисперсии

Получили значение дисперсии

Для подсчёта остаточной дисперсии на одну степень свободы воспользуемся результатами дисперсионного анализа как показано на Рисунке 7.

Доверительные интервалы прогноза индивидуальных значений у при с вероятностью 0,95 определяются выражением:

Интервал достаточно широк, прежде всего, за счёт малого объёма наблюдений. В целом выполненный прогноз среднемесячной заработной платы оказался надёжным.

Условие задачи взято из: Практикум по эконометрике: Учеб. пособие / И.И. Елисеева, С.В. Курышева, Н.М. Гордеенко и др.; Под ред. И.И. Елисеевой. – М.: Финансы и статистика, 2003. – 192 с.: ил.

Средней ошибки аппроксимации качество уравнений

Оценка этой формы связи по коэффициенту множественной корреляции и средней ошибке аппроксимации показывает, что адекватность данной модели не подтверждается. Действительно, хотя значение коэффициента достаточно высокое (0,92), средняя ошибка аппроксимации составляет более 10% (I = 14,5%). Поэтому данная форма должна быть исключена из перебора известных уравнений регрессии. [c.29]

Анализ полученной формы связи по той же причине, что и в первом случае, позволяет сделать вывод о непригодности и этой модели. Коэффициент множественной корреляции хотя и имеет более высокое значение, чем в линейной зависимости (0,93), но по величине средней ошибки аппроксимации (б = 12,4%) это уравнение регрессии подлежит исключению из дальнейшего перебора. [c.29]

Последняя модель себестоимости добычи нефти, как показывает оценка ее по известным критериям, удовлетворяет условиям адекватности. Коэффициент множественной корреляции R составляет 0,98, что свидетельствует о том, что колеблемость исследуемого показателя более чем на 96 % определяется факторами, включенными в эту модель. При оценке по f-критерию (t R = 30,5) можно утверждать, что с вероятностью 0,99 факторы, включенные в модель, имеют существенную связь с исследуемым показателем (t a n = 2,58). Средняя ошибка аппроксимации составляет всего лишь 2,9 %, а F-критерий, характеризующий уровень остаточной дисперсии, превышает критическое (табличное) значение в четыре раза. К этому следует добавить, что полученная модель себестоимости добычи нефти представляет собой достаточно простую форму связи, легко решается и поддается экономической интерпретации. [c.30]

Оценка полученной модели по статистическим характеристикам показывает, что колеблемость затрат исследуемой подсистемы на 85 % обусловлена колеблемостью факторов, включенных в модель, коэффициент множественной корреляции высокий (/ = 0,92) и существенный (f = = 39,8), модель является адекватной, средняя ошибка аппроксимации (ё = 5,7%) меньше 10%. [c.39]

Статистический анализ показывает, что уравнение значимо Рф = 5,054 при /»табл = 3,01, корреляционное отношение равно 0,9959, ее»стандартная ошибка равна 0,0015. Среднее квадратическое отклонение расчетной себестоимости от фактической равно 0,018. Средняя ошибка аппроксимации 1,1%. [c.90]

Средняя ошибка аппроксимации [c.94]

Средняя ошибка аппроксимации. [c.95]

В случаях, когда трудно обосновать форму зависимости, решение задачи можно провести по разным моделям и сравнить полученные результаты. Адекватность разных моделей фактическим зависимостям проверяется по критерию Фишера, показателю средней ошибки аппроксимации и величине множественного коэффициента детерминации, о которых речь пойдет несколько позже (см. 7.4). [c.144]

Эти сведения вводятся в ПЭВМ и рассчитываются матрицы парных и частных коэффициентов корреляции, уравнение множественной регрессии, а также показатели, с помощью которых оценивается надежность коэффициентов корреляции и уравнения связи критерий Стьюдента, критерий Фишера, средняя ошибка аппроксимации, множественные коэффициенты корреляции и детерминации. [c.145]

Для того чтобы убедиться в надежности уравнения связи и правомерности его использования для практической цели, необходимо дать статистическую оценку надежности показателей связи. Для этого используются критерий Фишера (F-отношение), средняя ошибка аппроксимации ( ), коэффициенты множественной корреляции (/ ) и детерминации (D). [c.151]

Для статистической оценки точности уравнения связи используется также средняя ошибка аппроксимации [c.152]

Чем меньше теоретическая линия регрессии (рассчитанная по уравнению) отклоняется от фактической (эмпиричной), тем меньше средняя ошибка аппроксимации. В нашем примере она составляет 0,0364, или 3,64 %. Учитывая, что в экономических расчетах допускается погрешность 5-8 %, можно сделать вывод, что исследуемое уравнение связи довольно точно описывает изучаемые зависимости. [c.152]

После построения уравнения регрессии необходимо сделать проверку его значимости с помощью специальных критериев установить, не является ли полученная зависимость, выраженная уравнением регрессии, случайной, т.е. можно ли ее использовать в прогнозных целях и для факторного анализа. В статистике разработаны методики строгой проверки значимости коэффициентов регрессии с помощью дисперсионного анализа и расчета специальных критериев (например, F-критерия). Нестрогая проверка может быть выполнена путем расчета среднего относительного линейного отклонения (ё), называемого средней ошибкой аппроксимации [c.123]

Модель считается адекватной, т.е. пригодной для практического использования, если средняя ошибка аппроксимации не превосходит 15%. [c.123]

Оценку качества построенной модели даст коэффициент (индекс) детерминации, а также средняя ошибка аппроксимации. [c.6]

Средняя ошибка аппроксимации — среднее отклонение расчетных значений от фактических [c.6]

Подставляя в данное уравнение фактические значения х, получаем теоретические значения результата ух. По ним рассчитаем показатели тесноты связи — индекс корреляции рху и среднюю ошибку аппроксимации 7, [c.13]

Рассчитать линейный коэффициент парной корреляции и среднюю ошибку аппроксимации. [c.16]

Это означает, что 52% вариации заработной латы (у) объясняется вариацией фактора х — среднедушевого прожиточного минимума. Качество модели определяет средняя ошибка аппроксимации [c.18]

Оцените с помощью средней ошибки аппроксимации качество уравнений. [c.38]

Оцените качество уравнений с помощью средней ошибки аппроксимации. [c.42]

Оцените качество уравнения через среднюю ошибку аппроксимации. [c.92]

Оцените качество каждого тренда через среднюю ошибку аппроксимации, линейный коэффициент автокорреляции отклонений. [c.166]

СРЕДНЯЯ ОШИБКА АППРОКСИМАЦИИ [c.87]

Представим расчет средней ошибки аппроксимации для уравнения ух = 9,876 + 5,129 hue в табл. 2.7. А = — 7,3 = 1,2%, что [c.88]

Расчет средней ошибки аппроксимации [c.88]

В стандартных программах чаще используется первая формула для расчета Средней ошибки аппроксимации. [c.88]

В чем смысл средней ошибки аппроксимации и как она определяется [c.89]

Средняя ошибка аппроксимации [c.10]

Выбор вида модели основан на логическом анализе изучаемых показателей, сравнении статистических характеристик (средняя ошибка аппроксимации, критерий Фишера, коэффициенты множественной корреляции и детерминации), рассчитанных для различных функций по одним и тем же первичным данным. [c.31]

Проверка приведенной в формуле (154) себестоимости по фактическим данным 103 СМУ показала, что средняя ошибка аппроксимации, определяющая степень соответствия расчетных значений фактическим, составила всего 1,5%, что вполне допустимо. [c.227]

Исчисляемый коэффициент детерминации получился равным 0,869. Это говорит о том, что размер заработной платы водителей на 86,9% зависит от Р и Л ри на 13,1% — от неучтенных в модели факторов. Средняя ошибка аппроксимации составила всего лишь 0,17%. Модель была получена на основе конкретных показателей ряда автотранспортных предприятий Владимирского транспортного управления, поэтому она может -быть использована в практической работе только на этих предприятиях. Предлагаемая же методика может быть использована в любом транспортном управлении, министерстве при планировании и анализе себестоимости автомобильных перевозок и установлении нормативов по заработной плате водителей за время работы на линии. [c.36]

источники:

http://ecson.ru/economics/econometrics/zadacha-3.raschyot-parametrov-regressii-i-korrelyatsii-s-pomoschju-excel.html

http://economy-ru.info/info/119599/

Понравилась статья? Поделить с друзьями:

Читайте также:

  • Ленд ровер ошибка u0416
  • Линейдж 2 ошибка 2
  • Ленд ровер ошибка p132b 22
  • Лингвистические ошибки это
  • Ленд ровер ошибка hds

  • 0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии