Форум Статьи Контакты
Строительство — возведение зданий и сооружений, а также их капитальный и текущий ремонт, реконструкция, реставрация и реновация.

Теорема Гаусса — Маркова


Формулировка теоремы для парной регрессии

Рассматривается модель парной регрессии, в которой наблюдения Y {displaystyle Y} связаны с X {displaystyle X} следующей зависимостью: Y i = β 1 + β 2 X i + ε i {displaystyle Y_{i}=eta _{1}+eta _{2}X_{i}+varepsilon _{i}} . На основе n {displaystyle n} выборочных наблюдений оценивается уравнение регрессии Y ^ i = β ^ 1 + β ^ 2 X i {displaystyle {hat {Y}}_{i}={hat {eta }}_{1}+{hat {eta }}_{2}X_{i}} . Теорема Гаусса—Маркова гласит:

Если данные обладают следующими свойствами:

  • Модель данных правильно специфицирована;
  • Все X i {displaystyle X_{i}} детерминированы и не все равны между собой;
  • Ошибки не носят систематического характера, то есть E ( ε i ) = 0   ∀ i {displaystyle mathbb {E} (varepsilon _{i})=0 forall i} ;
  • Дисперсия ошибок одинакова и равна некоторой σ 2 {displaystyle sigma ^{2}} ;
  • Ошибки некоррелированы, то есть C o v ⁡ ( ε i , ε j ) = 0   ∀ i , j {displaystyle mathop {mathrm {Cov} } (varepsilon _{i},varepsilon _{j})=0 forall i,j} ;
  • — то в этих условиях оценки метода наименьших квадратов оптимальны в классе линейных несмещённых оценок.

    Пояснение к теореме

    Первое условие: модель данных правильно специфицирована. Под этим словосочетанием понимается следующее:

    • Модель состоит из фиксированной части ( Y = α + β X ) {displaystyle (Y=alpha +eta X)} и случайной части ( ε ) ; {displaystyle (varepsilon );}
    • Модель данных линейна по α {displaystyle alpha } и β {displaystyle eta } ( α {displaystyle alpha } и β {displaystyle eta } линейны по Y {displaystyle Y} );
    • Отсутствует недоопределённость (то есть ситуация, когда упущены важные факторы) и переопределённость (то есть когда, наоборот, приняты во внимание ненужные факторы); (отсутствие коллинеарности)
    • Модель данных адекватна устройству данных (модель данных и устройство данных имеют одинаковую функциональную форму).

    Устройство данных — это наблюдения случайной величины. Модель данных — это уравнение регрессии. «Иметь одинаковую функциональную форму» означает «иметь одинаковую функциональную зависимость». Например, если точки наблюдений очевидно расположены вдоль невидимой экспоненты, логарифма или любой нелинейной функции, нет смысла строить линейное уравнение регрессии.

    Второе условие: все X i {displaystyle X_{i}} детерминированы и не все равны между собой. Если все X i {displaystyle X_{i}} равны между собой, то X i = X ¯ , {displaystyle X_{i}={ar {X}},} и в уравнении оценки коэффициента наклона прямой в линейной модели в знаменателе будет ноль, из-за чего будет невозможно оценить коэффициенты β 2 {displaystyle eta _{2}} и вытекающий из него β 1 . {displaystyle eta _{1}.} При небольшом разбросе переменных X {displaystyle X} модель сможет объяснить лишь малую часть изменения Y {displaystyle Y} . Иными словами, переменные не должны быть постоянными.

    Третье условие: ошибки не носят систематического характера. Случайный член может быть иногда положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в каком из двух возможных направлений. Если уравнение регрессии включает постоянный член ( β 1 {displaystyle eta _{1}} ), то это условие чаще всего выполняется автоматически, так как постоянный член отражает любую систематическую, но постоянную составляющую в Y {displaystyle Y} , которой не учитывают объясняющие переменные, включённые в уравнение регрессии.

    Четвёртое условие: дисперсия ошибок одинакова. Одинаковость дисперсии ошибок также принято называть гомоскедастичностью. Не должно быть априорной причины для того, чтобы случайный член порождал большую ошибку в одних наблюдениях, чем в других. Так как E ( ε i ) = 0   ∀ i {displaystyle mathbb {E} (varepsilon _{i})=0 forall i} и теоретическая дисперсия отклонений ε i {displaystyle varepsilon _{i}} равна E ( ε i 2 ) , {displaystyle mathbb {E} (varepsilon _{i}^{2}),} то это условие можно записать так: E ( ε i 2 ) = σ ε 2   ∀ i . {displaystyle mathbb {E} (varepsilon _{i}^{2})=sigma _{varepsilon }^{2} forall i.} Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициенты регрессии, найденные по методу наименьших квадратов, будут неэффективны, а более эффективные результаты будут получаться путём применения модифицированного метода оценивания (взвешенный МНК или оценка ковариационной матрицы по формуле Уайта или Дэвидсона—Маккинона).

    Пятое условие: ε i {displaystyle varepsilon _{i}} распределены независимо от ε j {displaystyle varepsilon _{j}} при i ≠ j . {displaystyle i eq j.} Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Если один случайный член велик и положителен в одном направлении, не должно быть систематической тенденции к тому, что он будет таким же великим и положительным (то же можно сказать и о малых, и об отрицательных остатках). Теоретическая ковариация σ ε i , ε j {displaystyle sigma _{varepsilon _{i},varepsilon _{j}}} должна равняться нулю, поскольку σ ε i , ε j = E ( ( ε i − E ( ε i ) ) ( ε j − E ( ε j ) ) ) = E ( ε i ε j ) − E ( ε i ) ⋅ E ( ε j ) = 0. {displaystyle sigma _{varepsilon _{i},varepsilon _{j}}=mathbb {E} {igl (}(varepsilon _{i}-mathbb {E} (varepsilon _{i}))(varepsilon _{j}-mathbb {E} (varepsilon _{j})){igr )}=mathbb {E} (varepsilon _{i}varepsilon _{j})-mathbb {E} (varepsilon _{i})cdot mathbb {E} (varepsilon _{j})=0.} Теоретические средние для ε i {displaystyle varepsilon _{i}} и ε j {displaystyle varepsilon _{j}} равны нулю в силу третьего условия теоремы. При невыполнении этого условия оценки, полученные по методу наименьших квадратов, будут также неэффективны.

    Выводы из теоремы:

    • Эффективность оценки означает, что она обладает наименьшей дисперсией.
    • Оценка линейна по наблюдениям Y . {displaystyle Y.}
    • Несмещённость оценки означает, что её математическое ожидание равно истинному значению.

    Формулировка теоремы для множественной регрессии

    Если данные обладают следующими свойствами:

  • Модель правильно специфицирована (постоянная эластичность рассматривается как постоянная, или нет лишних переменных, или есть все важные переменные),
  • r a n g ( X ) = k {displaystyle mathrm {rang} ,({oldsymbol {X}})=k} ,
  • E ( ε i ) = 0 {displaystyle mathbb {E} ({oldsymbol {varepsilon }}_{i})=0} ,
  • C o v ( ε ) = σ 2 I {displaystyle mathrm {Cov} ,({oldsymbol {varepsilon }})=sigma ^{2}{oldsymbol {I}}} (что влечёт гомоскедастичность),
  • — то в этих условиях оценки метода наименьших квадратов β ^ {displaystyle {hat {oldsymbol {eta }}}} являются лучшими в классе линейных несмещённых оценок (Best Linear Unbiased Estimators, BLUE).

    В случае гетероскедастичности, если дисперсия ошибок явным образом зависит от независимой переменной, под критерий BLUE подпадает взвешенный МНК. При наличии же значительного количества выбросов наиболее эффективным может быть метод наименьших модулей.


    (голосов:0)

    Пожожие новости
    Комментарии

    Ваше Имя:   

    Ваш E-Mail: