Почему обычный метод наименьших квадратов используется в линейной регрессии?

Почему обычный метод наименьших квадратов используется в линейной регрессии?
Anonim

Ответ:

Если предположения Гаусса-Маркофа верны, тогда OLS обеспечивает наименьшую стандартную ошибку среди всех линейных оценок, поэтому лучшая линейная несмещенная оценка

Объяснение:

Учитывая эти предположения

  1. Коэффициенты параметров являются линейными, это просто означает, что # beta_0 и beta_1 # линейны, но #Икс# переменная не должна быть линейной, она может быть # Х ^ 2 #

  2. Данные были взяты из случайной выборки

  3. Не существует идеальной мультиколлинеарности, поэтому две переменные не идеально коррелированы.

  4. #Евросоюз#/#x_j) = 0 # среднее условное предположение равно нулю, что означает, что # X_j # переменные не предоставляют информацию о среднем ненаблюдаемых переменных.

  5. Дисперсии равны для любого заданного уровня #Икс# то есть #var (и) = сигма ^ 2 #

Тогда OLS является лучшим линейным оценщиком среди совокупности линейных оценщиков или (Best Linear Unbiased Estimator) СИНИМ.

Если у вас есть это дополнительное предположение:

  1. Дисперсии нормально распределены

Тогда оценщик OLS становится лучшим оценщиком, независимо от того, является ли он линейным или нелинейным оценщиком.

По сути, это означает, что если предположения 1-5 верны, то OLS обеспечивает наименьшую стандартную ошибку среди всех линейных оценщиков, а если 1-6 держится, то она обеспечивает наименьшую стандартную ошибку среди всех оценщиков.