Уравнение множественной регрессии y t = a 0 +a 1 x 1t +a 2 x 2t +a 3 x 3t +…+a k x kt +U t (8.1) Наилучшая линейная процедура получения оценок параметров.

Презентация:



Advertisements
Похожие презентации
Лекция 7 Уравнение множественной регрессии Теорема Гаусса-Маркова Автор: Костюнин Владимир Ильич, доцент кафедры: «Математическое моделирование экономических.
Advertisements

Метод наименьших квадратов УиА 15/2 Айтуар А.. В математической статистике методы получения наилучшего приближения к исходным данным в виде аппроксимирующей.
Метод наименьших квадратов В математической статистике методы получения наилучшего приближения к исходным данным в виде аппроксимирующей функции получили.
Свойства Коэффициентов Множественной Регрессии Оценки b j – случайные величины. При выполнении определенных условий (4-х условий Гаусса-Маркова): E(b j.
Модели в виде систем одновременных уравнений. Оценка параметров структурной формы модели Предполагаем, что модель идентифицируема. Для иллюстрации этого.
Лекция 17 Модели в виде системы одновременных уравнений: Косвенный метод наименьших квадратов Двухшаговый метод наименьших квадратов.
Лекция 5 Метод максимального правдоподобия. ММП позволяет получить по крайней мере асимптотически несмещенные и эффективные оценки параметров распределения.
Метод максимального правдоподобия ММП позволяет получить по крайней мере асимптотически несмещенные и эффективные оценки параметров распределения, которые.
Лекция 6 Метод наименьших квадратов Уравнение парной регрессии.
Свойства коэффициентов регрессии и проверка гипотез.
Количественные характеристики случайных переменных Математическое ожидание (среднее значение) Математическое ожидание (среднее значение) Дисперсия и среднее.
Модели со стохастическими регрессорами. Ранее мы предполагали, что COV(x i,u i )=0 На практике это не всегда справедливо. Причины: 1. В моделях временных.
1 МНОЖЕСТВЕННЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ ПЛАТА ASVABC S 1 ПЛАТА = S + 3 ASVABC + u Геометрическая интерпретация множественной регрессионной модели с.
Модели в виде систем одновременных уравнений. Проблемы построения моделей из одновременных уравнений 1.Авторегрессия Рассмотрим элементарную макроэкономическую.
Парная линейная корреляция. Метод наименьших квадратов Задача: найти оценки параметров a и b такие, что остаток в i-ом наблюдении (отклонение наблюдаемого.
2. Системы линейных уравнений Элементы линейной алгебры.
Кандидат технических наук, доцент Поляков Константин Львович Учебный курс Эконометрика: идентификация, оценивание и анализ статических моделей Лекция 8.
1 Эконометрика Жукова Людмила Вячеславовна Каф. Математическая экономика(315 каб.)
Кандидат технических наук, доцент Поляков Константин Львович Учебный курс Эконометрика: идентификация, оценивание и анализ статических моделей Лекция 10.
Л.Н. Кривдина СИНТЕЗ ЦИФРОВЫХ РЕГУЛЯТОРОВ НА ОСНОВЕ ЛИНЕЙНЫХ МАТРИЧНЫХ НЕРАВЕНСТВ.
Транксрипт:

Уравнение множественной регрессии y t = a 0 +a 1 x 1t +a 2 x 2t +a 3 x 3t +…+a k x kt +U t (8.1) Наилучшая линейная процедура получения оценок параметров уравнения (8.1) и условия, при которых эта процедура дает несмещенные и эффективные оценки, сформулирована в теореме Гаусса-Маркова. Постановка задачи: Имеем случайную выборку наблюдений за поведением экономического объекта объемом n. Выборка y 1 x 11 x 21 x 31 …x k1 y 2 x 12 x 22 x 32 …x k2 y 3 x 13 x 23 x 33 …x k3 …………………. y n x 1n x 2n x 3n …x kn Система уравнений наблюдений y 1 = a 0 +a 1 x 11 +a 2 x 21 +a 3 x 31 +…+a k x k1 +u 1 y 2 = a 0 +a 1 x 12 +a 2 x 22 +a 3 x 32 +…+a k x k2 +u (8.2) y 3 = a 0 +a 1 x 13 +a 2 x 23 +a 3 x 33 +…+a k x k3 +u 3 …………………. y n = a 0 +a 1 x 1n +a 2 x 2n +a 3 x 3n +…+a k x kn +u n

Уравнение множественной регрессии Вводятся обозначения: X – матрица коэффициентов при неизвестных параметрах; Y – вектор выборочных значений эндогенной переменной; U – вектор выборочных значений случайного возмущения; A - вектор неизвестных параметров модели. Найти: Ã, Cov(ÃÃ), σ u, σ( (z))

Уравнение множественной регрессии Теорема Гаусса-Маркова. Если матрица Х неколлинеарна и вектор случайных возмущений удовлетворяет следующим требованиям: 1.M(u) =0 2.σ 2 (u) = σ 2 u 3.Cov(u i,u j ) =0 при ij 4.Cov(x i,u i ) =0

Уравнение множественной регрессии Тогда наилучшей линейной процедурой оценки параметров модели (8.1) является: Теорема Гаусса-Маркова (Продолжение). При этом:

Теорема Гаусса-Маркова Примеры применения теоремы Гаусса-Маркова Пример 1. Пусть имеем выборку из n наблюдений за случайной величиной Y. Найти наилучшие оценки среднего значения и дисперсии этой переменной. Y = a 0 +u, при этом имеем: В терминах теоремы Гаусса –Маркова задача формулируется так: необходимо построить модель типа Y = a 0 +u, при этом имеем:

Примеры применения теоремы Гаусса- Маркова Пример 1. (Продолжение) Решение.

Примеры применения теоремы Гаусса- Маркова Пример 2. Уравнение парной регрессии. Построить модель типа Y=a 0 +a 1 x +u, по данным выборки наблюдений за переменными Y и x объемом n. В схеме Гаусса-Маркова имеем:

Примеры применения теоремы Гаусса- Маркова Пример 2. Уравнение парной регрессии.(Продолжение). Последовательно вычисляем X T Y и оценку вектора А. (8.3)

Примеры применения теоремы Гаусса- Маркова Пример 2. Уравнение парной регрессии.(Продолжение). Вычислим дисперсии (ковариационную матрицу) параметров модели. Следовательно:

Примеры применения теоремы Гаусса- Маркова Пример 2. Уравнение парной регрессии.(Продолжение). Расчет дисперсии прогнозирования. Прогноз осуществляется в точке Z={1,z}

Примеры применения теоремы Гаусса- Маркова Пример 2. Уравнение парной регрессии.(Продолжение).