Назад
Эконометрия-3. Курс лекций
Суслов В.И., Лапо В.Ф., Талышева Л.П., Ибрагимов Н.М.
Оглавление
1. Системы регрессионных уравнений 5
1.1. Невзаимозависимые системы . . . . . . . . . . . . . . 6
1.2. Взаимозависимые или одновременные уравнения . . 14
1.3. Оценка параметров отдельного уравнения . . . . . . 28
1.4. Оценка параметров системы идентифицированных урав-
нений . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2. Динамические регрессионные модели 44
2.1. Модель распределенного лага . . . . . . . . . . . . . 45
2.2. Авторегрессионная модель с распределенным лагом . 51
2
Оглавление
3
2.3. Модели частичного приспособления,
адапти вных ож иданий
и исправления ошибок . . . . . . . . . . . . . . . . . . 53
3. Интегрированные процессы, ложная регрессия и коин-
теграция 62
3.1. Критерии проверки стационарности . . . . . . . . . . 70
3.2. Концепция коинтеграции . . . . . . . . . . . . . . . . 83
4. Векторная авторегрессия 93
5. Модели дискретного выбора 123
6. Панельные данные 155
6.1. Объединения по времени независимых одномерных
(псевдопанельных) данных . . . . . . . . . . . . . . . 156
6.2. Панельные данные . . . . . . . . . . . . . . . . . . . . 158
6.3. Базовая модель панельных данных . . . . . . . . . . 163
6.4. Модель с фиксированными эффектами . . . . . . . . 165
4
Оглавление
6.5. Модель со случайными эффектами . . . . . . . . . . 173
6.6. Качество подгонки и выбор наиболее адекватной мо-
де ли . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Глава 1.
Системы регрессионных
уравнений
Пусть теперь имеется несколько изучаемых переменных, для
каждой из которых существует свое уравнение регрессии. В со-
вокупности эти уравнения образуют систему, которая является
невзаимозависимой, если одни изучаемые переменные не высту-
пают факторами-регрессорами для других изучаемых переменных.
Если изучаемые переменные возникают не только в левых, но и
5
6
Глава 1. Системы регрессионных уравнений
правых частях уравнений, то такие системы называются одновре-
менными или взаимозависимыми.
1.1. Невзаимозависимые системы
В этом пункте используется сокращенная ф орма записи урав-
нений регрессии:
ˆ
X =
ˆ
ZA + ε, (1.1)
где
ˆ
X N × k атрица центрированных наблюдений за изучае-
мыми переменными,
ˆ
Z N × n -матрица центрир ованных наблюдений за факторными
переменными,
A n × k -матрица параметров уравнений регрессии,
ε N × n -матрица ошибок изучаемых переменных (остатков по
наблюдениям).
Относительно ошибок предполагается, что в каждом наблюде-
нии их математическое ож идание равно нулю, матрица ковариа-
ции размерности k × k одинакова и равна ( вещес твенная,
1.1. Невзаимозависимые системы
7
симметричная, положительно определенная матрица), и что они не
коррелированы по наблюдениям.
Оценивать парамет ры этой системы можно отдельно по каждо-
му уравнению:
A = M
1
˜m, (1.2)
где M =
1
N
ˆ
Z
ˆ
Z , ˜m =
1
N
ˆ
Z
ˆ
X , или через обычные операторы МНК-
оценивания, записанные последовательно для всех уравнений си-
стемы
a
l
= M
1
m
l
, l = 1, . . . , k.
Т.е. ф акт корр елированности ошибок разных изучаемых пере-
менных ( 6= I
k
) не создает дополнительных проблем. Действи-
тельно, преобразованием в пространстве изучаемых переменных
легко перейти в ситуацию, когда ошибки изучаемых переменных
не коррелированы.
Пусть матрица C такая, что = C
′−1
C
1
(такое представле-
ние допускает любая вещественная симметричная положительно
определенная матрица). Умнож и м обе части (1.1) справа на эту
8
Глава 1. Системы регрессионных уравнений
матрицу:
ˆ
XC =
ˆ
ZAC + εC. (1.3)
Новые ошибки изучаемых переменных во всех наблюдениях ока-
зываются не коррелированными:
E(C
ε
i
ε
i
C)
E(ε
i
ε
i
)=Ω
= I
N
,
где ε
i
вектор-строка ошибок в i наблюдении.
Теперь уравнения системы не связаны между собой, и и х можно
оценить обычным МНК по отдельност и , что, очевидно, приводит
к матричному оператору AC = M
1
˜mC , который эквивалентен
(1.2).
Что и требовалось доказать.
Ситуация резко усложняется, если для коэффициентов матри-
цы A имеются априорные ограничения.
1.1. Невзаимозависимые системы
9
Пусть, например, эта матрица имеет следующую структуру:
a
1
0 · · · 0
0 a
2
· · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · a
k
,
где a
l
n
l
-вектор-столбец коэффициентов в l уравнении ля
l изучаемой переменной),
k
P
l=1
n
l
= n , т. е. многие элементы мат-
рицы A априорно приравнены нулю.
Фактически это означает, что для каждой изучаемой перемен-
ной имеется свой набор объясняющих факторов с N ×n
l
-матрицей
наблюдений
ˆ
Z
l
(
ˆ
Z = [
ˆ
Z
1
· · ·
ˆ
Z
k
]) , и система уравнений (1.1) пред-
ставляется как совокупность внешне не связанных между собой
уравнений:
ˆ
X
l
=
ˆ
Z
l
a
l
+ ε
l
, l = 1, . . . , k. (1.4)
Сразу можно заметить, что теперь оператор (1.2) применить невоз-
можно, т.к. система нормальных уравнений, решением которой яв-
10
Глава 1. Системы регрессионных уравнений
ляется эт от оператор, записывается следующим образом:
M
11
a
1
· · · M
1k
a
k
.
.
.
.
.
.
.
.
.
M
k1
a
1
· · · M
kk
a
k
=
m
11
· · · m
1k
.
.
.
.
.
.
.
.
.
m
k1
· · · m
kk
, (1.5)
где M
ll
=
1
N
ˆ
Z
l
ˆ
Z
l
, m
ll
=
1
N
ˆ
Z
l
ˆ
X
l
, т.е. вектор оценок параметров
каждого уравнения должен удовлетворять k взаимоисключающим,
в общем случае, системам уравнений.
Прави льная оценка параметров регр ессии дается решением сле-
дующих уравнений:
k
X
l
=1
ω
1
ll
M
ll
a
l
=
k
X
l
=1
ω
1
ll
m
ll
, l = 1, . . . , k,
где ω
1
ll
элемент матрицы
1
.