Фрагмент для ознакомления
2
ЛАБОРАТОРНАЯ РАБОТА
Моделирование технологических процессов и производств по показателям безопасности
Уравнение множественной регрессии может быть представлено в виде: Y = f(β , X) + ε где X = X(X1, X2, ..., Xm) - вектор независимых (объясняющих) переменных; β - вектор параметров (подлежащих определению); ε - случайная ошибка (отклонение); Y - зависимая (объясняемая) переменная.
теоретическое линейное уравнение множественной регрессии имеет вид: Y = β0 + β1X1 + β2X2 + ... + βmXm + ε
β0 - свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны 0.
Прежде чем перейти к определению нахождения оценок коэффициентов регрессии, необходимо проверить ряд предпосылок МНК.
Предпосылки МНК.
1. Математическое ожидание случайного отклонения εi равно 0 для всех наблюдений (M(εi) = 0).
2. Гомоскедастичность (постоянство дисперсий отклонений). Дисперсия случайных отклонений εi постоянна: D(εi) = D(εj) = S2 для любых i и j.
3. отсутствие автокорреляции.
4. Случайное отклонение должно быть независимо от объясняющих переменных: Yeixi = 0.
5. Модель является линейное относительно параметров.
6. отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.
7. Ошибки εi имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения доверительных интервалов.
Эмпирическое уравнение множественной регрессии представим в виде:
Y = b0 + b1X1 + b1X1 + ... + bmXm + e
Здесь b0, b1, ..., bm - оценки теоретических значений β0, β1, β2, ..., βm коэффициентов регрессии (эмпирические коэффициенты регрессии); e - оценка отклонения ε.
При выполнении предпосылок МНК относительно ошибок εi, оценки b0, b1, ..., bm параметров β0, β1, β2, ..., βm множественной линейной регрессии по МНК являются несмещенными, эффективными и состоятельными (т.е. BLUE-оценками).
Для оценки параметров уравнения множественной регрессии применяют МНК.
1. Оценка уравнения регрессии.
Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения: s = (XTX)-1XTY К матрице с переменными Xj добавляем единичный столбец:
1 0.1 0.12 0.14
1 0.2 -0.18 0.22
1 0.3 0.28 -0.32
1 0.4 -0.42 -0.44
1 0.5 0.52 0.54
1 0.6 -0.62 0.66
1 0.7 0.72 -0.74
1 0.8 -0.82 -0.84
Матрица XT
1 1 1 1 1 1 1 1
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
0.12 -0.18 0.28 -0.42 0.52 -0.62 0.72 -0.82
0.14 0.22 -0.32 -0.44 0.54 0.66 -0.74 -0.84
Умножаем матрицы, (XTX)
8 3.6 -0.4 -0.78
3.6 2.04 -0.372 -0.738
-0.4 -0.372 2.1472 0.1
-0.78 -0.738 0.1 2.3444
В матрице, (XTX) число 8, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X
Умножаем матрицы, (XT*Y)
36
20.4
-3.72
-7.38
Находим обратную матрицу (XTX)-1
(XT X) -1 = 0,6748 -1,2684 -0,08608 -0,1711
-1,2684 2,9546 0,2524 0,4973
-0,08608 0,2524 0,492 0,02983
-0,1711 0,4973 0,02983 0,5249