Методы выделения тренда. Оценивание параметров трендовых моделей.
Математическое выражение временной тенденции называется трендом. . Моделями трендов выступают элементарные (а иногда и не очень элементарные (по Светуне)) функции. Могут быть линейные, квадратичные, многочлен 3ей степени, степенная, показательная , тригонометрическая и др. Можно использовать синтез этих моделей.
Для построения прогнозных моделей необходимо найти коэффициент функции, выступающей как модель тренда.
Метод средних:
Поскольку для построения прямой линии необходимо иметь на плоскости только 2 точки, можно исходный ряд значений {Yt} разбить на 2 части, t=[1;T]
1) t=[1;T/2] и 2) t=[T/2+1;T]
Для каждой из частей рассчитывается среднее арифметическое: и
. Теперь легко построить систему 2х уравнений с 2мя неизвестными:
, метод очень прост в использовании, коэф-т легко считается и необходимые рез-ты можно получить довольно быстро.
Если кол-во наблюдаемых яв-ся нечетным, то разделить ряд на 2 равные части не получится. Выбор способа разделения на 2 части становится субъективным. Задача построения наилучшей модели заключается в том, чтобы прямая линия прошла наилучшим образом через все точки, для этого необходимо конкретизировать понятие «наилучший образ».
Поскольку линия коэф-ов , получила различие
, то появляется возможность по отклонениям
подобрать модель с такими коэффициентами, чтобы модель была наилучшей с позиции некоторой ф-ии от
.
. Задание такого критерия приводит к простому решению, тогда сумма отклонений, положительных и отрицательных, наложатся и дадут 0.
МНК:
Мерой точности описания моделью реальных значений выступает ошибка аппроксимации. Применительно к линейному тренду это может быть записано так: . При известных значениях исходных переменных
и t поведение ошибки аппроксимации определяется исключительными величинами двух коэф-ов
и
.
. Модель должна наилучшим образом проходить через все множество точек, а не в отдельной точке, поэтому выбирая модель, необходимо говорить о некоторой сумме ошибок на этом множестве. Поскольку ошибки аппроксимации могут быть положительными и отрицательными, их простая сумма м.б. =0. Эту неправильность можно избежать, если возвести в квадрат каждую ошибку и суммировать их:
. Поскольку каждая ошибка представляет собой ф-ию от коэф-ов модели, то и ∑ квадратов этих ошибок будет представлять собой ф-ию от этих коф-ов:
. Геометрически это ф-ия показывает насколько в среднем для всех точек далеко от них стоит модель. Модель должна проходить через множество точек наиболее близко к ним: :
. Ф-ия достигает своего мин (или макс), где 1ая произв =0. Необходимо вычислить частные производные и приравнять их к 0. В итоге получим:
– «система нормальных уравнений» МНК.
Применяя к стационарным процессам, система нормальных ур-ий дает оценки коэф-ов.
1) Состоятельные – по вер-ти сходятся к оцениваемому пар-ру при неограниченном увеличении объема выборки
2) Несмещенные, т.е. в них отсутствуют систематические отклонения от оцениваемого параметра
3) Эффективные – оценки, дающие минимальную дисперсию.
Для модифицированной гиперболы: :
, МНК легко применить ко всем аддитивным моделям.
В случае модели, в которой неизвестные коэф-ты представлены в мультипликативной форме, ситуация изменится. Рассмотрим прогнозную модель нелинейного тренда – экспоненту: .
Тогда . Частные производные = 0:
. Решить можно с помощью численных методов.
Задачу упрощают, сведя ее к линейному виду: . Процедура приведения нелинейной модели к линейному виду – «линеаризация».
.
,
.
Использование МНК приводит к тому, что полученные выборочные оценки будут являться состоятельными, несмещенными, эффективными. Но эти оценки характерны для линеаризованных моделей, а не для исходных моделей.
, и
.
Несмещенность оценок МНК коэф-ов линеаризованной модели означает, что на рассматриваемом выборочном множестве сумма отклонений будет = 0. Поскольку
, то получим:
. Обозначим аддитивную ошибку:
, то
, и
. Приравниваем друг к другу правые части равенства:
. Отсюда
.
, ⇒
. Знак ∑ определен в силу положительности прогнозируемых переменных !!! выражения:
. S положит отклон-ий > отриц-х.
. Модель яв-ся смещенной. Т.к.
, то
. Это означает, что модель в среднем пройдет ниже исход-х точек.
Вывод: линеаризация нелинейных моделей ухудшает аппроксимацию и прогнозные св-ва моделей.