лучшие книги по экономике
Главная страница

Главная

Замовити роботу

Последние поступления

Форум

Создай свою тему

Карта сайта

Обратная связь

Статьи партнёров


Замовити роботу
загрузка...
Книги по
алфавиту

Б
В
Г
Д
Е
Ж
З
И
К
Л
М
Н
О

Прогнозування соціально-економічних процесів

Страницы [ 1 ] [ 2 ] [ 3 ] [ 4 ] [ 5 ] [ 6 ] [ 7 ] [ 8 ] [ 9 ] [ 10 ] [ 11 ] [ 12 ] [ 13 ] [ 14 ] [ 15 ]
[ 16 ] [ 17 ] [ 18 ] [ 19 ] [ 20 ] [ 21 ] [ 22 ] [ 23 ] [ 24 ] [ 25 ] [ 26 ] [ 27 ] [ 28 ] [ 29 ] [ 30 ] [ 31 ] [ 32 ]
[ 33 ] [ 34 ] [ 35 ] [ 36 ] [ 37 ] [ 38 ] [ 39 ] [ 40 ] [ 41 ] [ 42 ] [ 43 ] [ 44 ] [ 45 ] [ 46 ] [ 47 ] [ 48 ] [ 49 ] [ 50 ]

Приклад 2.3.2.

Модель авторегресії другого порядку AR(2), яку називають процесом Юла, задається рівнянням
.
Знайдемо середнє та дисперсію AR(2)-процесу

.
Автокореляції процесу дорівнюють
,
,
 для .
Часткові автокореляції (ЧАК) дорівнюють:
,
,
,
 для .
Отже, для AR(2)-процесу ЧАКФ дорівнює нулю для порядку більше двох і характеризується спадною АКФ. 8
У загальному випадку для -процесів (2.3.1) можна показати, що АКФ геометрично спадає після , та ЧАКФ дорівнюють нулю після . Це дає змогу ідентифікувати можливу AR-модель за наявності інформації про вибіркову АКФ та ЧАКФ для множини спостережень змінної.
Авторегресійні моделі є дуже корисними для опису багатьох часових рядів, що трапляються у практичній діяльності. Уперше вони були побудовані для випадкових систем, які мають інерцію та перебувають під впливом сил, що повертають систему до стану рівноваги. Так, моделі другого порядку () доволі точно описують поведінку приблизно циклічної природи, наприклад маятник. Область застосування AR-моделей не обмежується лише стаціонарними процесами. Користуючись різницевими перетвореннями, можна звести процес, що має тенденцію, до стаціонарного. Окрім того, можна виключити тренд, одержаний за методом найменших квадратів або будь-яким іншим методом.
2.4. Змішані ARМA- таARIMA-процеси
З метою кращого пристосування моделі до ряду спостережень інколи доцільно об’єднати в одній моделі і авто­регресію, і ковзну середню. При цьому модель має бути якомога економнішою, тобто давати найкращу апроксимацію за допомогою невеликої кількості параметрів. Для досягнення цієї мети застосовують змішані моделі авторегресії — ковзної середньої або ARMA(p, q)-моделі:
,   (2.4.1)
або, використовуючи поліноми від оператора зсуву, (2.4.1) можна записати як:
,(2.4.2)
де , .
Властивості ARMA-моделі є сумішшю властивостей ARта MA моделей. Стаціонарність ARMA (p,q)-процесу визначається лише його AR-частиною. Тому умови такі самі, як і для AR-процесу. Процес ARMA стаціонарний, якщо всі корені характеристичного рівняння AR-частини (полінома ) за модулем не перевищують одиницю. Так само умова обернення ARMA-процесу цілком визначається умовою обернення MA-частини. Якщо MA-частина має обернену, то й для всього ARMA-процесу можна знайти обернене зображення. При цьому якщо процес ARMA стаціонарний, він, за теоремою Вольда, обов’язково має MA -зображення нескінченного порядку. Разом із тим, він має і скінченне зображення ARMA(p,q). Добуток (2.4.2) на  дає -зображення нескінченного порядку. Отже, ARMA(p,q) може бути зручним зображенням стаціонарного процесу і, якщо можна звести процес доARMA, то він визначається усього + q параметрами.
Очевидно, що математичне сподівання стаціонарного ARMA(p, q)-процесу дорівнює нулю. Зазначимо, що введенням в модель (2.4.1) вільного члена  можна врахувати ненульове, але стале, математичне сподівання. Тоді математичне сподівання процесу дорівнюватиме .


Приклад 2.4.1.

Розглянемо властивості -моделі, яка має вигляд:
,
або в операторному запису: .
Умова стаціонарності має вигляд , умова обернення — .
Для обчислення дисперсії процесу зручно використати  зображення, яке відповідає розкладенню Вольда:

Тоді

Для обчислення першої автокореляції помножимо  на  і візьмемо математичне сподівання від обох частин. Отримаємо . Помножимо вираз  на  і візьмемо математичне сподівання від обох частин. Отримаємо . Після підставлення отримаємо . Остаточно: .
Якщо помножити  на  і взяти математичне сподівання, отримаємо:  та . Для всіх значень з індексом більшим, ніж порядок -частини, отримуємо, що . Такі самі співвідношення виконувалися і для «чистої» моделі AR-(1) і називалися рівняннями Юла-Вокера для автокореляційної функції. Отже, починаючи із другої, автокореляції ARMA(1,1)-моделі поводяться так само, щой авто­кореляції AR (1), але перші автокореляції цих процесів відрізняються.
Часткові автокореляції (ЧАК) дорівнюють:
,

та є в цілому спадними.
Результати прикладу 2.4.1 поширюються також на ARMA (p, q)-модель, звичайно, за умови стаціонарності процесу. Перші p значень автокореляційної функції визначаються через коефіцієнти AR та MA-частин, а потім значення автокореляційної функції виражаються у вигляді суми складових, що спадають за експонентою.
Для процесу ARMA (p, q), застосовуючи той самий метод знаходження добутку усіх членів (2.4.1) на  і переходу до математичних сподівань, отримуємо різницеве рівняння виду:
,  (2.4.3)
де ; при цьому  для . Звідси виходить, що для значень  автоковаріація та автокореляція задовольняють таким самим співвідношенням, як і в моделі :
, .                             (2.4.4)
Це означає, що для процесу ARMA(p, q) існує  автокореляцій , значення яких пов’язані залежністю (2.4.3) з  пара­метрами ковзної середньої  та  параметрами авторегресії . Далі, p значень , необхідні як початкові значення для розв’язання різницевого рівняння (2.4.4), яке визначає автокореляції для великих лагів .
Отже, за  АКФ (, ) визначається поліномом  та початковими значеннями і складається із сукупності спадних експонент і (або) спадних синусоїд, а за  існують  початкових значень , , які не вкладаються в цю загальну картину. Ці характеристики важливі під час іден­тифікації моделі за спостереженнями над часовим рядом.
Якщо у (2.4.3) припустити, що , маємо дисперсію процесу:
.      (2.4.5)
Розв’язуючи це рівняння разом із  рівняннями (2.4.3) для , можна отримати .
Царина застосування розглянутих вище параметричних лінійних моделей не обмежується лише стаціонарними процесами. Нагадаємо, що умова стаціонарності моделі (2.4.2) означає, що корені полінома  перебувають у середині одиничного кола. Природним шляхом отримання нестаціонарного процесу, що також виглядає як (2.4.2), є послабшання цього обмеження. Зокрема, у багатьох випадках соціально-економічні процеси добре описуються моделями типу (2.4.2), в яких один або кілька коренів  дорівнюють одиниці. До таких нестаціонарних процесів можна віднести часові ряди типу TS, DS та тренд-сезонні процеси, які взяттям послідовних різниць можна звести до стаціонарного виду (див. розділ 1.2 частини 2). Наприклад, нестаціонарний ряд випадкового блукання, рівняння якого має вигляд: , після взяття першої різниці перетворюється на стаціонарний ряд: , де . У полінома другого ступеня: , після взяття першої різниці ступінь поліному зменшується на одиницю:

Якщо взяти другу послідовну різницю, то одержимо стаціонар­ний процес: . Отже, після того, як двічі до параболічної функції часу застосували послідовні різниці, процес перетворився на стаціонарний виду MA(2).
Наведені приклади показують, що є нестаціонарні ряди, які після взяття послідовних різниць зводяться до стаціонарних, а саме до виду ARMA. Моделі таких рядів отримали назву процеси авторегресії й інтегрованої ковзної середньої (ARMA).
Розглянемо модель
,                               (2.4.6)
де, на відміну від (2.4.2),  — нестаціонарний оператор авторегресії порядку , такий, що  коренів рівняння  дорівнюють одиниці, а решта  коренів перебувають у межах одиничного кола; оператор ковзної середньої , як і раніше має вигляд (2.1.1), тобто має порядок  і може бути оберненим (усі його корені перебувають у межах одиничного кола). Тоді можна записати, що
,                          (2.4.7)
де  — стаціонарний порядку  оператор авторегресії (тобто із коренями в межах одиничного кола). Якщо ввести оператор різ­ниці ; , тоді  запишеться як , і модель (2.4.6) можна представити у вигляді:
.(2.4.8)
Тут d-ту різницю ряду  обчислюють за формулою:
.                           (2.4.9)
Вона задовольняє рівняння
,(2.4.10)
тобто вже є стаціонарним оберненим процесом . З іншого боку, якщо ввести обернений до  оператор:
,                         (2.4.11)
який називають оператором підсумку (), то з (2.4.9) виходить, що
,                                (2.4.12)
де під d-кратною ітерацією оператора S розуміють ряд
.           (2.4.13)
Отже, , що описується рівнянням (2.4.8), можна отримати d-кратним підсумком процесу , який, згідно із (2.4.10), є ARІMA. Тому процес, що задається моделлю (2.4.8), називають процесом ARІMA (додаючи до ARІMA термін інтегрований ()). Якщо в (2.4.8) оператор авторегресії  має порядок , а оператор ковзної середньої  має порядок , то скорочено модель (2.4.8) записують як ARІMA(p,d,q). Зокрема, за  виходить змішана модель ARІMA(p,q), за  — модель авторегресії AR (p), за (0,0 q) — модель ковзної середньої MA (q). Тим самим модель ARІMA охоплює широкий клас як стаціонарних (при ), так і нестаціонарних (при ) процесів. На практиці d є додатним цілим, яке не перевищує 2, або нулем у разі стаціонарності .

Страницы [ 1 ] [ 2 ] [ 3 ] [ 4 ] [ 5 ] [ 6 ] [ 7 ] [ 8 ] [ 9 ] [ 10 ] [ 11 ] [ 12 ] [ 13 ] [ 14 ] [ 15 ]
[ 16 ] [ 17 ] [ 18 ] [ 19 ] [ 20 ] [ 21 ] [ 22 ] [ 23 ] [ 24 ] [ 25 ] [ 26 ] [ 27 ] [ 28 ] [ 29 ] [ 30 ] [ 31 ] [ 32 ]
[ 33 ] [ 34 ] [ 35 ] [ 36 ] [ 37 ] [ 38 ] [ 39 ] [ 40 ] [ 41 ] [ 42 ] [ 43 ] [ 44 ] [ 45 ] [ 46 ] [ 47 ] [ 48 ] [ 49 ] [ 50 ]


ВНИМАНИЕ! Содержимое сайта предназначено исключительно для ознакомления, без целей коммерческого использования. Все права принадлежат их законным правообладателям. Любое использование возможно лишь с согласия законных правообладателей. Администрация сайта не несет ответственности за возможный вред и/или убытки, возникшие или полученные в связи с использованием содержимого сайта.
© 2007-2017 BPK Group.