Метод послідовного включення.

Метод послідовного включення діє в зворотному порядку порівняно з методом виключень фактори по черзі включаються у модель доти, поки вона не стане задовільною. Порядок включення здійснюється за допомогою коефіцієнта кореляції як міри важливості факторів, які ще не включені в модель. Суть цього методу викладено у вигляді певної послідовності дій. 1.Вибрати фактор ( ), для якого найбільше значення коефіцієнта кореляції з (нехай це буде змінна ). Належить побудувати регресійне рівняння з однією незалежною змінною, Перевіряєм цю змінну на значимість, користуючись частковим F-критерієм. Якщо ні, то і процесс побудови моделі завершено. Якщо змінна виявилась значимою, то шукаємо другу змінну, що має найбільше значення коефіцієнта кореляції з , яку тимчасово включаю у модель (нечай це буде змінна ). 2.Будують нову регресійну модель.

 

F - критерий Фишера используют для сравнения дисперсий двух вариационных рядов. Он вычисляется по формуле:

,

где - большая дисперсия, - меньшая дисперсия.

Если вычисленное значение критерия F больше критического для определенного уровня значимости и соответствующих чисел степеней свободы для числителя и знаменателя, то дисперсии считаются различными.

Число степеней свободы числителя определяется по формуле:

,

где - число вариант для большей дисперсии.

Число степеней свободы знаменателя определяется по формуле:

,

где - число вариант для меньшей дисперсии.

 


38. . Розглянемо два складніших випадки з’єднання систем. У першому випадку припустимо, що існує регульована система, якій відповідає оператор S та з’єднані з нею паралельно дві системи зворотного зв’язку або два регулятори з операторами відповідно R1 і R2 (рис. 11.3, а).

Рис. 11.3. Схема паралельного (а) та послідовного (б) з’єднання контурів регулювання

Сумарний результат дії цієї системи регулювання можна записати у вигляді одного перетворення у = Тх. Позначимо через 1x і 2x стани виходів відповідно першого та другого регуляторів. Тоді, врахувавши, що 1x = R1y та 2x = R2y, дістанемо:

y = S(x + 1x + 2x ) = S(x + R1y + R2y) = Sx + SR1y + SR2y.

Звідси знаходимо стан виходу:

Отже, в даному випадку результуючий оператор усієї системи регулювання є T = (1 – S(R1 + R2))–1S. Здобутий результат аналогічний тому, який дістали б, замінивши два паралельно з’єднаних регулятори одним регулятором з оператором R = R1 + R2. Це означає, що замість двох паралельно з’єднаних регуляторів можна поставити один, пропускна здатність якого дорівнює сумі пропускних здатностей окремих регуляторів. Цей висновок можна поширити на довільну скінченну або зліченну кількість регуляторів, з’єдна­них паралельно.

У другому випадку припустимо, що система регулювання складається з двох регульованих систем, з’єднаних між собою по­слідовно, з операторами відповідно S1 і S2, причому кожна з цих систем обладнана регуляторами зворотного зв’язку з операторами відповідно R1 і R2 (рис. 11.3, б).

Стан входу першої системи позначимо через х1, виходу — через y1, стан виходу другої системи — через y.

Сумарний результат роботи такої системи запишемо у вигляді одного перетворення y = Tx. Згідно зі здобутими щойно висновками дістаємо:

Тому можемо записати:

Звідси маємо результуючий оператор розглянутої системи регулювання:

Наведемо кібернетичну інтерпретацію оператора оберненого перетворення Т–1. Таке перетворення означає, що коли y = Tx, то х = T–1y.

Аналогічно можна довести, що нульове перетворення у = = (Т – Т)х = 0 — це результат паралельного з’єднання системи з оператором Т та системи з оператором (–Т), а оператор (–Т) — результат послідовного з’єднання системи з оператором Т та системи з оператором пропорційного перетворення (–1).

 


39. Проблеми багатофакторної ідентифікації та способи їх усунення. Мультиколінеарність. Автокореляція. Підхід Л.Койна. Гетероскедастичність.

При побудові багатофакторних регресійних моделей досить часто трапляються певні незвичні, проблематичні ситуації. До таких ситуацій можна віднести наявність мультиколінеарності між значеннями вхідних показників , гетероскедестичності , автокореляції, фальшива кореляція , недостатність вхідних даних та інше. Мультиколінеарність означає , що в багатофакторній регресії моделі дві або більше незалежних змінних (факторів) пов?язані між собою мінімальною залежністю або , іншими словами , мають високий ступінь кореляції .Це означає , що два фактори . які між собою колінеарні , то майже неможливо оцінити окремий вплив кожного з них на досліджуваний показнику. Наявність мультиколінеарності приводить до збільшення дисперсії та коваріації оцінок параметрів обчислених за методом найменших квадратів , збільшується інтервал довіри для них.

Автокореляція (розподілені лаги). Одним із важливих випадків коли спостерігається мультиколінеарність є автокореляція, тобто пошук залежності виду .

Наявність мультиколінеарності між лаговими змінними утруднює побудову економетричної моделі з лаговими змінними.

Один зі способів звільнитись від мультиколінеарності — це ввести такі коефіцієнти при лагових змінних, які мали б однаковий знак і для них можна було знайти суму. З врахуванням умов (10.3) — (10.6), модель з розподіленим лагом набере такого вигляду:

.(10.10)

Л. Койк запропонував вибрати для зображення вагових коефіцієнтів форму спадної геометричної прогресії

,(10.11)

де .

Звідси

(10.12)

Якщо через D позначити оператор зрушення, такий, що Dxt = xt–1, D2xt = xt–2і т.д., то вираз (10.11) можна записати так:

З урахуванням цього модель (10.12) матиме вигляд:

Це припущення, що його зробив Койк, приводить до значних спрощень співвідношення (10.1). Адже замість оцінки цілого ряду параметрів моделі достатньо дати оцінки лише двох параметрів і у рівнянні, де розглядається як функція і .

Діставши оцінку параметра і скориставшись співвідношенням (10.11), можна обчислити всі вагові коефіцієнти. Середнє значення розподілу дорівнює , тому для геометричного розподілу середній лаг

.

Входження до формули (10.12) лагового значення змінної має забезпечити досить добру апроксимацію даної змінної.

При цьому слід зауважити, що не завжди лаги розподілятимуться обов’язково за законом Койка, який забезпечує найближчому значенню X найбільшу вагу, а всім наступним — постійно спадні ваги. Якщо можна припустити, що це не так, то тоді лишається кілька перших вагових коефіцієнтів вільними, а для всіх інших використовується закон розподілу Койка.

Наприклад, можна записати

(10.13)

де перші два коефіцієнти лишаються вільними, а починаючи з вони спадають геометрично. Використаємо оператор зрушення D для скороченого запису моделі (10.13).

Рівняння (10.13) можна подати у вигляді

(10.14)

Якщо модель має дві пояснювальні змінні, скажімо, X і Z, то розподілені лаги Койка можуть бути використані для кожної з них. Найпростіше припустити, що для обох змінних вибирається однакове значення .

Тоді модель розподіленого лагу

.

Якщо взяти параметри різними для різних пояснювальних змінних, то до моделі треба ввести змінні xt, Zt, yt з оператором зрушення Dxt = xt–1, D2xt = xt–2, DZt = Zt–1, D2Zt = Zt–2, Dyt = yt–1, D2yt = yt–2:

Отже, припущення, зроблене Койком, спричинюється до появи в правій частині рівняння величин і . причому для змінної слід узяти суму параметрів l1 і l2 , а для змінної — їх добуток. Аналогічно діють із залишками ut–1 і ut–2.

 

Ще однією особливістю застосування регресивного аналізу є побудова моделі на підставі нерівно точних спостережень (гетероскедестичність). Наявність гетероскедестичності має досить сильний вплив на дисперсію параметрів моделі. Невірні значення дисперсій приводить до невірної оцінки значимості параметрів моделі. Саме тому виникає необхідність усунення цього недоліку. Переважно цього добиваються шляхом використання даних спостережень обернено пропорційно своїй дисперсії, тобто спостереження з більшою дисперсією отримують менше значення ваги, і навпаки , спостереження з меншою дисперсією отримують пропорційно більшу вагу при мінімізації суми квадратів відхилень.

 

40. Розглянемо два складніших випадки з’єднання систем. У першому випадку припустимо, що існує регульована система, якій відповідає оператор S та з’єднані з нею паралельно дві системи зворотного зв’язку або два регулятори з операторами відповідно R1 і R2 (рис. 11.3, а).

Рис. 11.3. Схема паралельного (а) та послідовного (б)з’єднання контурів регулювання

Сумарний результат дії цієї системи регулювання можна записати у вигляді одного перетворення у = Тх. Позначимо через 1x і 2x стани виходів відповідно першого та другого регуляторів. Тоді, врахувавши, що 1x = R1y та 2x = R2y, дістанемо:

y = S(x + 1x + 2x ) = S(x + R1y + R2y) = Sx + SR1y + SR2y.

Звідси знаходимо стан виходу:

Отже, в даному випадку результуючий оператор усієї системи регулювання є T = (1 – S(R1 + R2))–1S. Здобутий результат аналогічний тому, який дістали б, замінивши два паралельно з’єднаних регулятори одним регулятором з оператором R = R1 + R2. Це означає, що замість двох паралельно з’єднаних регуляторів можна поставити один, пропускна здатність якого дорівнює сумі пропускних здатностей окремих регуляторів. Цей висновок можна поширити на довільну скінченну або зліченну кількість регуляторів, з’єдна­них паралельно.

У другому випадку припустимо, що система регулювання складається з двох регульованих систем, з’єднаних між собою по­слідовно, з операторами відповідно S1 і S2, причому кожна з цих систем обладнана регуляторами зворотного зв’язку з операторами відповідно R1 і R2 (рис. 11.3, б).

Стан входу першої системи позначимо через х1, виходу — через y1, стан виходу другої системи — через y.

Сумарний результат роботи такої системи запишемо у вигляді одного перетворення y = Tx. Згідно зі здобутими щойно висновками дістаємо:

Тому можемо записати:

Звідси маємо результуючий оператор розглянутої системи регулювання:

Наведемо кібернетичну інтерпретацію оператора оберненого перетворення Т–1. Таке перетворення означає, що коли y = Tx, то х = T–1y.

Аналогічно можна довести, що нульове перетворення у = = (Т – Т)х = 0 — це результат паралельного з’єднання системи з оператором Т та системи з оператором (–Т), а оператор (–Т) — результат послідовного з’єднання системи з оператором Т та системи з оператором пропорційного перетворення (–1).