Щоб виправити мультиколінеарність, можна видалити одну з сильно корельованих змінних, об’єднати їх в одну змінну або використати техніку зменшення розмірності, таку як аналіз головних компонент, щоб зменшити кількість змінних, зберігаючи при цьому більшу частину інформації.
Як боротися з мультиколінеарністю
- Вилучіть деякі висококорельовані незалежні змінні.
- Лінійно поєднайте незалежні змінні, наприклад додайте їх разом.
- Часткова регресія найменших квадратів використовує аналіз головних компонентів для створення набору некорельованих компонентів для включення в модель.
Одним із найпоширеніших способів усунення проблеми мультиколінеарності є спочатку визначити колінеарні незалежні предиктори, а потім видалити один або більше з них. Як правило, у статистиці розрахунок коефіцієнта інфляції дисперсії виконується для визначення ступеня мультиколінеарності.
Вилучення корельованих змінних Це був би найпростіший спосіб зменшити мультиколінеарність даних. Коли існує висока мультиколінеарність між двома незалежними змінними, це означає, що кожна змінна здатна пояснити інші змінні.
Зменшення мультиколінеарності: Центрування даних допомагає зменшити мультиколінеарність серед предикторних змінних шляхом віднімання середнього від кожної змінної. Центрування змінних усуває спільну варіацію через середні значення та зменшує кореляцію між змінними.
Мультиколінеарність у регресійній моделі – як виправити Це одне з найбільш очевидних рішень мультиколінеарності. Видалення змінної: Видалення змінної може зробити вашу модель менш репрезентативною; однак іноді це може бути єдиним рішенням для повного усунення та уникнення мультиколінеарності.
Колінеарність збільшить дисперсію оцінок коефіцієнтів незалежних змінних, що ускладнить нам довіру до отриманого p-значення моделі.