Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Множинний регресійний аналіз





На практиці випадкова вихідна величина Y час то залежить не від однієї, а кількох змінних. У такому разі можна говорити про поверхню регресії.

М(Y/X1 = X1, X2 = X2, … Xn=Xn)=φ(X1, X2, … Xn).

Будемо розглядати лінійні моделі, для яких функція регресії лінійна за параметрами

Для проведення регресійного аналізу необхідно виконання наступних умов:

- точніс ть, з якою задаються вхідні змінні (фактори_______) хj, що не є випадковими величинами, повинна бути високою;

- похибки вимірювань вихідної величини є випадковими з математичним очікуванням, рівним нулю;

- результати спостережень являють собою однорідні незалежні нормально розподілені величини;

- кожний фактор не є лінійною комбінацією інших факторів.

Таким чином регресія, що розглядається, має вигляд безумовного математичного очікування. Завдання множинного регресійного аналізу полягає в побудові такої прямої в n-мірному просторі, квадрат відхилення результатів спостереження від якого був би мінімальним.

Виходячи із властивостей, які має система нормальних рівнянь, на основі якої визначається оцінка коефіцієнтів рівняння регресії, для n факторного експерименту можна записати:

(3.1)

Рішення даної системи рівнянь і дає значення оцінок коефіцієнтів âj методу найменших квадратів.

Аналіз рівнянь і методика с тає більш наглядними, а розрахункові процедури суттєво спрощуються, якщо використовуємо матричну форму запису. Сукупність вхідних величин представляємо у вигляді вектора, що

Рис.3.4 - Геометричне представлення методу найменших квадратів

подається на об’єкт, який досліджується, і вимірюються вихідні величини, які відповідають даній точці фактичного простору, утвореного вхідними величинами:

Результатами даних спостережень при відомих Х необхідно знайти вектор який є оцінкою методу найменших квадратів. Геометрично це може бути інтерпретовано наступним чином. В ідеальному випадку вектор вихідних величин представляється у вигляді Y=XA. Через наявніс ть похибок вектор спостережень результатів експерименту буде За методом найменших квадратів мінімізується значення

Область в якій розташовані вектори вхідних величин, являє собою гіперплощину (на рис. 3.4 показаний двомірний випадок). У цій же площині відображається вектор регреії Мінімальній відс тані між векторами спостережень і гіперплощиною відповідатиме довжина перпендикуляра, опущеного із кінця цього вектора на гіперплощину, тобто є проекцією на область і квадрат довжини вектора буде мінімальним. Умова ортогональнос ті різницевого вектора до гіперплощини F може бути записана у вигляді де Хt – транспонована матриця вхідних величин (по відношенню до матриці Х в ній стовпці й рядки помінялися місцями). Одержуємо нормальне рівняння у матричній формі:

(3.2)

Матриця ХtХ=С називається інформаційною матрицею. Тоді нормальне рівняння можна переписати у вигляді

(3.3)

і воно завжди має рішення.

Дійсно, для матриці Х, яка є матрицею плану (кожен рядок показує умови проведення і-го досліду), транспонована матриця буде:

Інформаційна матриця в цьому випадку

буде квадратною розмірністю (n+1)×(n+1).

Для визначення вектора оцінок МНК необхідно вираз (3.3) домножити зліва на отриману матрицю С-1. Оскільки матриця С квадратна, то її можна обернути. Обернена матриця С-1 називається коваріаційною (дисперсійною).

Перепишемо вираз (3.3) таким чином:

Добуток оберненої матриці на пряму дає одиничну матрицю. У результаті одержимо вираз для вектора оцінок коефіцієнтів:

(3.4)

Кожний коефіцієнт множинної регресії визначається з виразу:

(3.5)

де Сij – елементи матриці С-1.

Знаходження варіаційної матриці С-1 при значній кількості факторів n -складне і трудоємне завдання. Якщо при перевірці моделі встановлено, що точність апроксимації мала, то все треба починати спочатку, оскільки будь-яка добавка (значення) елементів у рівнянні прогресії відповідно до (3.5) приведе до зміни значень усіх коефіцієнтів аj. Таким чином, після уточнення рівняння регресії необхідно знову транспонувати матрицю, а потім відповідно до (3.5) визначати аj, тобто всі коефіцієнти рівняння регресії взаємопов’язані.

Відомо, що прос то обертається діагональна матриця – матриця, в якій всі елементи, крім тих, що стоять на головній діагоналі, дорівнюють нулю. Для обернення матриці С в діагональну треба виконати умову

яка називається умовою ортогональності і може використовуватися в томувипадку, коли в n-мірному факторному просторі кожному з факторів поставити у відповідність одну із взаємноперпендикулярних осей. Тоді матриця С і відповідна їй коваріаційна матриця С-1 матимуть вигляд

 

Прийнявши умову, що

а також, що матриця С-1 діагональна, вираз можна подати

наступним чином:

У результаті ос танній вираз, а значить, вираз розпадається на (n+1) незалежних рівнянь, які дозволяють незалежно знаходити оцінки коефіцієнтів рівняння множинної регресії:

(3.6)

Розглянемо, які властивості мають оцінки найменших квадратів коефіцієнтів рівняння множинної регресії, одержаних із матричного рівняння . Оскільки вважається, що похибки вимірювань вихідної величини є зміщеними, то математичне очікування матриці (точніше вектор – стовпчики) похибок дорівнює нулю Е[ε]=0. Визначимо, чому дорівнює математичне очікування оцінки вектора коефіцієнтів , тобто

Взявши до уваги, що і Е[ε]=0, одержимо

тобто вектор є незміщеною оцінкою вектора А. Для визначення дисперсії одержаних оцінок коефіцієнтів скористуємося виразом (3.4), тоді

Оскільки матриця C -1 X t детермінована, а - випадкова матриця, то можна записати

(3.7)

Дисперсія спостережень (результатів вимірювань) визначається так:

Якщо похибки вимірювання вихідної величини некорельовані і мають однакову дисперсію, тобто , , де ln – одинична матриця.

Підставимо у вираз (3.7):

(3.8)

і одержимо, що коли як оцінку вектора А вибираємо саме вектор-стовпчик А(оцінку найменших квадратів), то дана оцінка має найменшу дисперсію. Якщо похибки незалежні і однаково розподілені, то до того ж є і ефективною.

Для випадку, коли похибки корельовані, , де W – відома, позитивно визначена матриця, тоді оцінка найменших квадратів для вектора А

і називається узагальненою оцінкою найменших квадратів, а для випадку, коли матриця W діагональна, то зваженою оцінкою.

Якщо матриця W діагональна з елементами W-1, то зважена оцінка найменших квадратів для вектора А і дисперсія цієї оцінки визначаться так:

Date: 2015-09-19; view: 737; Нарушение авторских прав; Помощь в написании работы --> СЮДА...



mydocx.ru - 2015-2024 year. (0.009 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию