Визначення нелінійної регресії
Що таке нелінійна регресіяНелінійна регресія - це форма регресійного аналізу, в якій дані підходять до моделі і потім виражаються як математична функція. Проста лінійна регресія стосується двох змінних (X і Y) з прямою лінією (y = mx + b), тоді як нелінійна регресія повинна генерувати лінію (як правило, криву) так, ніби кожне значення Y було випадковою змінною. Мета моделі - зробити суму квадратів якомога меншою. Сума квадратів - це міра, яка відстежує, наскільки спостереження відрізняються від середнього набору даних. Він обчислюється шляхом спочатку знаходження різниці між середньою та кожною точкою даних у наборі. Потім кожна з цих різниць складається в квадрат. Нарешті, всі фігури у квадраті додаються разом. Чим менша сума цих фігур у квадраті, тим краще функція підходить до точок даних у наборі. Нелінійна регресія використовує логарифмічні функції, тригонометричні функції, експоненціальні функції та інші методи підгонки.
Порушення нелінійної регресії
Нелінійне регресійне моделювання подібне до лінійного регресійного моделювання тим, що обидва прагнуть графічно відстежувати конкретну реакцію з набору змінних. Нелінійні моделі є складнішими за лінійні моделі, тому що функція створюється за допомогою ряду наближень (ітерацій), які можуть випливати із спроб та помилок. Математики використовують декілька усталених методів, таких як метод Гаусса-Ньютона та метод Левенберга-Маркарда.
Порівняйте інвестиційні рахунки Ім’я постачальника Опис Розкриття рекламодавця × Пропозиції, що з’являються в цій таблиці, є партнерствами, від яких Investopedia отримує компенсацію.