Какво е нелинейна регресия
Нелинейната регресия е форма на регресионен анализ, при която данните са подходящи за модел и след това се изразяват като математическа функция. Простата линейна регресия свързва две променливи (X и Y) с права линия (y = mx + b), докато нелинейната регресия трябва да генерира линия (обикновено крива), сякаш всяка стойност на Y е произволна променлива. Целта на модела е сборът на квадратите да е възможно най-малък. Сумата от квадратчета е мярка, която проследява колко наблюдения варират от средната стойност на набора от данни. Той се изчислява, като първо се намери разликата между средната и всяка точка на данните в набора. Тогава всяка от тези различия е на квадрат. И накрая, всички квадратни фигури се добавят заедно. Колкото по-малка е сумата от тези квадратни цифри, толкова по-добре функцията отговаря на точките от данни в набора. Нелинейната регресия използва логаритмични функции, тригонометрични функции, експоненциални функции и други методи на приспособяване.
Разрушаване на нелинейната регресия
Нелинейното регресионно моделиране е подобно на линейното регресионно моделиране, тъй като и двете се стремят да проследят графично определен отговор от набор от променливи. Нелинейните модели са по-сложни от линейните модели за разработване, тъй като функцията се създава чрез поредица от приближения (итерации), които могат да произтичат от проба и грешка. Математиците използват няколко установени метода, като методът на Гаус-Нютон и метода на Левенберг-Маркард.