Regresia neliniară

Regresia neliniară  este un tip de analiză de regresie în care datele experimentale sunt modelate de o funcție care este o combinație neliniară de parametri ai modelului și depinde de una sau mai multe variabile independente. Datele sunt aproximate prin metoda aproximărilor succesive .

Dispoziții generale

Datele constau din variabile explicative fără erori x și variabile dependente observate asociate ( răspunsuri ) y . Fiecare variabilă y este modelată ca o variabilă aleatoare cu o medie dată de o funcție neliniară f ( x ,β). Eroarea metodologică poate fi prezentă, dar procesarea acesteia depășește limitele analizei de regresie. Dacă variabilele independente nu sunt lipsite de erori, modelul devine un model cu erori în variabilele și este, de asemenea, în afara domeniului de aplicare.

De exemplu, modelul Michaelis-Menten pentru cinetica enzimatică

poate fi scris ca

unde  este parametrul ,  este parametrul și [ S ] este variabila independentă ( x ). Această funcție este neliniară deoarece nu poate fi exprimată ca o combinație liniară a și .

Alte exemple de funcții neliniare sunt funcțiile exponențiale , funcțiile logaritmice , funcțiile trigonometrice, funcțiile de putere , funcțiile gaussiene și curbele Lorentz . Analiza de regresie cu funcții precum exponențial sau log poate fi uneori redusă la cazul liniar și poate fi aplicată regresia liniară standard, dar trebuie utilizată cu grijă. Consultați secțiunea Linearizare de mai jos pentru detalii.

În cazul general, este posibil să nu existe o reprezentare în formă închisă (ca și în cazul regresiei liniare ). De obicei, algoritmii de optimizare sunt utilizați pentru a determina cele mai bune estimări ale parametrilor . Spre deosebire de regresia liniară, pot exista mai multe minime locale ale funcției care este optimizată, iar minimul global poate oferi chiar o estimare părtinitoare . În practică, valorile estimate ale parametrilor sunt utilizate împreună cu un algoritm de optimizare în încercarea de a găsi minimul global al sumei pătratelor.

Consultați „ Cel mai mici pătrate ” și „ Cel mai mici pătrate neliniare pentru detalii despre modelarea neliniară .

Statistici de regresie

Presupunerea care stă la baza acestei proceduri este că modelul poate fi aproximat printr-o funcție liniară.

unde . Aceasta rezultă din faptul că estimarea celor mai mici pătrate este dată de formula

Statistica de regresie neliniară este calculată și utilizată ca statistică de regresie liniară, dar în loc de X în formule, se folosește J. O potrivire liniară introduce o prejudecată în statistici, așa că ar trebui să fie mai atent în interpretarea statisticilor derivate dintr-un model neliniar.

Cele mai mici pătrate obișnuite și ponderate

Cea mai bună curbă de potrivire este adesea presupusă a fi cea care minimizează suma reziduurilor pătrate . Aceasta este abordarea (convențională) a celor mai mici pătrate (OLS). Totuși, în cazul în care variabila dependentă nu are varianță constantă, suma pătratelor ponderate poate fi minimizată . În mod ideal, fiecare pondere ar trebui să fie reciproca varianței observațiilor, totuși ponderile pot fi recalculate într-un algoritm iterativ de cele mai mici pătrate ponderate la fiecare iterație.

Linearizare

Transformare

Unele probleme de regresie neliniară pot fi reduse la unele liniare prin transformarea adecvată a formulării modelului.

De exemplu, luați în considerare problema regresiei neliniare

cu parametrii a şi b şi cu factorul de eroare multiplicativă U . Dacă luăm logaritmul ambelor părți, obținem

unde u = ln( U ). Din aceasta se poate obține o estimare a parametrilor necunoscuți prin regresia liniară a ln( y ) pe x iar calculele nu necesită optimizare iterativă. Cu toate acestea, utilizarea unei transformări neliniare necesită prudență. Impactul valorilor datelor se va schimba, modelul erorilor de model și interpretarea oricăror rezultate obținute se vor schimba, ceea ce poate duce la rezultate nedorite. Pe de altă parte, în funcție de cea mai mare sursă de eroare, transformarea neliniară poate distribui erorile ca o distribuție gaussiană, astfel încât modelul trebuie luat în considerare atunci când se aplică transformarea neliniară.

De exemplu, pentru ecuația Michaelis-Menten , reprezentarea liniară Lineweaver-Burk este utilizată pe scară largă

.

Cu toate acestea, din cauza sensibilității sale ridicate la erorile de date, precum și din cauza părtinirii puternice, acest lucru nu este recomandat.

Pentru distribuțiile de eroare care aparțin familiei distribuțiilor exponențiale , o funcție de legătură poate fi utilizată pentru a transforma parametrii într-un model liniar generalizat .

Segmentare

Variabila independentă (de exemplu, X) poate fi împărțită în clase sau segmente și poate fi efectuată regresia liniară segment cu segment . Regresia segmentată cu analiză de încredere poate produce un rezultat în care variabila sau răspunsul dependent (de exemplu, Y) se comportă diferit în diferite segmente [1] .

Graficul din dreapta arată că salinitatea solului (X) nu are inițial niciun efect asupra producției (Y) de muștar până când se atinge o valoare critică sau de prag , după care un efect negativ asupra randamentului [2]

Exemple

Regula Titius-Bode sub forma unei formule matematice este o ecuație de regresie neliniară unidimensională care leagă numerele ordinale ale planetelor sistemului solar , numărând de la Soare , cu valorile aproximative ale semi-ului major . -axele orbitelor lor . Precizia este destul de satisfăcătoare nu pentru scopuri astronomice.

Vezi și

Note

  1. Oosterbaan, 1994 , p. 175-224.
  2. ( Oosterbaan 2002 ) Ilustrație realizată de SegReg

Literatură

Lectură pentru lecturi suplimentare