Procedure di regressione lineare e non lineare

* Final gross prices may vary according to local VAT.

Get Access

Riassunto

Nell’analisi statistica è abbastanza comune che i dati da analizzare siano costituiti da risposte y i (i = 1,2,…,n) che sappiamo essere dipendenti da un vettore xi di dimensione p×1 contenente valori di input osservati o fissati dal ricercatore. La situazione può essere rappresentata dall’equazione: (13.1) $$ y_i = f(x_i ,\beta ) + \varepsilon _i $$ dove il termine εi è un residuo stocastico utilizzato per descrivere l’errore sperimentale nella misura di y i o l’effetto di variabili non osservabili. In termini statistici è comune assumere: (1) $$ \varepsilon _i \sim NID(0,\sigma ^2 ) $$ cioè che i residui siano distribuiti in modo normale, con valore atteso 0, varianza costante σ2 e siano inoltre a due a due indipendenti. Il termine f(xi@#@) esprime la componente sistematica della relazione tra y i e xi, nel senso che E(y i ) = f(xi,β) ovvero, sfruttando le proprietà della distribuzione normale, che yi ∼ NID(f(xi,β), σ2). I parametri incogniti del modello sono dati dal vettore dei coefficienti di regressione β, nella maggior parte dei casi anch’esso di dimensione p×1, e dalla varianza dei residui σ2.