
#
add
@Tests
Argumento:  lista-variabili 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --quiet (non mostra le stime del modello aumentato)
Esempi:     add 5 7 9
            add xx yy zz

Va invocato dopo un comando di stima. Aggiunge al modello precedente le
variabili nella lista-variabili e stima il nuovo modello. Se si aggiunge più
di una variabile, verrà mostrata la statistica F e il suo p-value per le
nuove variabili (solo per la procedura OLS). Un p-value inferiore a 0.05
indica che i coefficienti sono congiuntamente significativi al livello del 5
per cento.

Se viene usata l'opzione --quiet viene mostrato solo il risultato del test
per la significatività congiunta delle variabili aggiunte, altrimenti
vengono mostrate anche le stime per il modello aumentato. Nell'ultimo caso,
l'opzione --vcv mostra anche la matrice di covarianza dei coefficienti.

Percorso menù: Finestra del modello, /Test/ADD - Aggiungi variabili

#
addto
@Tests
Argomenti:  id-modello lista-variabili 
Opzione:    --quiet (non mostra le stime del modello aumentato)
Esempio:    addto 2 5 7 9

Funziona come il comando "add", con l'eccezione che occorre specificare il
modello precedente (usando il suo numero identificativo, che è mostrato
all'inizio dei risultati del modello) da prendere come base per l'aggiunta
delle variabili. L'esempio precedente aggiunge le variabili numero 5, 7 e 9
al modello 2.

Percorso menù: Finestra del modello, /Test/ADD - Aggiungi variabili

#
adf
@Tests
Argomenti:  ordine nome-variabile 
Esempio:    adf 2 x1

Calcola le statistiche per due test Dickey-Fuller. In ognuno dei casi
l'ipotesi nulla è che la variabile selezionata esibisca una radice unitaria.
Il primo test è un test t basato sul modello

  (1 - L)x(t) = m + gx(t-1) + e(t)

L'ipotesi nulla è che valga g = 0. Il secondo test (aumentato) procede
stimando una regressione non vincolata (i regressori sono una constante, un
trend temporale, il primo ritardo della variabile e i ritardi degli "ordini"
indicati della differenza prima) e una regressione vincolata (vengono
esclusi il trend temporale e il primo ritardo). La statistica test è

  F(2, T-k) = [(ESSr - ESSu)/2] / [ESSu/(T - k)]

dove T è l'ampiezza del campione, k il numero di parametri nel modello non
vincolato e i pedici u e r denotano il modello non vincolato (unrestricted)
e quello vincolato (restricted). Si noti che i valori critici per queste
statistiche non sono quelli usuali; inoltre, quando è possibile calcolarlo,
viene mostrato un intevallo per il p-value.

Percorso menù: /Variabile/Test Dickey-Fuller aumentato

#
ar
@Estimation
Argomenti:  ritardi ; variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempio:    ar 1 3 4 ; y 0 x1 x2 x3

Calcola le stime parametriche usando la procedura iterativa generalizzata di
Cochrane-Orcutt (si veda il Capitolo 9.5 di Ramanathan). La procedura
termina quando le somme dei quadrati degli errori consecutivi non
differiscono per più dello 0.005 per cento, oppure dopo 20 iterazioni.

"ritardi" è una lista di ritardi nei residui, conclusa da un punto e
virgola. Nell'esempio precedente, il termine di errore è specificato come

  u(t) = rho(1)*u(t-1) + rho(3)+u(t-3) + rho(4)*u(t-4)

Percorso menù: /Modello/Serie storiche/AR - Stima autoregressiva

#
arch
@Tests
Argomenti:  ordine variabile-dipendente variabili-indipendenti 
Esempio:    arch 4 y 0 x1 x2 x3

Testa il modello per l'eteroschedasticità condizionale autoregressiva (ARCH:
Autoregressive Conditional Heteroskedasticity) dell'ordine specificato. Se
la statistica del test LM ha un p-value inferiore a 0.10, viene anche
effettuata la stima ARCH. Se la varianza prevista di qualche osservazione
nella regressione ausiliaria non risulta positiva, viene usato il
corrispondente residuo al quadrato. Viene quindi calcolata la stima con i
minimi quadrati ponderati sul modello originale.

Si veda anche "garch".

Percorso menù: Finestra del modello, /Test/ARCH

#
arma
@Estimation
Argomenti:  p q ; variabile-dipendente [ variabili-indipendenti ] 
Opzioni:    --native (usa il plugin interno (predefinito))
            --x-12-arima (usa X-12-ARIMA per la stima)
            --verbose (mostra i dettagli delle iterazioni)
            --vcv (mostra la matrice di covarianza)
Esempi:     arma 1 2 ; y
            arma 2 2 ; y 0 x1 x2 --verbose

Se non viene fornita una lista di variabili-indipendenti, stima un modello
autoregressivo a media mobile (ARMA: Autoregressive, Moving Average)
univariato. I valori interi p e q rappresentano rispettivamente gli ordini
AR e MA. Se vengono aggiunte delle variabili-indipendenti, il modello
diventa un ARMAX.

Il funzionamento predefinito utilizza la funzione ARMA "interna" di gretl;
nel caso di un modello ARMA univariato, è anche possibile usare X-12-ARIMA
(se si è installato il pacchetto X-12-ARIMA per gretl).

Le opzioni mostrate in precedenza possono anche essere combinate, tenendo
conto che la matrice di covarianza non è disponibile se si usa X-12-ARIMA
per la stima.

L'algoritmo interno di gretl per ARMA è in gran parte dovuto a Riccardo
"Jack" Lucchetti. Utilizza una procedura di massima verosimiglianza
condizionale, implementata attraverso la stima iterata con minimi quadrati
della regressione del prodotto esterno del gradiente (OPG). Si veda il
manuale di gretl per la logica della procedura. I coefficienti AR (e quelli
per gli eventuali regressori aggiuntivi) sono inizializzati usando una
auto-regressione OLS, mentre i coefficienti MA sono inizializzati a zero.

Il valore AIC mostrato nei modelli ARMA è calcolato secondo la definizione
usata in X-12-ARIMA, ossia

  AIC = -2L + 2k

dove L è la log-verosimiglianza e k è il numero totale di parametri stimati.
Il valore di "frequenza" mostrato insieme alle radici AR e MA è il valore di
lambda che risolve

  z = r * exp(i*2*pi*lambda)

dove z è la radice in questione e r è il suo modulo.

Percorso menù: /Variabile/Modello ARMA, /Modello/Serie Storiche/ARMAX
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
boxplot
@Graphs
Argumento:  lista-variabili 
Opzione:    --notches (mostra l'intervallo di confidenza al 90 per cento per la mediana)

Questo grafico (da Tukey e Chambers) mostra la distribuzione di una
variabile. La "scatola" centrale (box) racchiude il 50 per cento centrale
dei dati, ossia è delimitato dal primo e terzo quartile. I "baffi"
(whiskers) si estendono fino ai valori minimo e massimo. Una linea
trasversale sulla scatola indica la mediana.

Nel caso dei grafici a tacca ("notches"), una tacca indica i limiti
dell'intervallo di confidenza approssimato al 90 per cento per la mediana,
ottenuto col metodo bootstrap.

Dopo ogni variabile specificata nel comando boxplot, è possibile aggiungere
un'espressione booleana tra parentesi per limitare il campione per la
variabile in questione. Ocorre inserire uno spazio tra il nome o il numero
della variabile e l'espressione. Si supponga di avere dati sui salari di
uomini e donne e di avere una variabile dummy GENERE che vale 1 per gli
uomini e 0 per le donne. In questo caso, è possibile generare dei boxplot
comparativi usando la seguente "lista-variabili":

	salario (GENERE=1) salario (GENERE=0)

Alcuni dettagli del funzionamento dei boxplot di gretl possono essere
controllati attraverso un file testuale chiamato .boxplotrc. Per ulteriori
dettagli, si veda il manuale di gretl.

Percorso menù: /Dati/Grafico delle variabili/Boxplot

#
chow
@Tests
Argumento:  osservazione 
Esempi:     chow 25
            chow 1988:1

Va eseguito dopo una regressione OLS. Crea una variabile dummy che vale 1 a
partire dal punto di rottura specificato da osservazione fino alla fine del
campione, 0 altrove; inoltre crea dei termini di interazione tra questa
dummy e le variabili indipendenti originali, stima una regressione che
include questi termini e calcola una statistica F, prendendo la regressione
aumentata come non vincolata e la regressione originale come vincolata. La
statistica è appropriata per testare l'ipotesi nulla che non esista un break
strutturale in corrispondenza del punto di rottura specificato.

Percorso menù: Finestra del modello, /Test/CHOW

#
coeffsum
@Tests
Argumento:  lista-variabili 
Esempio:    coeffsum xt xt_1 xr_2

Deve essere usato dopo una regressione. Calcola la somma dei coefficienti
delle variabili nella lista-variabili e ne mostra l'errore standard e il
p-value per l'ipotesi nulla che la somma sia zero.

Si noti la differenza tra questo test e "omit", che assume come ipotesi
nulla l'uguaglianza a zero di tutti i coefficienti di un gruppo di variabili
indipendenti.

Percorso menù: Finestra del modello, /Test/Somma dei coefficienti

#
coint
@Tests
Argomenti:  ordine variabile-dipendente variabili-indipendenti 
Esempio:    coint 4 y x1 x2

Il test di cointegrazione di Engle-Granger svolge dei test Dickey-Fuller
aumentati sull'ipotesi nulla che ognuna delle variabili elencate abbia una
radice unitaria, usando l'ordine di ritardi specificato. Viene stimata la
regressione di cointegrazione e viene eseguito un test ADF sui residui di
questa regressione, mostrando anche la statistica di Durbin-Watson per la
regressione di cointegrazione. Si noti che i valori di tutte queste
statistiche test non possono essere confrontati con quelli delle solite
tavole statistiche.

Percorso menù: /Modello/Serie storiche/Test di cointegrazione/Engle-Granger

#
coint2
@Tests
Argomenti:  ordine variabile-dipendente variabili-indipendenti 
Opzione:    --verbose (mostra i dettagli delle regressioni ausiliarie)
Esempi:     coint2 2 y x
            coint2 4 y x1 x2 --verbose

Esegue il test traccia di Johansen per la cointegrazione tra le variabili
elencate per l'ordine specificato. I valori critici sono calcolati con
l'approssimazione gamma di J. Doornik's (Doornik, 1998). Per i dettagli su
questo test, si veda Hamilton, Time Series Analysis (1994), Cap. 20.

La tabella seguente fornisce un esempio di interpretazione dei risultati del
test nel caso di 3 variabili. H0 denota ipotesi nulla, H1 l'ipotesi
alternativa e c ilnumero delle relazioni di cointegrazione.

                 Rango    Test traccia       Test Lmax
                          H0     H1          H0     H1
                 ---------------------------------------
                  0      c = 0  c = 3       c = 0  c = 1
                  1      c = 1  c = 3       c = 1  c = 2
                  2      c = 2  c = 3       c = 2  c = 3
                 ---------------------------------------

Percorso menù: /Modello/Serie storiche/Test do cointegrazione/Johansen

#
corc
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempio:    corc 1 0 2 4 6 7

Calcola le stime dei parametri usando la procedura iterativa di
Cochrane-Orcutt (si veda il Capitolo 9.4 di Ramanathan). La procedura si
ferma quando le stime consecutive del coefficiente di autocorrelazione
differiscono per meno di 0.001, oppure dopo 20 iterazioni.

Percorso menù: /Modello/Serie storiche/Cochrane-Orcutt

#
corr
@Statistics
Argumento:  [ lista-variabili ] 
Esempio:    corr y x1 x2 x3

Mostra le coppie di coefficienti di correlazione per la variabili date nella
lista-variabili, o per tutte le variabili del dataset se non viene
specificata alcuna lista-variabili.

Percorso menù: /Dati/Matrice di correlazione
Accesso alternativo: Menù pop-up nella finestra principale (selezione multipla)

#
corrgm
@Statistics
Argomenti:  variable [ max-ritardo ] 
Esempio:    corrgm x 12

Mostra i valori della funzione di autocorrelazione per la variabile
specificata (dal nome o dal numero). Si veda Ramanathan, Capitolo 11.7. È
definita come rho(u(t), u(t-s)) dove ut è la t-esima osservazione della
variabile u e s è il numero dei ritardi.

Vengono mostrate anche le autocorrelazioni parziali, ossia al netto
dell'effetto dei ritardi intermedi. Il comando produce anche un grafico del
correlogramma e mostra la statistica di Box-Pierce Q per testare l'ipotesi
nulla che la serie sia "white noise" (priva di autocorrelazione). La
statistica si distribuisce asintoticamente come chi-quadro con gradi di
libertà pari al numero di ritardi specificati.

Se viene specificato un valore max-ritardo, la lunghezza del correlogramma
viene limitata al numero di ritardi specificato, altrimenti viene scelta
automaticamente.

Percorso menù: /Variabile/Correlogramma
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
criteria
@Utilities
Argomenti:  ess T k 
Esempio:    criteria 23.45 45 8

Calcola le statistiche di selezione del modello (si veda Ramanathan,
Capitolo 4.3), dati ess (somma dei quadrati degli errori), il numero delle
osservazioni (T) e quello dei coefficienti (k). T, k e ess possono essere
valori numerici o nomi di variabili definite in precedenza.

#
critical
@Utilities
Argomenti:  distribuzione param1 [ param2 ] 
Esempi:     critical t 20
            critical X 5
            critical F 3 37

Se la distribuzione è t, X o F, mostra i valori critici per le distribuzioni
t di student, chi-quadro o F, per i valori di significatività usuali, con i
gradi di libertà specificati, dati da param1 per la t e la chi-quadro, o
param1 e param2 per la F. Se la distribuzione è d, mostra i valori superiore
e inferiore della statistica di Durbin-Watson al livello di significatività
del 5 per cento, per il dato numero di osservazioni param1, e per
l'intervallo da 1 a 5 variabili esplicative.

Percorso menù: /Utilità/Tavole statistiche

#
cusum
@Tests
Va eseguito dopo la stima di un modello OLS. Esegue il test CUSUM per la
stabilità dei parametri. Viene calcolata una serie di errori di previsione
(scalati) per il periodo successivo, attraverso una serie di regressioni: la
prima usa le prime k osservazioni e viene usata per generare la previsione
della variabile dipendente per l'osservazione k + 1; la seconda usa le prime
k + 1 osservazioni per generare una previsione per l'osservazione k + 2 e
così via (dove k è il numero dei parametri nel modello originale). Viene
mostrata, anche graficamente, la somma cumulata degli errori scalati di
previsione. L'ipotesi nulla della stabilità dei parametri è rifiutata al
livello di significatività del 5 per cento se la somma cumulata va al di
fuori delle bande di confidenza al 95 per cento.

Viene mostrata anche la statistica t di Harvey-Collier per testare l'ipotesi
nulla della stabilità dei parametri. Si veda il Capitolo 7 di Econometric
Analysis di Greene, per i dettagli.

Percorso menù: Finestra del modello, /Test/CUSUM

#
data
@Dataset
Argumento:  lista-variabili 

Legge le variabili nella lista-variabili da un database (gretl o RATS 4.0),
che deve essere stato precedentemente aperto con il comando "open". Inoltre,
prima di eseguire questo comando, va impostata una frequenza dei dati e un
intervallo del campione, usando i comandi "setobs" e "smpl". Ecco un esempio
completo:

	open macrodat.rat
	setobs 4 1959:1
	smpl ; 1999:4
	data GDP_JP GDP_UK

Questi comandi aprono un database chiamato macrodat.rat, impostano un
dataset trimestrale che inizia nel primo trimestre del 1959 e finisce nel
quarto trimestre del 1999 e infine importano le serie GDP_JP e GDP_UK.

Se le serie da leggere hanno frequenza maggiore di quella impostata nel
dataset, occorre specificare un metodo di compattamento, come mostrato di
seguito

	data (compact=average) 
	LHUR PUNEW

I quattro metodi di compattamento disponibili sono "average" (usa la media
delle osservazioni ad alta frequenza), "last" (usa l'ultima osservazione),
"first" e "sum".

Percorso menù: /File/Consulta database

#
delete
@Dataset
Argumento:  [ lista-variabili ] 

Rimuove dal dataset le variabili elencate (specificate tramite il nome o il
numero). Usare con cautela: non viene chiesta conferma dell'operazione e le
variabili con numeri identificativi più alti vengono ri-numerate.

Se non viene specificata alcuna lista-variabili viene eliminata dal dataset
l'ultima variabile (quella col numero identificativo più alto).

Percorso menù: Pop-up nella finestra principale (selezione singola)

#
diff
@Transformations
Argumento:  lista-variabili 

Calcola la differenza prima di ogni variabile nella lista-variabili e la
salva in una nuova variabile il cui nome è prefissato con d_. Quindi "diff x
y" crea le nuove variabili d_x = x(t) - x(t-1) e d_y = y(t) - y(t-1).

Percorso menù: /Dati/Aggiungi variabili/Differenze

#
else
@Programming
Si veda "if".

#
end
@Programming
Termina un blocco di comandi di qualsiasi tipo. Ad esempio, "end system"
termina un "system" (sistema di equazioni).

#
endif
@Programming
Si veda "if".

#
endloop
@Programming
Indica la fine di un ciclo (loop) di comandi. Si veda "loop".

#
eqnprint
@Printing
Argumento:  [ -f nomefile ] 
Opzione:    --complete (crea un documento completo)

Va eseguito dopo la stima di un modello. Stampa il modello stimato sotto
forma di equazione LaTeX. Se viene specificato un nome di file usando
l'opzione -f, il risultato viene scritto in quel file, altrimenti viene
scritto in un file il cui nome ha la forma equation_N.tex, dove N è il
numero di modelli stimati finora nella sessione in corso. Si veda anche
"tabprint".

Usando l'opzione --complete, il file LaTeX è un documento completo, pronto
per essere processato; altrimenti il file va incluso in un documento.

Percorso menù: Finestra del modello, /LaTeX

#
equation
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Esempio:    equation y x1 x2 x3 const

Specifica un'equazione all'interno di un sistema di equzioni (si veda
"system"). La sintassi è la stessa usata ad esempio in "ols" (eccetto per un
sistema con minimi quadrati a tre stadi, per cui la sintassi è la stessa di
"tsls").

#
fcast
@Prediction
Argomenti:  [ oss-iniziale oss-finale ] var-stima 
Esempi:     fcast 1997:1 2001:4 f1
            fcast fit2

Deve seguire un comando di stima. Calcola previsioni per l'intervallo
specificato (o per il più lungo intervallo possibile, se non viene
specificata alcuna oss-iniziale e oss-finale) e salva i valori nella
variabile var-stima, che può essere stampata e rappresentata graficamente o
con un diagramma ASCII. Le variabili indipendenti sono quelle del modello
originale, non è possibile introdurre altre variabili. Se viene specificato
un processo di errore autoregressivo (per "hilu", "corc" e "ar") la
previsione è condizionale per il periodo successivo e incorpora il processo
di errore.

Percorso menù: Finestra del modello, /Dati modello/Previsioni

#
fcasterr
@Prediction
Argomenti:  oss-iniziale oss-finale 
Opzione:    --plot (mostra il grafico)

Dopo aver stimato un modello OLS è possibile usare questo comando per
rappresentare i valori stimati su un intervallo di osservazioni specificato,
insieme agli errori standard stimati per queste previsioni e agli intervalli
di confifenza al 95 per cento.

Gli errori standard sono calcolati nel modo descritto da Wooldridge nel
capitolo 6 del suo Introductory Econometrics. Incorporano due fonti di
variabilità: la varianza associata al valore atteso della variabile
dipendente, condizionale ai valori dati delle variabili indipendenti, e la
varianza dei residui della regressione.

Percorso menù: Finestra del modello, /Dati modello/Previsioni con errori standard

#
fit
@Prediction
Una scorciatoia per "fcast", deve seguire un comando di stima. Genera valori
stimati per il campione corrente basati sull'ultima regressione e li salva
nella serie autofit. Nel caso di modelli di serie storiche, mostra anche un
grafico dei valori stimati e di quelli effettivi della variabile dipendente
rispetto al tempo.

#
freq
@Statistics
Argumento:  variabile 

Mostra la distribuzione di frequenza per la variabile (indicata con il nome
o il numero) e i risultati del test chi-quadro di Doornik-Hansen per la
normalità. In modalità interattiva viene mostrato anche un grafico della
distribuzione.

Percorso menù: /Variabile/Distribuzione di frequenza

#
garch
@Estimation
Argomenti:  p q ; variabile-dipendente [ variabili-indipendenti ] 
Opzioni:    --robust (errori standard robusti)
            --verbose (mostra i dettagli delle iterazioni)
            --vcv (mostra la matrice di covarianza)
Esempi:     garch 1 1 ; y
            garch 1 1 ; y 0 x1 x2 --robust

Stima un modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) univariato, o, se sono specificate delle
variabili-indipendenti, includendo delle variabili esogene. I valori interi
p e q rappresentano gli ordini di ritardo nell'equazione della varianza
condizionale.

  h(t) = somma(per i da 1 a q) a(i)*u(t-i) + somma( per j da 1 a p) b(j)*h(t-j)

L'algoritmo GARCH usato da gretl è in pratica quello di Fiorentini,
Calzolari e Panattoni (1996), usato per gentile concessione del Professor
Fiorentini.

Sono disponibili varie stime della matrice di covarianza dei coefficienti.
Il metodo predefinito è quello dell'Hessiana; se si indica l'opzione
--robust viene usata la matrice di covarianza QML (White). Altre possibilità
(ad es. la matrice di informazione, o lo stimatore di Bollerslev-Wooldridge)
possono essere specificate con il comando "set".

Percorso menù: /Modello/Serie storiche/GARCH

#
genr
@Dataset
Argomenti:  nuova-variabile = formula 

Crea nuove variabili, di solito per mezzo di trasformazioni di variabili
esistenti. Si veda anche "diff", "logs", "lags", "ldiff", "multiply" e
"square" per le scorciatoie.

Gli operatori aritmetici supportati sono, in ordine di precedenza: ^
(esponenziale); *, / e % (modulo o resto); + e -.

Gli operatori Booleani disponibili sono (ancora, in ordine di precedenza): !
(negazione), & (AND logico), | (OR logico), >, <, =, >= (maggiore o uguale),
<= (minore o uguale) e != (disuguale). Gli operatori Booleani possono essere
usati per costuire variabili dummy: ad esempio (x > 10) produce 1 se x > 10,
0 altrimenti.

Le funzioni supportate appartengono ai gruppi seguenti:

  Funzioni matematiche standard: abs, cos, exp, int (parte intera), ln
  (logaritmo naturale: log è un sinonimo), sin, sqrt (radice quadrata).

  Funzione statistiche: max (valore massimo in una serie), min (minimo),
  mean (media aritmetica), median, var (varianza) sd (deviazione standard),
  sst (somma dei quadrati delle deviazioni dalla media), sum, cov
  (covarianza), corr (coefficiente di correlazione), pvalue, sort, cum
  (somma cumulata), resample (ricampiona una serie con rimpiazzo, a scopo di
  boostrap), hpfilt (filtro di Hodrick-Prescott: produce la componente di
  "ciclo" della serie).

  Funzioni per serie storiche: diff (differenza prima), ldiff
  (log-differenza, ossia la differenza prima dei logaritmi naturali). Per
  generare ritardi della variabile x, si può usare la sintassi "x(-N)", dove
  N rappresenta la lunghezza del ritardo desiderato; per generare anticipi
  si usi "x(+N)".

  Funzioni dataset: misszero (sostituisce con zero il codice delle
  osservazioni mancanti in una serie), zeromiss (l'operazione inversa di
  misszero), nobs (riporta il numero di osservazioni valide in una data
  serie), missing (per ogni osservazione, vale 1 se l'argomento ha un valore
  mancante, 0 altrimenti).

  Numeri pseudo-casuali: uniform, normal.

Tutte le funzioni viste sopra, con l'eccezione di cov, corr, pvalue, uniform
e normal hanno come unico argomento il nome di una variabile (attenzione:
non è possibile indicare le variabili con il loro numero identificativo in
una formula "genr") o un'espressione che si risolve in una variabie (ad es.
ln((x1+x2)/2)). cov e corr richiedono due argomenti e producono
rispettivamente il coefficiente di covarianza e di correlazione tra i due
argomenti. La funzione pvalue richiede gli stessi argomenti del comando
"pvalue", ma in questo caso occorre separare gli argomenti con delle
virgole. uniform() e normal(), che non richiedono argomenti, producono delle
serie pseudo-casuali estratte da distribuzioni uniformi (0-1) e normale
standard (si veda anche il comando "set" con l'opzione seed). Le serie dalla
distribuzione uniforme sono generate usando il Mersenne Twister ; per le
serie dalla distribuzione normale, viene usato il metodo di Box e Muller
(1958), prendendo l'input dal Mersenne Twister.

Oltre agli operatori e alle funzioni mostrati, ci sono alcuni usi speciali
del comando "genr":

  "genr time" crea una variabile trend temporale (1,2,3,...) chiamata
  "time". "genr index" fa la stessa cosa, ma chiamando la variable index.

  "genr dummy" crea una serie di variabili dummy a seconda della periodicità
  dei dati. Ad esempio, nel caso di dati trimestrali (periodicità 4) il
  programma crea dummy_1, che vale 1 nel primo trimestre e 0 altrove,
  dummy_2 che vale 1 nel secondo trimestre e 0 altrove, e così via.

  "genr paneldum" crea una serie di variabily dummy da usare in un dataset
  di tipo panel -- si veda "panel".

  Alcune variabili interne che vengono generate durante il calcolo di una
  regressione possono essere recuperate usando "genr", nel modo seguente:

  $ess               somma dei quadrati degli errori
  $rsq               R-quadro
  $T                 numero delle osservazioni usate
  $df                gradi di libertà
  $trsq              TR-quadro (ampiezza del campione moltiplicata per 
                     R-quadro)
  $sigma             errore standard dei residui
  $aic               criterio di informazione di Akaike
  $lnl               log-verosimiglianza (dove è applicabile)
  $sigma             errore standard dei residui
  coeff(variabile)   coefficiente stimato per la variabile
  stderr(variabile)  errore standard stimato per la variabile
  rho(i)             coefficiente di autoregressione dei residui di ordine 
                     i-esimo
  vcv(x1,x2)         covarianza tra i coefficienti delle variabili x1 e x2 

Nota: nella versione a riga di comando del programma i comandi "genr" che
estraggono dati relativi al modello si riferiscono sempre al modello stimato
per ultimo. Questo vale anche per la versione grafica del programma se si
usa "genr" nel "terminale di gretl" o si immette una formula usando
l'opzione "Definisci nuova variabile" nel menù Variabile della finestra
principale. Usando la versione grafica, però, è possibile anche estrarre i
dati da qualunque modello mostrato in una finestra (anche se non è il
modello più recente) usando il menù "Dati modello" nella finestra del
modello.

Le serie interne uhat e yhat contengono rispettivamente i residui e i valori
stimati dell'ultima regressione.

Sono disponibili due variabili dataset "interne": $nobs, che contiene il
numero di osservazioni nell'intervallo del campione attuale (che non è
necessariamente uguale al valore di $T, il numero delle osservazioni usate
per stimare l'ultimo modello) e $pd, che contiene la frequenza o la
periodicità dei dati (ad esempio 4 per dati trimestrali).

La variabile t serve da indice per le osservazioni. Ad esempio, genr dum =
(t=15) crea una variabile dummy che vale 1 per l'osservazione 15 e 0
altrove. La variabile obs è simile ma più flessibile: è possibile usarla per
isolare alcune osservazioni indicandol con una data o un nome. Ad esempio,
genr d = (obs>1986:4) o genr d = (obs="CA"). L'ultima forma richiede che le
siano definite delle etichette, da usare tra virgolette doppie, per le
osservazioni.

È possibile estrarre dei valori scalari da una serie usando una formula genr
con la sintassi nome-variabile[osservazione]. Il valore di osservazione può
essere specificato con un numero o una data. Esempi: x[5], CPI[1996:01]. Per
i dati giornalieri occorre usare la forma AAAA:MM:GG, ad esempio
ibm[1970:01:23].

La La tabella seguente mostra vari esempi di utilizzo di "genr", con note
esplicative; ecco qualche esempio di utilizzo delle variabili dummy:

  Si supponga che x abbia valori 1, 2, o 3 e si desiderino tre variabili
  dummy, d1 = 1 se x = 1, e 0 altrove, d2 = 1 se x = 2 e così via. Per
  crearle, basta usare i comandi:

	    genr d1 = (x=1)
	    genr d2 = (x=2)
	    genr d3 = (x=3)

  Per creare z = max(x,y) usare

	    genr d = x>y
	    genr z = (x*d)+(y*(1-d))

  Formula               Commento
  -------               -------
  y = x1^3              x1 al cubo
  y = ln((x1+x2)/x3)    
  z = x>y               z(t) = 1 se x(t) > y(t), 0 altrove
  y = x(-2)             x ritardata di 2 periodi
  y = x(2)              x anticipata di 2 periodi
  y = diff(x)           y(t) = x(t) - x(t-1)
  y = ldiff(x)          y(t) = log x(t) - log x(t-1), il tasso di crescita 
                        istantaneo di x
  y = sort(x)           ordina x in senso crescente e la salva in y
  y = -sort(-x)         ordina x in senso decrescente
  y = int(x)            tronca x e salva il valore intero in y
  y = abs(x)            salva il valore assoluto di x
  y = sum(x)            somma i valori di x escludendo i valori mancanti -999
  y = cum(x)            cumulativa: y(t) = somma di x(s) per s da 1 a t 
  aa = $ess             imposta aa uguale alla somma dei quadrati degli errori 
                        dell'ultima regressione
  x = coeff(sqft)       estrae il coefficiente stimato per la variabile sqft 
                        nell'ultima regressione
  rho4 = rho(4)         estrae il coefficiente di autoregressione del quarto 
                        ordine dall'ultimo modello (presume un modello ar 
                        model)
  cvx1x2 = vcv(x1, x2)  estrae il coefficiente di covarianza stimato tra le 
                        variabili x1 e x2 dall'ultimo modello
  foo = uniform()       variabile pseudo-casuale uniforme nell'intervallo 0-1
  bar = 3 * normal()    variabile pseudo-casuale normale con mu = 0, sigma = 3
  samp = !missing(x)    vale 1 per le osservazioni dove il valore di x non è 
                        mancante.

Percorso menù: /Variabile/Definisci nuova variabile
Accesso alternativo: Menù pop-up nella finestra principale

#
gnuplot
@Graphs
Argomenti:  variabili-y variabile-x [ variabile-dummy ] 
Opzioni:    --with-lines (usa linee invece che punti)
            --with-impulses (usa linee verticali)
            --suppress-fitted (non mostra le stime minimi quadrati)
            --dummy (si veda sotto)
Esempi:     gnuplot y1 y2 x
            gnuplot x time --with-lines
            gnuplot wages educ gender --dummy

Senza l'opzione --dummy mostra un grafico delle variabili-y rispetto alla
variabile-x. Con --dummy, la variabile-y è rappresentata rispetto alla
variabile-x con i punti colorati diversamente a seconda del valore della
variabile-dummy (1 o 0).

La variabile time si comporta in modo speciale: se non esiste già, verrà
generata automaticamente.

In modalità interattiva il risultato è mostrato immediatamente. In modalità
"batch", viene scritto un file di comandi gnuplot, chiamato gpttmpN.plt, a
partire da N = 01; il grafico vero e proprio può essere generato usando il
programma gnuplot (su MS Windows: wgnuplot).

È disponibile un'ulteriore opzione per questo comando: dopo la
specificazione delle variabili e le eventuali opzioni, è possibile
aggiungere direttamente dei comandi gnuplot per modificare l'aspetto visivo
del grafico (ad esempio, impostando il titolo e o gli intervalli degli
assi). Questi comandi aggiuntivi vanno inclusi tra parentesi graffe e ogni
comando va separato con un punto e virgola; è possibile usare una barra
rovesciata (\) per continuare un gruppo di comandi gnuplot sulla riga
successiva. Ecco un esempio della sintassi:

{ set title 'Il mio titolo'; set yrange [0:1000]; }

Percorso menù: /Dati/Grafico delle variabili
Accesso alternativo: Menù pop-up nella finestra principale, pulsante grafico sulla barra degli strumenti

#
graph
@Graphs
Argomenti:  variabili-y variabile-x 
Opzione:    --tall (usa 40 righe)

Grafici ASCII. Le variabili-y (che possono essere definite per nome o
numero) sono rappresentate rispetto alla variabile-x usando simboli ASCII.
L'opzione --tall produce un grafico di 40 righe per 60 colonne, altrimenti
il grafico sarà di 20 righe per 60 colonne (per la visualizzazione a
schermo). Si veda anche "gnuplot".

#
hausman
@Tests
Questo test è disponibile solo dopo aver stimato un modello con il comando
"pooled" (si veda anche "panel" e "setobs"). Testa il semplice modello
"pooled" (con tutte le osservazioni considerate indistintamente) contro le
principali alternative: il modello a effetti fissi e quello a effetti
casuali.

Il modello a effetti fissi aggiunge una variabile dummy per tutte le unità
cross section tranne una, permettendo così all'intercetta della regressione
di variare per ogni unità. Viene eseguito un test F per la significatività
congiunta di queste dummy. Il modello a effetti casuali scompone la varianza
dei residui in due parti: una specifica all'unità cross section e una
specifica all'osservazione particolare (la stima può essere eseguita solo se
il numero delle unità cross section nel dataset è maggiore del numero dei
parametri da stimare). La statistica LM di Breusch-Pagan testa l'ipotesi
nulla (che il modello pooled OLS sia adeguato) contro l'alternativa a
effetti casuali.

Può accadere che il modello pooled OLS sia rifiutato nei confronti di
entrambe le alternative, a effetti fissi o casuali. A patto che gli errori
specifici di unità o di gruppo siano non correlati con le variabili
indipendenti, lo stimatore a effetti casuali è più efficiente dello
stimatore a effetti fissi; nel caso contrario lo stimatore a effetti casuali
non è consistente e deve essergli preferito lo stimatore a effetti fissi.
L'ipotesi nulla per il test di Hausman è che l'errore specifico di gruppo
non sia correlato con le variabili indipendenti (e quindi che il modello a
effetti casuali sia preferibile). Un basso p-value per questo test
suggerisce di rifiutare il modello a effetti casuali in favore del modello a
effetti fissi.

Percorso menù: Finestra del modello, /Test/HAUSMAN - Diagnosi panel

#
hccm
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Matrice di covarianza coerente con l'eteroschedasticità (HCCM:
Heteroskedasticity-Consistent Covariance Matrix); questo comando esegue una
regressione dove i coefficienti sono stimati con la procedura OLS standard,
ma gli errori standard delle stime dei coefficienti sono calcolati in modo
da essere robusti rispetto all'eteroschedasticità, ossia usando la procedura
"jackknife" di MacKinnon-White.

Percorso menù: /Modello/HCCM

#
help
@Utilities
Mostra un elenco dei comandi disponibili, "help" comando descrive il comando
(ad es. "help smpl"). Al posto di "help" si può usare "man" se si
preferisce.

Percorso menù: /Aiuto

#
hilu
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Calcola le stime dei parametri per il modello specificato usando la
procedura di ricerca di Hildreth-Lu (ottimizzata con la procedura CORC),
progettata per correggere l'effetto della correlazione seriale nel termine
di errore. Viene mostrato un grafico della somma dei quadrati degli errori
per il modello trasformato rispetto ai valori di rho da -0.99 a 0.99.

Percorso menù: /Modello/Serie storiche/Hildreth-Lu

#
hsk
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Stima una regressione OLS e ne salva i residui. I logaritmi dei quadrati di
questi residui diventano la variabile dipendente di una regressione
ausiliaria che ha come regressori le variabili indipendenti originali e i
loro quadrati. I valori stimati dalla regressione ausiliaria sono quindi
usati per costruire una serie di pesi, usati per ri-stimare il modello
originale con la procedura dei minimi quadrati ponderati. Viene riportato il
risultato finale.

La serie dei pesi è composta da 1/sqrt(exp(y*)), dove y* denota i valori
stimati dalla regressione ausiliaria.

Percorso menù: /Modello/WLS corretti per eteroschedasticità

#
if
@Programming
Controllo di flusso per l'esecuzione dei comandi. La sintassi è:

  if     condizione
         comandi1
  else   
         comandi2
  endif  

La condizione deve essere un'espressione Booleana, per la cui sintassi si
veda "genr". Il blocco "else" è opzionale; i blocchi if ... endif possono
essere nidificati.

#
import
@Dataset
Argumento:  nomefile 
Opzione:    --box1 (dati BOX1)

Importa dati da un file in formato valori separati da virgole (CSV:
comma-separated values), che può essere facilmente prodotto da un foglio
elettronico. Il file deve contenere i nomi delle variabili sulla prima riga
e una matrice rettangolare di dati nelle righe rimanenti. Le variabili
devono essere disposte "per osservazione" (una colonna per variabile, ogni
riga rappresenta un'osservazione). Si veda il manuale di gretl per i
dettagli.

Con l'opzione --box1 viene letto un file in formato BOX1, che può essere
ottenuto usando il Servizio di Estrazione Dati del Bureau of the Census
degli USA.

Percorso menù: /File/Apri dati/importa

#
info
@Dataset
Mostra le informazioni aggiuntive contenute nel file di dati attuale.

Percorso menù: /Dati/Visualizza descrizione
Accesso alternativo: Finestre di esplorazione dei dati

#
label
@Dataset
Argomenti:  nome-variabile -d descrizione -n nome-grafici 
Esempio:    label x1 -d "Descrizione di x1" -n "Nome per i grafici"

Imposta l'etichetta descrittiva per la variabile indicata (usando l'opzione
-d seguita da una stringa tra virgolette doppie) e/o un "nome per i
grafici", usato per indicare la variabile nei grafici (usando l'opzione -n,
seguita da una stringa tra virgolette doppie).

Percorso menù: /Variabile/Modifica attributi
Accesso alternativo: Menù pop-up nella finestra principale

#
labels
@Dataset
Mostra le etichette informative per le variabili generate con il comando
"genr" e quelle aggiunte al dataset attraverso l'interfaccia grafica.

#
lad
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 

Calcola una regressione che minimizza la somma delle deviazioni assolute dei
valori stimati dai valori effettivi della variabile dipendente. Le stime dei
coefficienti sono derivate usando l'algoritmo del simplesso di
Barrodale-Roberts; viene mostrato un messaggio di avvertimento se la
soluzione non è unica. Gli errori standard sono derivati attraverso la
procedura bootstrap con 500 estrazioni.

Percorso menù: /Modello/LAD - Minime deviazioni assolute

#
lags
@Transformations
Argumento:  lista-variabili 

Crea delle nuove variabili come valori ritardati di ognuna delle variabili
nella lista-variabili. Il numero delle variabili create è pari alla
periodicità del dataset. Ad esempio, se la periodicità è 4 (trimestrale), il
comando "lags x y" crea x_1 = x(t-1), x_2 = x(t-2), x_3 = x(t-3) e x_4 =
x(t-4) e così via per y. Queste variabili devono essere indicate nei comandi
successivi con il loro nome preciso, che contiene il trattino basso.

Percorso menù: /Dati/Aggiungi variabili/Ritardi delle variabili selezionate

#
ldiff
@Transformations
Argumento:  lista-variabili 

Calcola la differenza prima del logaritmo naturale di ogni variabile della
lista-variabili e la salva in una nuova variabile con il prefisso ld_. Così,
"ldiff x y" crea le nuove variabili ld_x = ln[x(t)] - ln[x(t-1)] e ld_y =
ln[y(t)] - ln[y(t-1)].

Percorso menù: /Dati/Aggiungi variabili/Differenze logaritmiche

#
leverage
@Tests
Opzione:    --save (salva le variabili)

Deve seguire immediatamente un comando "ols". Calcola il "leverage" (h,
compreso tra 0 e 1) di ogni osservazione nel campione su cui è stato stimato
il precedente modello. Mostra il residuo (u) per ogni osservazione assieme
al leverage corrispondente e a una misura della sua influenza sulla stima:
u*h/(1-h). I "punti di leverage" per cui il valore di h supera 2k/n (dove k
è il numero dei parametri stimati e n è l'ampiezza del campione) sono
indicati con un asterisco. Per i dettagli sui concetti di leverage e
influenza, si veda Davidson e MacKinnon (1993, capitolo 2).

Vengono mostrati anche i valori DFFITS: questi sono "residui studentizzati"
(ossia i residui previsti, divisi per i propri errori standard) moltiplicati
per sqrt[h/(1 - h)]. Per una discussione dei residui studentizzati e dei
valori DFFITS si veda G. S. Maddala, Introduction to Econometrics, capitolo
12 e anche Belsley, Kuh e Welsch (1980). In breve i "residui previsti" sono
la differenza tra il valore osservato e il valore stimato della variabile
dipendente all'osservazione t, ottenuti da una regressione in cui
quell'osservazione è stata omessa (oppure in cui è stata aggiunta una
variabile dummy che vale 1 solo per l'osservazione t); il residuo
studentizzato si ottiene dividendo il residuo previsto per il proprio errore
standard.

Se si usa l'opzione --save, il leverage, il valore di influenza e il valore
DFFITS sono aggiunti al dataset in uso.

Percorso menù: Finestra del modello, /Test/LEVERAGE - Osservazioni influenti

#
lmtest
@Tests
Opzioni:    --logs (non-linearità, logaritmi)
            --autocorr (correlazione seriale)
            --squares (non-linearità, quadrati)
            --white (eteroschedasticità (test di White))

Deve seguire immediatamente un comando "ols". Esegue una combinazione dei
test seguenti: test dei moltiplicatori di Lagrange per la non-linearità
(logaritmi e quadrati), test di White per l'eteroschedasticità e test LMF
per la correlazione seriale fino alla periodicità (si veda Kiviet, 1986).
Vengono mostrati anche i coefficienti delle corrispondenti regressioni
ausiliarie. Si veda Ramanathan, capitoli 7, 8 e 9 per i dettagli. Nel caso
del test di White, vengono usati solo i quadrati delle variabili
indipendenti, non i loro prodotti incrociati. Nel caso del test
sull'autocorrelazione, se il p-value della statistica LMF è minore di 0.05
(e il modello non è stao stimato in origine con errori standard robusti),
vengono calcolati e mostrati errori standard robusti rispetto alla
correlazione seriale. Per i dettagli sul calcolo di questi errori standard,
si veda Wooldridge (2002, capitolo 12).

Percorso menù: Finestra del modello, /Test

#
logistic
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti [ ymax=valore ] 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempi:     logistic y const x
            logistic y const x ymax=50

Regressione logistica: esegue una regressione OLS usando la trasformazione
logistica sulla variabile dipendente:

  log(y/(ymax - y))

La variabile dipendente dev'essere strettamente positiva. Se è una frazione
decimale, compresa tra 0 e 1, il valore predefinito per y* (il massimo
asintotico della variabile dipendente) è 1. Se la variabile dipendente è una
percentuale, compresa tra 0 e 100, il valore predefinito di y* è 100. È
possibile indicare un valore diverso per il massimo, usando la sintassi
opzionale ymax=valore che segue la lista dei regressori. Il valore fornito
deve essere maggiore di tutti i valori osservati della variabile dipendente.

I valori stimati e i residui della regressione sono trasformati
automaticamente usando

  y = ymax / (1 + exp(-x))

dove x rappresenta un valore stimato oppure un residuo della regressione
OLS, usando la variabile dipendente trasformata. I valori riportati sono
dunque confrontabili con la variabile dipendente originale.

Si noti che se la variabile dipendente è binaria, occorre usare il comando
"logit" invece di questo comando.

Percorso menù: /Modello/Logistico

#
logit
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Regressione binomiale logit. La variabile dipendente deve essere binaria. Le
stime di massima verosimiglianza dei coefficienti per le
variabili-indipendenti sono ottenute con il metodo EM
(Expectation-Maximization, si veda Ruud, 2000, capitolo 27). Visto che il
modello è nonlineare, le pendenze dipendono dai valori delle variabili
indipendenti: le pendenze riportate sono valutate nelle medie di queste
variabili. La statistica chi-quadro testa l'ipotesi nulla che tutti i
coefficienti tranne la costante siano pari a zero.

Per condurre un'analisi delle proporzioni (dove la variabile dipendente è la
proporzione dei casi che hanno una certa caratteristica in ogni
osservazione, invece che una variabile binaria che indica se la
caratteristica è presente o no), non bisogna usare il comando "logit", ma
occorre costruire la variabile logit (ad es. "genr lgt_p = log(p/(1 - p))")
e usare questa come variabile dipendente in una regressione OLS; si veda
Ramanathan, capitolo 12.

Percorso menù: /Modello/Logit

#
logs
@Transformations
Argumento:  lista-variabili 

Calcola il logaritmo naturale di ognuna delle variabili della
lista-variabili e lo salva in una nuova variabile col prefisso l_, ossia una
"elle" seguita da un trattino basso. "logs x y" crea le nuove variabili l_x
= ln(x) e l_y = ln(y).

Percorso menù: /Dati/Aggiungi variabili/Logaritmi delle variabili selezionate

#
loop
@Programming
Argumento:  controllo 
Esempi:     loop 1000
            loop while essdiff > .00001
            loop for i=1991..2000

Il parametro "controllo" deve assumere uno dei tre valori mostrati negli
esempi: un numero di volte per cui ripetere i comandi all'interno del loop,
oppure "while" seguito da una condizione numerica, o ancora "for" seguito da
un intervallo di valori per la variabile interna i che funge da indice.

Questo comando apre una modalità speciale, in cui il programma accetta
comandi da eseguire più volte. All'interno di un loop possono essere usati
solo alcuni tipi di comandi: "genr", "ols", "print", "sim", "smpl", "store"
e "summary" ("store" non può essere usato in un loop di tipo "while"). Si
esce dalla modalità loop con l'istruzione "endloop": a questo punto i
comandi indicati vengono eseguiti. I loop non possono essere nidificati tra
loro.

Si veda il manuale di gretl per ulteriori dettagli ed esempi.

#
meantest
@Tests
Argomenti:  var1 var2 
Opzione:    --unequal-vars (assume varianze diseguali)

Calcola la statistica t per l'ipotesi nulla che le medie della popolazione
siano uguali per le variabili var1 e var2, mostrando il suo p-value.
L'impostazione predefinita prevede di assumere che le varianze delle due
variabili siano uguali, mentre usando l'opzione --unequal-vars, si assume
che esse siano diverse. Questo è rilevante per la statistica test solo se le
due variabili contengono un diverso numero di osservazioni valide (non
mancanti).

Percorso menù: /Dati/Differenza delle medie

#
modeltab
@Utilities
Argomenti:  add  o show  o free 

Manipola la "tabella modelli" di gretl. Si veda il manuale di gretl per i
dettagli. Le opzioni hanno i seguenti effetti: "add" aggiunge l'ultimo
modello stimato alla tabella modelli, se possibile; "show" mostra la tabella
modelli in una finestra; "free" pulisce la tabella.

Percorso menù: Finestra di sessione, Icona Tabella Modelli

#
mpols
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 

Calcola le stime OLS per il modello indicato usando aritmetica in virgola
mobile a precisione multipla. Questo comando è disponibile solo se gretl è
compilato con il supporto per la libreria Gnu Multiple Precision (GMP).

Per stimare un'interpolazione polinomiale usando l'aritmetica a precisione
multipla per generare le potenze richieste della variabile indipendente, si
usi la sintassi "mpols y 0 x ; 2 3 4". Si otterrà una regressione di y su x,
x quadro, x al cubo e x alla quarta potenza. Quindi i numeri (interi
positivi) a destra del punto e virgola specificano le potenze di x da usare.
Se si indica più di una variabile indipendente, l'ultima variabile prima del
punto e virgola è quella di cui verranno calcolate le potenze.

Percorso menù: /Modello/MPOLS - Minimi quadrati in alta precisione

#
multiply
@Transformations
Argomenti:  x suffisso lista-variabili 
Esempi:     multiply invpop pc 3 4 5 6
            multiply 1000 big x1 x2 x3

Le variabili nella lista-variabili (indicate per nome o numero) sono
moltiplicate per x, che può essere un valore numerico o il nome di una
variabile già definita. I prodotti verranno chiamati con il suffisso
specificato (massimo 3 caratteri), troncando i nomi delle variabili
originali se ce n'è bisogno per motivi di spazio. Ad esempio, si supponga di
voler creare la versione procapite di una serie di variabili, usando la
variabile pop (popolazione). Lo si può fare con i comandi seguenti:

	genr invpop = 1/pop
	multiply invpop pc income

che creeranno incomepc come prodotto di income e invpop, e expendpc come
expend per invpop.

#
nls
@Estimation
Argomenti:  funzione derivate 
Opzione:    --vcv (mostra la matrice di covarianza)

Esegue una stima con minimi quadrati non-lineari (NLS: Nonlinear Least
Squares) usando una versione modificata dell'algoritmo di
Levenberg-Marquandt. Occorre fornire una specificazione di funzione e
dichiarare i parametri della funzione (usando il comando "genr") prima della
stima. Opzionalmente, è anche possibile specificare le espressioni per le
derivate della funzione rispetto a ognuno dei parametri; in caso contrario,
viene calcolata un'approssimazione numerica del Jacobiano.

È più semplice mostrare il funzionamento con un esempio. Quello che segue è
uno script completo per stimare la funzione di consumo non-lineare
presentata in Econometric Analysis di William Greene (capitolo 11 della
quarta edizione, o capitolo 9 della quinta). I numeri alla sinistra delle
righe sono dei punti di riferimento e non fanno parte dei comandi. Si noti
che l'opzione --vcv per mostrare la matrice di covarianza delle stime dei
parametri, si applica al comando finale end nls.

	1   open greene11_3.gdt
	2   ols C 0 Y
	3   genr alfa = coeff(0)
	4   genr beta = coeff(Y)
	5   genr gamma = 1.0
	6   nls C = alfa + beta * Y^gamma
	7   deriv alfa = 1
	8   deriv beta = Y^gamma
	9   deriv gamma = beta * Y^gamma * log(Y)
	10  end nls --vcv

Spesso è comodo inizializzare i parametri con riferimento a un modello
lineare collegato, come è mostrato nelle righe da 2 a 5. I parametri alfa,
beta e gamma possono essere impostati a qualunque valore iniziale (non
necessariamente sulla base di un modello stimato con OLS), ma la convergenza
della procedura NLS non è garantita per qualunque punto di partenza.

I veri comandi NLS occupano le righe da 6 a 10. Sulla riga 6 viene dato il
comando "nls": viene specificata una variabile dipendente, seguita dal segno
uguale, seguito da una specificazione di funzione. La sintassi per
l'espressione a destra è la stessa usata per il comando "genr". Le tre righe
successive specificano le derivate della funzione di regressione rispetto a
ognuno dei parametri. Ogni riga inizia con il comando "deriv", indica il
nome di un parametro, il segno di uguale e un'espressione che indica come
calcolare la derivata (anche qui la sintassi è la stessa di "genr"). Queste
righe "deriv" sono opzionali, ma si raccomanda di inserirle se possibile. La
riga 10, "end nls", completa il comando ed esegue la stima.

Per ulteriori dettagli sulla stima NLS si veda il manuale di gretl.

Percorso menù: /Modello/Minimi quadrati non lineari

#
noecho
@Obsolete
Comando obsoleto. Si veda "set".

#
nulldata
@Dataset
Argumento:  lunghezza_serie 
Esempio:    nulldata 500

Crea un dataset "vuoto", che contiene solo una costante e una variabile
indice, con periodicità 1 e il numero indicato di osservazioni. Il dataset
può essere usato a scopo di simulazione: alcuni dei comandi "genr" (ad es.
"genr uniform()", "genr normal()") possono essere usati per riempire il
dataset con dati di prova. Questo comando può essere usato insieme a "loop".
Si veda anche l'opzione "seed" del comando "set".

Percorso menù: /File/Crea dataset

#
ols
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --robust (errori standard robusti)
            --quiet (non mostra i risultati)
Esempi:     ols 1 0 2 4 6 7
            ols y 0 x1 x2 x3 --vcv
            ols y 0 x1 x2 x3 --quiet

Calcola le stime minimi quadrati ordinari (OLS: Ordinary Least Squares)
usando la variabile-dipendente e la lista di variabili-indipendenti, che
possono essere specificate per nome o numero. Il termine costante può essere
indicato usando il numero 0.

Oltre alle stime dei coefficienti e gli errori standard, il programma mostra
i p-value per le statistiche t (a due code) e F. Un p-value inferiore a 0.01
indica significatività al livello dell'1 per cento ed è denotato con ***. **
indica invece la significatività tra l'1 e il 5 per cento, mentre * indica
un livello di significatività tra il 5 e il 10 per cento. Vengono mostrate
anche le statistiche di selezione del modello (descritte in Ramanathan,
capitolo 4.3).

È possibile salvare alcune variabili interne generate durante la stima,
usando il comando "genr" subito dopo questo comando.

La formula usata per generare gli errori standard robusti (quando viene
usata l'opzione --robust) può essere modificata con il comando "set".

Percorso menù: /Modello/OLS - Minimi quadrati ordinari
Accesso alternativo: Pulsante Beta-hat sulla barra degli strumenti

#
omit
@Tests
Argumento:  lista-variabili 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --quiet (non mostra le stime per il modello ridotto)
Esempio:    omit 5 7 9

Questo comando deve seguire un comando di stima. Omette le variabili
indicate dal modello precedente e stima il nuovo modello. Se viene omessa
più di una variabile, viene mostrata la statistica F di Wald per le
variabili omesse, insieme al suo p-value (solo per la procedura OLS). Un
p-value inferiore a 0.05 indica che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Se viene usata l'opzione --quiet, i risultati mostrati comprendono solo il
test per la significatività congiunta delle variabili omesse, altrimenti
vengono mostrate anche le stime del moello ridotto. In quest'ultimo caso,
l'opzione --vcv mostra anche la matrice di covarianza dei coefficienti.

Percorso menù: Finestra del modello, /Test/OMIT - Ometti variabili

#
omitfrom
@Tests
Argomenti:  id-modello lista-variabili 
Opzione:    --quiet (non mostra le stime per il modello ridotto)
Esempio:    omitfrom 2 5 7 9

Funziona come "omit", tranne per il fatto che è possibile indicare un
modello precedentemente stimato, attraverso il suo numero identificativo
(che è mostrato all'inizio dei risultati del modello). L'esempio precedente
omette le variabili numero 5, 7 e 9 dal modello 2.

Percorso menù: Finestra del modello, /Test/OMIT - Ometti variabili

#
open
@Dataset
Argumento:  file-dati 

Apre un file di dati. Se è già stato aperto un file di dati, esso viene
sostituito da quello selezionato. Il programma cerca di determinare il
formato del file di dati (gretl, testo semplice, CSV o BOX1).

Questo comando può essere usato anche per aprire un database (gretl o RATS
4.0) per la lettura. In questo caso, dev'essere seguito dal comando "data"
per estrarre una particolare serie dal database.

Percorso menù: /File/Apri dati
Accesso alternativo: Trascinare un file di dati in gretl (MS Windows o Gnome)

#
outfile
@Printing
Argomenti:  file-output opzione 
Opzioni:    --append (aggiunge al file)
            --close (chiude il file)
            --write (sovrascrive il file)
Esempi:     outfile --write regress.txt
            outfile --close

Scrive i risultati sul file-output, fino a nuovo ordine. Usando l'opzione
--append, i risultati vengono aggiunti a un file esistente, mentre --write
apre un nuovo file (o ne sovrascrive uno esistente). Può essere aperto solo
un file alla volta.

L'opzione --close può essere usata per chiudere un file di output aperto in
precedenza, tornando a scrivere i risultati sul canale predefinito.

Nel primo degli esempi precedenti viene aperto il file regress.txt, mentre
nel secondo viene chiuso. Se prima del comando --close fosse eseguito un
comando "ols", i risultati della regressione verrebbero scritti su
regress.txt invece che sullo schermo.

#
panel
@Dataset
Opzioni:    --cross-section (pila di dati cross section)
            --time-series (pila di dati serie storiche)

Richiede che il dataset in uso sia interpretato come un panel (unione di
dati cross section e serie storiche). L'impostazione predefinita corrisponde
all'opzione --time-series e prevede di interpretare il dataset come una pila
di serie storiche (costituita da blocchi successivi di dati che contengono
serie storiche per ogni unità cross section). Usando l'opzione
--cross-section il dataset viene letto come una pila di dati cross-section
(blocchi successivi di dati contengono dati cross section per ognuno dei
periodi temporali). Si veda anche "setobs".

Percorso menù: /Campione/Interpreta come panel

#
pca
@Statistics
Argumento:  lista-variabili 
Opzioni:    --save-all (salva tutte le componenti)
            --save (salva le componenti principali)

Analisi delle componenti principali. Mostra gli autovalori della matrice di
correlazione per le variabili nella lista-variabili, insieme alla
proporzione della varianza comune spiegata da ogni componente. Mostra anche
i corrispondenti autovettori (o "pesi della componente").

Usando l'opzione --save, le componenti con autovalori maggiori di 1.0
vengono salvati nel dataset come variabili, con i nomi PC1, PC2 e così via.
Queste variabili artificiali sono definite come la somma di (peso della
componente) moltiplicato per (Xi standardizzato), dove Xi denota la
variabile i-esima nella lista-variabili.

Usando l'opzione --save-all, vengono salvate tutte le componenti, come
descritto sopra.

Percorso menù: Pop-up nella finestra principale (selezione multipla)

#
pergm
@Statistics
Argumento:  nome-variabile 
Opzione:    --bartlett (usa la finestra di Bartlett)

Calcola e mostra (graficamente se non si è in modalità batch) lo spettro
della variabile specificata. Senza l'opzione --bartlett, viene mostrato il
periodogramma nel campione, usando l'opzione, lo spettro viene stimato
usando una finestra di Bartlett per i ritardi di lunghezza 2*sqrt(T) (dove T
è l'ampiezza del campione); si veda il capitolo 18 di Econometric Analysis
di Greene. Se viene mostrato il periodogramma del campione, viene mostrato
anche il test t per l'integrazione frazionale della serie ("memoria lunga"):
l'ipotesi nulla è che l'ordine di integrazione sia zero.

Percorso menù: /Variabile/Spettro
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
plot
@Graphs
Argumento:  lista-variabili 
Opzione:    --one-scale (forza una scala sola)

Disegna i valori delle variabili indicate per l'intervallo di osservazioni
attuale, usando simboli ASCII. Ogni riga rappresenta un'osservazione e i
valori sono disegnati orizzontalmente. Il comportamento predefinito è di
scalare la variabili in modo appropriato. Si veda anche "gnuplot".

#
pooled
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Stima un modello con OLS (si veda "ols" per i dettagli sulla sintassi) e lo
marca come modello pooled o panel, rendendo disponibile il comando
"hausman".

Percorso menù: /Modello/POOLED - Pooled OLS (panel)

#
print
@Printing
Argomenti:  lista-variabili  o stringa-letterale 
Opzioni:    --byobs (per osservazione)
            --ten (usa 10 cifre significative)
Esempi:     print x1 x2 --byobs
            print "This is a string"

Se viene indicata una lista-variabili, stampa i valori delle variabili
specificate, altrimenti stampa i valori di tutte le variabili nel dataset in
uso. Usando l'opzione --byobs i dati vengono stampati per osservazione,
altrimenti sono stampati per variabile. Usando l'opzione --ten i dati
vengono stampati per variabile con 10 cifre significative.

Se l'argomento di "print" è una stringa letterale (che deve iniziare con le
virgolette doppie "), la stringa viene stampata così come è stata indicata.
Si veda anche "printf".

Percorso menù: /Dati/Mostra valori

#
printf
@Printing
Argomenti:  formato argomenti 

Stampa valori scalari nel formato indicato da una stringa di formato (che
supporta un piccolo sottoinsieme del comando printf() del linguaggio di
programmazione C). I formati riconosciuti sono %g e %f, con i vari
modificatori disponibili in C. Esempi: la stringa %.10g stampa un valore con
10 cifre significative; %12.6f stampa un valore con 6 cifre decimali e una
larghezza di 12 caratteri.

La stringa di formato deve essere racchiusa tra virgolette doppie, i valori
da stampare devono seguire la stringa di formato, separati da virgole. I
valori possono avere due forme: i nomi di variabili nel dataset, oppure
espressioni valide per il comando "genr". L'esempio seguente stampa i valori
di due variabili e quello di un'espressione calcolata:

	ols 1 0 2 3
	genr b = coeff(2)
	genr se_b = stderr(2)
	printf "b = %.8g, standard error %.8g, t = %.4f\n", b, se_b, b/se_b

La lunghezza massima di una stringa di formato è di 127 caratteri. Vengono
riconosciute le sequenze di escape \n (newline), \t (tab), \v (tab
verticale) e \\ (barra inversa). Per stampare un segno di percentuale, si
usi %%.

#
probit
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Stima un modello probit, per variabili dipendenti binarie. Le stime di
massima verosimiglianza dei coefficienti delle variabili-indipendenti sono
ottenute con i minimi quadrati iterati (il metodo EM,
Expectation-Maximization). Poiché il modello è non-lineare, le pendenze
dipendono dai valori delle variabili indipendenti: le pendenze riportate
sono valutate nelle medie di queste variabili. La statistica chi-quadro
testa l'ipotesi nulla che tutti i coefficienti tranne la costante siano pari
a zero.

Il probit per l'analisi delle proporzioni non è ancora stato implementato in
gretl.

Percorso menù: /Modello/Probit

#
pvalue
@Utilities
Argomenti:  distribuzione [ parametri ] valore-x 
Esempi:     pvalue z zscore
            pvalue t 25 3.0
            pvalue X 3 5.6
            pvalue F 4 58 fval
            pvalue G xbar varx x

Calcola l'area alla destra del valore-x nella distribuzione indicata (z per
la Gaussiana, t per la t di Student, X per la chi-quadro, F per la F e G per
la gamma). Per le distribuzioni t e chi-quadro vanno indicati i gradi di
libertà; per la F sono richiesti i gradi di libertà al numeratore e al
denominatore; per la gamma sono richieste la media e la varianza.

Percorso menù: /Utilità/Calcola p-value

#
pwe
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempio:    pwe 1 0 2 4 6 7

Calcola le stime dei parametri usando la procedura Prais-Winsten,
un'implementazione GLS sviluppata per gestire l'autocorrelazione del primo
ordine nel termine di errore. La procedura viene iterata, così come in
"corc"; la differenza è che mentre Cochrane-Orcutt tralascia la prima
osservazione, Prais-Winsten ne fa uso. Per i dettagli, si veda per esempio
il capitolo 13 di Econometric Analysis (2000) di Greene.

Percorso menù: /Modello/Serie storiche/PWE - Prais-Winsten

#
quit
@Utilities
Esce dal programma, dando la possibilità di salvare i risultati della
sessione.

Percorso menù: /File/Esci

#
rename
@Dataset
Argomenti:  numero-var nuovo-nome 

Modifica il nome di una variabile con numero identificativo numero-var in
nuovo-nome. Il numero-var deve essere compreso tra 1 e il numero di
variabili nel dataset. Il nuovo nome deve essere luno al massimo 8
caratteri, deve iniziare con una lettera e deve essere composto di sole
lettere, numeri e il carattere trattino basso.

Percorso menù: /Variabile/Modifica attributi
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
reset
@Tests
Va eseguito dopo la stima di un modello via OLS. Esegue il test RESET di
Ramsey per la specificazione del moello (non-linearità), aggiungendo alla
regressione il quadrato e il cubo dei valori stimati e calcolando la
statistica F per l'ipotesi nulla che i coefficienti dei due termini aggiunti
siano pari a zero.

Percorso menù: Finestra del modello, /Test/RESET - Ramsey

#
rhodiff
@Transformations
Argomenti:  lista-rho ; lista-variabili 
Esempi:     rhodiff .65 ; 2 3 4
            rhodiff r1 r2 ; x1 x2 x3

Crea delle versioni rho-differenziate delle variabili indicate (con numero o
con nome) nella lista-variabili e le aggiunge al dataset, usando il suffisso
# per le nuove variabili. Ad esempio, data la variabile v1 nella
lista-variabili e i valori r1 e r2 nella lista-rho, viene creata v1# = v1(t)
- r1*v1(t-1) - r2*v1(t-2). I valori nella lista-rho possono essere
specificati sotto forma di valori numerici o di nomi di variabili definite
in precedenza.

#
rmplot
@Graphs
Argumento:  nome-variabile 

Grafico Range-mean: questo comando crea un semplice grafico che aiuta a
capire se una serie storica y(t) ha varianza costante o no. L'intero
campione t=1,...,T viene diviso in piccoli sotto-campioni di dimensione
arbitraria k. Il primo sotto-campione è formato da y(1), ... ,y(k), il
secondo da y(k+1), ... , y(2k), e così via. Per ogni sotto-campione, vengono
calcolati la media e il campo di variazione (range: il valore massimo meno
quello minimo) e viene costruito un grafico con le medie sull'asse
orizzontale e i campi di variazione su quello verticale, in modo che ogni
sotto-campione sia rappresentato da un punto sul piano. Se la varianza della
serie è costante, ci si aspetta che il campo di variazione del
sotto-campione sia indipendente dalla media del sotto-campione; se i punti
si dispongono su una linea crescente, la varianza della serie cresce al
crescere della media, viceversa se i punti si dispongono su una linea
decrescente.

Oltre al grafico, gretl mostra anche le medie e i campi di variazione per
ogni sotto-campione, insieme al coefficiente di pendenza della regressione
OLS del campo di variazione sulla media e il p-value per l'ipotesi nulla che
la pendenza sia zero. Se il coefficiente di pendenza è significativo al
livello del 10 per cento, viene mostrata sul grafico la linea stimata della
regressione del campo di variazione sulla media.

Percorso menù: /Variabile/Grafico range-mean

#
run
@Programming
Argumento:  file-input 

Esegue i comandi nel file-input e restituisce il controllo al prompt
interattivo.

Percorso menù: Icona Esegui nella finestra comandi

#
runs
@Tests
Argumento:  nome-variabile 

Esegue il test non parametrico "delle successioni" per la casualità della
variabile specificata. Per testare la casualità delle deviazioni dalla
mediana per una variabile chiamata x1 con una mediana diversa da zero,
eseguire i comandi seguenti:

	genr signx1 = x1 - median(x1)
	runs signx1

Percorso menù: /Variabile/Test delle successioni

#
scatters
@Graphs
Argomenti:  variabile-y ; lista-variabili-x  o lista-variabili-y ; variabile-x 
Esempi:     scatters 1 ; 2 3 4 5
            scatters 1 2 3 4 5 6 ; 7

Produce grafici a dispersione della variabile-y rispetto ad ognuna delle
variabili nella lista-variabili-x, oppure di tutte le variabili nella
lista-variabili-y rispetto alla variabile-x. Il primo esempio visto sopra
assegna la variabile 1 all'asse y e produce quattro grafici, il primo con la
variabile 2 sull'asse x, il secondo con la variabile 3 sull'asse x, e così
via. Il secondo esempio rappresenta ognuna delle variabili da 1 a 6 rispetto
alla variabile 7 sull'asse x. Questi gruppi di grafici sono utili
nell'analisi esplorativa dei dati. È possibile creare fino a sei grafici
alla volta, eventuali variabili in sovrappiù saranno ignorate.

Percorso menù: /Dati/Grafici multipli a dispersione

#
seed
@Obsolete
Comando obsoleto. Si veda "set".

#
set
@Programming
Argomenti:  variabile valore 

Imposta i valori di vari parametri del programma. Il valore impostato rimane
in vigore per la durata della sessione di gretl, a meno di non essere
modificato da un ulteriore esecuzione del comando "set". I parametri che
possono essere impostati in questo modo sono elencati di seguito. Si noti
che le impostazioni di hac_lag e hc_version sono usate quando viene data
l'opzione --robust al comando "ols".

  echo        valori: off o on (valore predefinito). Sopprime o ripristina 
              l'indicazione dei comandi eseguiti nell'output dei risultati.
  qr          valori: on o off (valore predefinito). Usa la decomposizione QR 
              invece di quella di Cholesky nel calcolo delle stime OLS.
  hac_lag     valori: nw1 (valore predefinito) o nw2, o un intero. Imposta il 
              massimo valore di ritardo, p, usato nel calcolo degli errori 
              standard HAC (Heteroskedasticity and Autocorrelation Consistent) 
              con l'approccio Newey-West, per le serie storiche. nw1 e nw2 
              rappresentano due varianti di calcolo automatico basate sulla 
              dimensione del campione, T: per nw1, p = 0.75 * T^(1/3), e per 
              nw2, p = 4 * (T/100)^(2/9). 
  hc_version  valori: 0 (valore predefinito), 1, 2 o 3. Imposta la variante da 
              usare nel calcolo degli errori standard HAC (Heteroskedasticity 
              and Autocorrelation Consistent) con dati di tipo cross section. 
              Le opzioni corrispondono alle HC0, HC1, HC2 e HC3 discusse da 
              Davidson e MacKinnon nel capitolo 5 di Econometric Theory and 
              Methods. HC0 produce quelli che di solito vengono chiamati 
              "errori standard di White".
  garch_vcv   valori: unset, hessian, im (matrice di informazione) , op 
              (matrice dei prodotti esterni), qml (stimatore QML), bw 
              (Bollerslev-Wooldridge). Specifica la variante da usare per 
              stimare la matrice di covarianza dei coefficienti nei modelli 
              GARCH. Se si usa unset (valore predefinito), viene usata 
              l'Hessiana, a meno di usare l'opzione "robust" col comando 
              garch, nel qual caso viene usato QML.
  hp_lambda   valori: auto (valore predefinito), o un valore numerico. Imposta 
              il parametro di livellamento per il filtro di Hodrick-Prescott 
              (si veda la funzione hpfilt sotto il comando "genr"). Il valore 
              predefinito è 100 volte il quadrato della periodicità, ossia 100 
              per i dati annuali, 1600 per i dati trimestrali e così via.

#
setobs
@Dataset
Argomenti:  periodicità oss-iniziale 
Esempi:     setobs 4 1990:1
            setobs 12 1978:03
            setobs 20 1:01

Forza il programma a interpretare il dataset in uso come serie storiche o
panel, invece che come serie semplici non datate. La periodicità deve essere
un valore intero, mentre oss-iniziale è una stringa che rappresenta la data
o il numero identificativo panel della prima osservazione. Si veda anche
"panel".

Percorso menù: Campione/Imposta frequenza e inizio

#
setmiss
@Dataset
Argomenti:  valore [ lista-variabili ] 
Esempi:     setmiss -1
            setmiss 100 x2

Imposta il programma in modo da interpretare un dato valore numerico (il
primo parametro indicato al comando) come codice per i "valori mancanti" nei
dati importati. Se questo valore è l'unico parametro fornito, come nel primo
degli esempi precedenti, l'interpretazione verrà applicata a tutte le serie
del dataset. Se "valore" è seguito da una lista di variabili, indicate per
nome o numero, l'interpretazione è limitata solo alle variabili specificate.
Così, nel secondo esempio, il valore 100 è interpretato come codice per
"mancante", ma solo per la variabile x2.

Percorso menù: /Campione/Imposta codice valori mancanti

#
shell
@Utilities
Argumento:  comando-shell 
Esempi:     ! ls -al
            ! notepad

Un "!" all'inizio di una riga di comando è interpretato come passaggio
all'interprete di comandi (shell) dell'utente sul sistema operativo in uso.
In questo modo è possibile eseguire comandi shell arbitrari dall'interno di
gretl.

#
sim
@Dataset
Argomenti:  [ oss-iniziale oss-finale ] variabile a0 a1 a2 ... 
Esempi:     sim 1979.2 1983.1 y 0 0.9
            sim 15 25 y 10 0.8 x

Simula valori per la variabile nell'intervallo del campione in uso, o per
l'intervallo che va da oss-iniziale a oss-finale, se vengono dati questi
parametri opzionali. La variabile y deve essere stata definita in precedenza
con valori iniziali appropriati. La formula usata è

  y(t) = a0(t) + a1(t)*y(t-1) + a2(t)*y(t-2) + ...

I termini ai(t) possono essere costanti numeriche o nomi di variabili
definite in precedenza e possono essere preceduti dal segno meno.

L'uso di questo comando è sconsigliato. Si consiglia di usare "genr".

#
smpl
@Dataset
Forme alternative: smpl oss-iniziale oss-finale
                  smpl +i -j
                  smpl variabile-dummy --dummy
                  smpl condizione --restrict
                  smpl --no-missing [ lista-variabili ]
                  smpl full
Esempi:     smpl 3 10
            smpl 1960:2 1982:4
            smpl +1 -1
            smpl x > 3000 --restrict

Reimposta l'intervallo del campione. Il nuovo intervallo può essere definito
in vari modi. Nel primo modo (corrispondente ai primi due esempi precedenti)
oss-iniziale e oss-finale devono essere coerenti con la periodicità dei
dati. Una delle due può essere sostituita da un punto e virgola per lasciare
intatto il valore attuale. Nel secondo modo, gli interi i e j (che possono
essere positivi o negativi e vanno indicati con il segno) sono presi come
spostamenti relativi ai punti iniziale e finale del campione in uso. Nel
terzo modo, variabile-dummy deve essere una variabile indicatrice che assume
solo valori 0 o 1 e il campione verrà ristretto alle osservazioni per cui la
variabile dummy vale 1. Il quarto modo, che usa --restrict, limita il
campione alle osservazioni che soddisfano la condizione Booleana specificata
secondo la sintassi del comando "genr".

Con la forma --no-missing, se viene specificata una lista-variabili, vengono
scartate le osservazioni per cui almeno una delle variabili nella
lista-variabili ha un valore mancante, altrimenti vengono scartate le
osservazioni per cui una qualsiasi variabile ha un valore mancante.

La forma finale, smpl full, ripristina l'intervallo completo del campione.

La variabile interna obs può essere usata con la forma --restrict di smpl
per escludere particolari osservazioni dal campione. Ad esempio, smpl obs!=4
--restrict scarterà la quarta osservazione. Se le osservazioni sono
identificate da etichette, smpl obs!="USA" --restrict scarterà
l'osservazione a cui è associata l'etichetta "USA".

Per le forme --dummy, --restrict e --no-missing di smpl, occore tenere
presente che tutte le informazioni "strutturali" contenute nel file dei dati
(a proposito della struttura di serie storiche o di panel dei dati) vengono
perse. È possibile reimpostare la struttura originale con il comando
"setobs".

Percorso menù: /Campione

#
spearman
@Statistics
Argomenti:  x y 
Opzione:    --verbose (mostra i dati ordinati)

Mostra il coefficiente di correlazione di rango di Spearman per le variabili
x e y. Le variabili non devono essere state ordinate manualmente in
precedenza, se ne occupa la funzione.

L'ordinamento automatico è dal massimo al minimo (ossia il valore massimo
nei dati assume il rango 1). Se occorre invertire l'ordinamento, creare una
variabile che è il negativo della variabile originale, ad esempio:

	genr altx = -x
	spearman altx y

Percorso menù: /Modello/SPEARMAN - Correlazione di rango

#
square
@Transformations
Argumento:  lista-variabili 
Opzione:    --cross (genera anche i prodotti incrociati, oltre ai quadrati)

Genera nuove variabili che sono i quadrati delle variabili nella
lista-variabili (con anche i prodotti incrociati, se si usa l'opzione
--cross). Ad esempio, "square x y" genera sq_x = x al quadrato, sq_y = y al
quadrato e (opzionalmente) x_y = x per y. Se una particolare variabile è una
dummy, non ne viene fatto il quadrato, visto che si otterrebbe la stessa
variabile.

Percorso menù: /Dati/Aggiungi variabili/Quadrati delle variabili selezionate

#
store
@Dataset
Argomenti:  file-dati [ lista-variabili ] 
Opzioni:    --csv (usa il formato CSV)
            --gnu-octave (usa il formato GNU Octave)
            --gnu-R (usa il formato GNU R)
            --traditional (usa il formato tradizionale ESL)
            --gzipped (comprime con gzip)

Salva l'intero dataset, o un sottoinsieme delle variabili se è stata
indicata una lista-variabili, nel file indicato con file-dati.

L'impostazione predefinita è di salvare i dati nel formato "interno" di
gretl, ma le opzioni del comando permettono di usare formati alternativi. I
dati CSV (Comma-Separated Values, dati separati da virgole) possono essere
letti dai programmi di foglio elettronico e possono essere modificati con un
editor di testi. I formati Octave e R sono destinati ad essere usati con i
rispettivi programmi. La compressione con gzip può essere utile per grandi
dataset. Si veda il manuale di gretl per i dettagli sui vari formati.

Si noti che le variabili scalari non saranno salvate automaticamente: per
salvarli occorre includerli esplicitamente nella lista-variabili.

Percorso menù: /File/Salva dati; /File/Esporta dati

#
summary
@Statistics
Argumento:  [ lista-variabili ] 

Mostra le statistiche descrittive per le variabili nella lista-variabili, o
per tutte le variabili nel dataset, se non si indica una lista-variabili.
L'output comprende media, deviazione standard, coefficiente di variazione (=
deviazione standard / media), mediana, minimo, massimo, coefficiente di
asimmetria, curtosi.

Percorso menù: /Dati/Statistiche descrittive
Accesso alternativo: Menù pop-up nella finestra principale

#
system
@Estimation
Argomenti:  tipo salva-variabili 
Esempi:     system type=sur
            system type=sur save=resids
            system type=3sls save=resids,fitted

Crea un sistema di equazioni. Al momento sono supportati due sistemi: "sur"
(Seemingly Unrelated Regressions: regressioni apparentemente non collegate)
e "3sls" (Three-Stage Least Squares: minimi quadrati a tre stadi). Nel campo
opzionale "save=" del comando è possibile specificare se salvare i residui
("resids") e/o i valori stimati ("fitted"). Il sistema deve contenere almeno
due equazioni specificate con il comando "equation" e deve essere chiuso con
la riga "end system".

#
tabprint
@Printing
Argumento:  [ -f nomefile ] 
Opzione:    --complete (crea un documento completo)

Va eseguito dopo la stima di un modello. Stampa il modello stimato sotto
forma di tabella LaTeX. Se viene specificato un nome di file dopo l'opzione
-f, l'output viene scritto nel file, altrimenti viene scritto in un file col
nome model_N.tex, dove N è il numero dei modelli stimati finora nella
sessione in corso. Si veda anche "eqnprint".

Usando l'opzione --complete, il file LaTeX è un documento completo, pronto
per essere processato; altrimenti il file va incluso in un documento.

Percorso menù: Finestra del modello, /LaTeX

#
testuhat
@Tests
Deve seguire un comando di stima. Mostra la distribuzione di frequenza dei
residui del modello, insieme a un test chi-quadro per la normalità, basato
sulla procedura suggerita da Doornik e Hansen (1984).

Percorso menù: Finestra del modello, /Test/Normalità dei residui

#
tobit
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --verbose (mostra i dettagli delle iterazioni)

Stima un modello Tobit. Il modello può essere appropriato quando la
variabile dipendente è "troncata". Ad esempio, vengono osservati valori
positivi o nulli della spesa dei consumatori per beni durevoli, ma non
valori negativi; tuttavia le decisioni di spesa possono essere pensate come
derivanti da una propensione al consumo, sottostante e non osservata, che
può anche essere negativa in alcuni casi. Per i dettagli si veda il capitolo
20 di Econometric Analysis di Greene.

Percorso menù: /Modello/Tobit

#
tsls
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti ; strumenti 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --robust (errori standard robusti)
Esempio:    tsls y1 0 y2 y3 x1 x2 ; 0 x1 x2 x3 x4 x5 x6

Calcola le stime minimi quadrati a due stadi (TSLS o IV), date la
variabile-dipendente e la lista di variabili-indipendenti (incluse le
variabili esogene) nell'equazione strutturale per cui sono richieste le
stime TSLS; strumenti è la lista completa delle variabili esogene e
predeterminate in tutte le equazioni. Se la lista degli instruments non è
lunga almeno quanto quella delle variabili-indipendenti, il modello non è
identificato.

Nell'esempio precedente, le y sono le variabili endogene e le x sono le
variabili esogene e predeterminate.

Percorso menù: /Modello/TSLS - Minimi quadrati a due stadi

#
var
@Estimation
Argomenti:  ordine lista-variabili ; lista-deterministica 
Opzione:    --quiet (non mostrare risposte-impulsi ecc.)
Esempio:    var 4 x1 x2 x3 ; const time

Imposta e stima (usando OLS) un'autoregressione vettoriale (VAR). Il primo
argomento specifica l'ordine di ritardo, quindi segue l'impostazione della
prima equazione. Non includere i ritardi tra gli elementi della
lista-variabili -- verranno aggiunti automaticamente. Il punto e virgola
separa le variabili stocastiche, per cui verrà incluso un numero di ritardi
pari a ordine, dai termini deterministici presenti nella
lista-deterministica, come la costante, un trend temporale o variabili
dummy.

gretl è in grado di riconoscere le più comuni variabili deterministiche
(costante, trend temporale, variabili dummy con valori 0 o 1), quindi queste
non devono necessariamente essere elencate dopo il punto e virgola.
Variabili deterministiche più complesse (ad es. un trend temporale
moltiplicato per una variabile dummy) devono invece essere indicate
esplicitamente.

Viene calcolata una regressione separata per ognuna delle variabili nella
lista-variabili. Il risultato di ogni equazione include i test F per i
vincoli di uguaglianza a zero su tutti i ritardi delle variabili; un test
F-test per la significatività del ritardo massimo; la scomposizione della
varianza della previsione e le funzioni di impulso-risposta.

Le decomposizioni della varianza e le funzioni di impulso-risposta sono
basate sulla decomposizione di Cholesky della matrice di covarianza
contemporanea, e in questo contesto l'ordine in cui vengono date le
variabili stocastiche conta. La prima variabile nella lista viene
considerata come la "più esogena" all'interno del periodo.

Percorso menù: /Modello/Serie storiche/VAR - Autoregressione vettoriale

#
varlist
@Dataset
Mostra un elenco delle variabili disponibili. "list" e "ls" sono sinonimi.

#
vartest
@Tests
Argomenti:  var1 var2 

Calcola la statistica F per l'ipotesi nulla che le varianze della
popolazione per le variabili var1 e var2 siano uguali e mostra il p-value.

Percorso menù: /Dati/Differenza delle varianze

#
wls
@Estimation
Argomenti:  variabile-pesi variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Calcola stime con minimi quadrati ponderati usando variabile-pesi come pesi.
In pratica viene calcolata una regressione OLS di variabile-pesi *
variabile-dipendente rispetto a variabile-pesi * variabili-indipendenti. Se
la variabile-pesi è una variabile dummy, la procedura equivale a eliminare
tutte le osservazioni per cui variabile-pesi vale zero.

Percorso menù: /Modello/WLS - Minimi quadrati ponderati

