Test statistico chi quadro
Contenuto
Chi-quadro di Pearson
La statistica del chi-quadrato, che ha una distribuzione di probabilità con lo stesso nome, è usata per testare ipotesi riguardanti distribuzioni di frequenza. In termini generali, questo test contrasta le frequenze osservate con le frequenze attese secondo l’ipotesi nulla. Questo articolo descrive l’uso della statistica del chi-quadrato per testare l’associazione tra due variabili usando una situazione ipotetica e dati simulati. Descrive poi il suo uso per valutare quanto buona possa essere una distribuzione teorica quando pretende di rappresentare la distribuzione reale dei dati di un dato campione. Questo si chiama valutazione della bontà dell’adattamento. Testare la bontà dell’adattamento significa vedere quanto bene i dati osservati si adattano a una distribuzione teorica o attesa. Per questo, si utilizza una seconda situazione ipotetica e dei dati simulati.
L’analisi del chi quadrato, con la distribuzione di probabilità che va sotto lo stesso nome, è usata per testare le ipotesi riferite alla distribuzione di frequenza. Questo test contrasta le frequenze osservate con le frequenze attese secondo l’ipotesi zero. L’articolo descrive l’uso dell’analisi del chi quadro per testare l’associazione tra due variabili usando una situazione ipotetica e dati simulati. Poi, descrive il suo uso nel valutare quanto bene può risultare una distribuzione teorica quando tenta di rappresentare la reale distribuzione dei dati all’interno di un dato campione. Questo si chiama ottenere la bontà dell’adattamento. La stima della bontà dell’adattamento aiuta a vedere fino a che punto i dati osservati sono adeguati a una distribuzione teorica o attesa. Per questo, viene utilizzata una seconda situazione ipotetica con dati simulati.
Esempi di test chi-quadro
Questo test può essere applicato solo a studi basati su campioni indipendenti e quando tutti i valori attesi sono maggiori di 5. Come indicato sopra, i valori attesi sono quelli che indicano l’indipendenza assoluta tra le due variabili.
Il risultato di questo confronto viene confrontato con la distribuzione Chi-quadro, nel caso della tabella 2*2, al grado di libertà 1, per cui se Χ2 è maggiore di 6,63 (corrispondente a un alfa = 0,01), o di 3,84 (corrispondente a un alfa = 0,05), la deviazione dalle cifre che avrebbero indicato l’indipendenza è considerata significativa, cioè le variabili non sono indipendenti, o, in altre parole, sono correlate.
Interpretazione del chi-quadro
Il test del chi-quadro è un metodo di verifica delle ipotesi. Due test chi-quadro comuni consistono nel verificare se le frequenze osservate di una o più categorie sono conformi alle frequenze attese.
Se avete una singola variabile di misura, usate un test di bontà dell’adattamento chi-quadrato. Se avete due variabili di misura, usate il test del chi-quadrato di indipendenza. Ci sono altri test chi-quadro, ma questi due sono i più comuni.
Il test del chi-quadro è usato per testare le ipotesi sul fatto che certi dati siano come ci si aspetta. L’idea chiave del test è quella di confrontare i valori osservati nei dati con i valori attesi che avremmo se l’ipotesi nulla fosse vera.
Ci sono due test chi-quadrati che sono comunemente usati: il test di bontà dell’adattamento chi-quadrato e il test di indipendenza chi-quadrato. Entrambi i test coinvolgono variabili che dividono i dati in categorie. Pertanto, può essere fonte di confusione decidere quale test utilizzare. La tabella seguente confronta i due test.
Formula del chi-quadro
In statistica e statistica applicata, qualsiasi test in cui la statistica utilizzata segue una distribuzione χ² se l’ipotesi nulla è vera è chiamato un test χ² (pronunciato come “chi-squared”[1] e talvolta come “chi-squared”). Esempi di test χ² sono:
Nel XIX secolo, i metodi di analisi statistica erano principalmente applicati nell’analisi dei dati biologici ed era comune per i ricercatori assumere che le osservazioni seguissero una distribuzione normale, come Sir George Airy e Mansfield Merriman, il cui lavoro fu criticato da Karl Pearson nel suo articolo del 1900.[2] Alla fine del XIX secolo, il lavoro di Pearson fu criticato da Karl Pearson nel suo articolo del 1900.
Alla fine del XIX secolo, Pearson si rese conto di una significativa asimmetria in alcune osservazioni biologiche. Per modellare le osservazioni indipendentemente dal fatto che fossero normali o asimmetriche, Pearson, in una serie di articoli pubblicati tra il 1893 e il 1916,[3][4][5][6] sviluppò la distribuzione di Pearson, una famiglia di distribuzioni continue di probabilità, che comprende la distribuzione normale e numerose distribuzioni asimmetriche, e propose un metodo di analisi statistica che consisteva nell’utilizzare la distribuzione di Pearson per modellare le osservazioni e nell’eseguire test di bontà dell’adattamento per determinare quanto bene un modello si adatti alle osservazioni.