10/2/2021

Estadística paramétrica

Se conoce como estadística paramétrica a las pruebas que se basan en el muestreo de una población con parámetros específicos.

Las pruebas paramétricas tienen supuestos (requisitos) con respecto a la naturaleza o forma de las poblaciones implicadas, por ejemplo:

  • Distribución conocida (normal, exponencial, etc.)

  • Homocedasticidad

  • Tamaño de la muestra

Para los procedimientos paramétricos se requiere como mínimo una variable con nivel de medición intervalar.

Estadística paramétrica

Las ventajas de las pruebas paramétricas son:

  • Sensibles a rasgos de los datos recolectados

  • Estimaciones probabilísticas más exactas

  • Tienen una mayor eficiencia estadística

  • Mayor poder estadístico

Estadística paramétrica

Las desventajas de las purebas paramétricas son:

  • Más complicadas de calcular

  • Solo se pueden aplicar si se cumplen sus supuestos

Estadística no paramétrica

Las no paramétricas no requieren que las muestras tengan una distrtibución conocida (por ejemplo, la distribución normal) por lo que también se les conoce como pruebas de distribución libre.

Aunque el término no paramétrico suguiere que no se basan en un parámetro, existen pruebas no paramétricas que sí dependen de un parámetro, por ejemplo, la mediana.

Estadística no paramétrica

Las ventajas de las pruebas no paramétricas son:

  • Se pueden aplicar a una amplia variedad de situaciones

  • Se pueden utilizar variables de nivel de medición nominal

  • Son más fáciles de calcular

Estadística no paramétrica

Las desventajas de las pruebas no paramétricas son:

  • Su eficiencia estadísitca es menor

  • Su poder estadístico es menor

  • Desperdician información

Pruebas estadísticas

Prueba t de Student

Es un estadístico para comparar la media de una muestra (\(\bar{x}\)) con la de la población (\(\mu\)) sin necesidad de conocer su dispersión (\(\sigma\)) desarrollado por William Sealy Gosset, mejor conocido por su pseudónimo Student.

La fórmula es similar a la de la prueba z (\(z = {\bar{x}-\mu \over \sigma}\)) pero al no conocer la desviación estándar se utiliza la estimación del error muestral (\({s \over \sqrt{n}}\)).

\[t = {\bar{x}-\mu \over {s \over \sqrt{n}}}\]

Esta prueba tiene variantes para comparar la media de dos poblaciones o de dos muestras ya sean independientes o relacionadas.

Prueba t de Student (Supuestos)

Para utilizar la t de Student es necesario que se cumplan los siguientes supuestos:

  • La muestra es aleatoria

  • Se desconoce la \(\sigma\)

  • Los datos tienen una distribución normal o \(n \geq 30\)

  • Los errores tienen una distribución normal

  • Cuando se comparan dos distribuciones las varianzas son iguales (\(\sigma_1=\sigma_2\))

Prueba t de Student y la distribución normal

La prueba se considera robusta con respecto a la violación del supuesto de normalidad, mientras más grande sea la muestra esta propiedad es más confiable.

Prueba t de Student y la homocedasticidad

Las pruebas que se conocen genéricamente como prueba t de Student son, en realidad, varias pruebas y la única desarrollada por Gosset es aquella en que las varianzas de las poblaciones pueden asumirse como iguales (\(\sigma_1=\sigma_2\)).

Para otros casos se utiliza la Prueba de Welch:

\[t = {\bar{x_1}-\bar{x_2} \over \sqrt{{s^2_1 \over n_1} + {s^2_2 \over n_2}}}\]

Prueba t de Student Ejemplo

Para el control de calidad de para un paquete de M&M® que tiene un peso neto de 397 g. Si el paquete incluye 456 piezas el peso medio de cada dulce es de \(397/456= 0.871\).

Se tiene una muestra de 30 dulces con una media de \(\bar{x} =\) 0.8608 y una desviación estándar de \(s =\) 0.0565. Para probar que la media de peso de los M&M® en la muestra es igual a la media teórica de 0.871 g podemos determinar la hipótesis como \(H_0: \bar{x} = \mu\), la hipótesis alterna sería \(H_i: \bar{x} \neq \mu\).

Entonces tenemos que:

\[t = {\bar{x}-\mu \over {s \over \sqrt{n}}} = {0.8608-0.871 \over {0.0565 \over \sqrt{30}}}\]

Prueba t de Student Ejemplo (cont.)

Obteniendo el resultado:

    One Sample t-test

data:  x
t = -0.98996, df = 29, p-value = 0.3304
alternative hypothesis: true mean is not equal to 0.871
95 percent confidence interval:
 0.8396866 0.8818870
sample estimates:
mean of x 
0.8607868 

Prueba de rangos de Wilcoxon

Esta es la opción no paramétrica para la prueba t de Student cuando los errores no se distribuyen de manera normal y se tiene una muestra o dos muestras apareadas. El estadístico de esta prueba (\(W\)) se calcula obteniendo las diferencias de los valores, ordenando de menor a mayor el valor absouto de las diferencias las diferencias y asignando un rango, en caso de empates se obtiene la media de los rangos y se asigna el mismo rango a las dos observaciones, por ejemplo, si en el rango 3 y 4 se tiene el mismo valor se asigna el rango \({3+4 \over 2} = 3.5\) a las dos observaciones.

Una vez asignados los rangos se les pone el signo de la diferencia original, la suma de los rangos con signo constituye el valor de \(W\).

\[W = \Sigma R_i\]

Prueba de rangos de Wilcoxon (ejemplo)

Retomando los M&M® este sería el procedimiento:

          x           dif      dif_abs rangos rango_s
1 0.8709470 -5.302645e-05 5.302645e-05      1      -1
2 0.8698753 -1.124676e-03 1.124676e-03      2      -2
3 0.8723343  1.334292e-03 1.334292e-03      3       3
4 0.8675613 -3.438717e-03 3.438717e-03      4      -4
5 0.8842253  1.322528e-02 1.322528e-02      5       5
6 0.8865844  1.558444e-02 1.558444e-02      6       6

Prueba de rangos de Wilcoxon (cont. ejemplo)

El resultado de la prueba para la muestra de M&M® probando las mismas hipótesis es :

    Wilcoxon signed rank test

data:  x
V = 180, p-value = 0.2894
alternative hypothesis: true location is not equal to 0.871

Comparación pruebas t y W

Comparando los valores \(p\) de la prueba t (0.3303836) y la prueba W (0.2893662) se puede observar que la prueba W es más conservadora en la prueba de hipótesis.

Prueba para dos muestras U de Mann-Whitney

Es muy similarl a la W de Wilcoxon, pero es adecuada únicamente para muestras independientes y no admite medidas repetidas y es equivalente a la prueba de Kruskall-Wallis cuando únicamente hay dos grupos.

La prueba de Mann-Whitney es una prueba de medias que las hipótesis \(H_0: A = B\) y \(H_i: A \neq B\). Los resultados generalmente se expresan como “los valores del grupo A son significativamente diferentes de aquellos del grupo B”.

Prueba para dos muestras U de Mann-Whitney (cont.)

Para calcular el estadístico U se asigna por separado a cada una de las dos muestras su rango para construir:

\[U_1 = n_1n_2 + {n_1(n_1-1) \over 2} - R_1\] \[U_2 = n_1n_2 + {n_2(n_2-1) \over 2} - R_2\]

Prueba para dos muestras U de Mann-Whitney (ejemplo)

Un investigador utiliza dos métodos para enseñar a leer a un grupo de 10 niños de 6 años, quienes ingresan por primera vez a la escuela. El investigador quiere demostrar que el procedimiento propuesto es más efectivo que el tradicional y, para ello, mide el desempeño en la lectura en función de la fluidez, comprensión, análisis y síntesis.

Tradicional Tradicional Tradicional Tradicional Tradicional       Nuevo 
         80          85          25          70          90          95 
      Nuevo       Nuevo       Nuevo       Nuevo 
        100          93         110          45 

Prueba para dos muestras U de Mann-Whitney (cont. ejemplo)

El resultado de la prueba es:

        U Mann-Whitney test
data: calificacion by metodo
 U = 21, p-value = 0.09524
alternative hypotesis: true location shift is not equal to 0

Análisis de varianza (ANOVA)

El análisis de varianza nos permite evaluar el efecto de k variables independientes y su interacción en un experimento,a pesar de su nombre, el anova es una prueba que permite detectar diferencias entre las medias de los grupos. En el anova las variables independientes se denominan factores.

Cuando existe una única variable independiente se denomina anova de un factor (one way anova, en inglés) y cuando son dos o más se denomina como anova factorial.

ANOVA (cont.)

El estadístico utilizado en el anova se llama F y refleja el parecido entre las medias que se están comparando tomando en cuenta la variabilidad de las medias de cada grupo (varianza entre grupos) y la variabilidad dentro de cada grupo (varianza intragrupo).

\[F = {\sigma^2_b \over \sigma^2_w} = {{\Sigma(\hat{x_i} - \hat{x_G})^2 \over k - 1} \over {SC_1+SC_2+...+SC_k \over N - k}} = {{SC_b \over k-1} \over {SC_w \over gl_w}}\]

Supuestos del ANOVA

  • Una variable con nivel de medición intervalar o de razón

  • Un factor con tres o más grupos

  • Misma varianza dentro de cada grupo (homocedasticidad)

  • Muestra aleatoria o asignación aleatoria a los grupos

  • Observaciones independientes dentro de los grupos

  • Distribución normal dentro de los grupos

  • Misma cantidad de observaciones por grupo

ANOVA (ejemplo)

En un grupo de estadística con 15 estudiantes que se agrupan de acuerdo a su nivel de habilidad en el uso de la computadora, se intenta determinar si esta habilidad se relaciona con su desempeño en un examen de estadística.

 Descriptive statistics by group 
group: Baja
   vars n mean   sd median trimmed  mad min max range skew kurtosis   se
X1    1 5  7.9 0.74      8     7.9 0.74   7   9     2 0.26    -1.58 0.33
------------------------------------------------------------ 
group: Media
   vars n mean   sd median trimmed  mad min max range  skew kurtosis   se
X1    1 5  8.2 0.76    8.5     8.2 0.74   7   9     2 -0.54    -1.49 0.34
------------------------------------------------------------ 
group: Alta
   vars n mean   sd median trimmed  mad min max range skew kurtosis   se
X1    1 5  8.9 0.74      9     8.9 0.74   8  10     2 0.26    -1.58 0.33

ANOVA (cont. ejemplo)

Existen diferentes métodos para comprobar los supuestos del anova, una forma intuitiva de hacerlo es mediante un diagrama de cajas.

ANOVA (cont. ejemplo)

Para probar la homocedasticidad se utiliza la prueba de Barlett:

    Bartlett test of homogeneity of variances

data:  calificacion by Grupo
Bartlett's K-squared = 0.0023827, df = 2, p-value = 0.9988

ANOVA (cont. ejemplo)

El resultado del anova es:

            Df Sum Sq Mean Sq F value Pr(>F)
Grupo        2  2.633  1.3167   2.358  0.137
Residuals   12  6.700  0.5583               

ANOVA (ejemplo 2)

En un experimento se probaron tres tratamientos nutricionales en los cuales se calculó la ingesta de sodio diaria (ml). El experimento intenta conocer si existen diferencias en la ingesta diaria de sodio de acuerdo al tratamiento seguido.

    Tratamiento  n    mean      sd  min      Q1 median      Q3  max
1 Tratamiento A 20 1287.50 193.734  950 1150.00 1300.0 1400.00 1700
2 Tratamiento B 20 1246.25 142.412 1000 1143.75 1212.5 1350.00 1525
3 Tratamiento C 20 1123.75 143.149  900 1006.25 1112.5 1231.25 1400

El resultado del anova para este estudio es:

            Df  Sum Sq Mean Sq F value  Pr(>F)   
Tratamiento  2  290146  145073   5.558 0.00624 **
Residuals   57 1487812   26102                   
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

De acuerdo con los resultados podemos concluir que al menos uno de los tratamientos implica un consumo de sodio diferente a los demás tratamientos. Para conocer cuál o cuáles son diferentes es necesario realizar una prueba pos hoc.

La prueba Tukey se usa en experimentos que implican un número elevado de comparaciones. Es de fácil cálculo puesto que se define un solo comparador, resultante del producto del error estándar de la media por el valor tabular en la tabla de Tukey usando como numerador el número de tratamientos y como denominador los grados de libertad del error. Se conoce como Tukey-Kramer cuando las muestras no tienen el mismo número de datos.

  • Dado que el análisis de varianza acuse un efecto significativo, la prueba de Tukey provee un nivel de significancia global de α cuando los tamaños de las muestras son iguales y de α a lo sumo a cuando no son iguales.

  • Se basa en la construcción de intervalos de confianza de las diferencias por pares. Si estos intervalos incluyen al 0, entonces no se rechaza la hipótesis nula.

El resultado de la prueba de Tukey para estos datos es:

  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = Sodio ~ Tratamiento, data = Data)

$Tratamiento
                               diff       lwr         upr     p adj
Tratamiento B-Tratamiento A  -41.25 -164.1941  81.6941219 0.7000083
Tratamiento C-Tratamiento A -163.75 -286.6941 -40.8058781 0.0061739
Tratamiento C-Tratamiento B -122.50 -245.4441   0.4441219 0.0510271

Anova factorial

   Suplemento   Tratamiento n mean      sd  min   Q1 median   Q3  max
1           A Tratamiento A 5 1260 191.703  950 1200   1350 1400 1400
2           B Tratamiento A 5 1340 132.994 1150 1300   1325 1425 1500
3           C Tratamiento A 5 1220 238.747  950 1150   1150 1250 1600
4           D Tratamiento A 5 1330 233.452 1050 1300   1300 1300 1700
5           A Tratamiento B 5 1160  82.158 1050 1100   1200 1200 1250
6           B Tratamiento B 5 1360 100.933 1250 1325   1350 1350 1525
7           C Tratamiento B 5 1175 148.955 1000 1125   1125 1225 1400
8           D Tratamiento B 5 1290 151.658 1150 1200   1200 1400 1500
9           A Tratamiento C 5 1040 108.397  900  950   1100 1100 1150
10          B Tratamiento C 5 1240  62.750 1150 1225   1250 1250 1325
11          C Tratamiento C 5 1045 116.458  925  950   1025 1125 1200
12          D Tratamiento C 5 1170 178.885  950 1100   1100 1300 1400

El resultados para el ANOVA factorial es:

Anova Table (Type II tests)

Response: Sodio
                        Sum Sq Df F value   Pr(>F)   
Tratamiento             290146  2  6.0173 0.004658 **
Suplemento              306125  3  4.2324 0.009841 **
Tratamiento:Suplemento   24438  6  0.1689 0.983880   
Residuals              1157250 48                    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

La prueba pos hoc se hace para cada factor y para las interacciones.

                               diff       lwr        upr       p adj
Tratamiento B-Tratamiento A  -41.25 -160.0009  77.500882 0.680171911
Tratamiento C-Tratamiento A -163.75 -282.5009 -44.999118 0.004623153
Tratamiento C-Tratamiento B -122.50 -241.2509  -3.749118 0.041833703

           diff         lwr       upr      p adj
B-A  160.000000    9.107386 310.89261 0.03381797
C-A   -6.666667 -157.559281 144.22595 0.99941028
D-A  110.000000  -40.892614 260.89261 0.22527442
C-B -166.666667 -317.559281 -15.77405 0.02511750
D-B  -50.000000 -200.892614 100.89261 0.81421760
D-C  116.666667  -34.225948 267.55928 0.18176844

                                diff        lwr       upr      p adj
Tratamiento B:A-Tratamiento A:A -100 -437.20133 237.20133 0.99648792
Tratamiento C:A-Tratamiento A:A -220 -557.20133 117.20133 0.53042894
Tratamiento A:B-Tratamiento A:A   80 -257.20133 417.20133 0.99953021
Tratamiento B:B-Tratamiento A:A  100 -237.20133 437.20133 0.99648792
Tratamiento C:B-Tratamiento A:A  -20 -357.20133 317.20133 1.00000000
Tratamiento A:C-Tratamiento A:A  -40 -377.20133 297.20133 0.99999957
Tratamiento B:C-Tratamiento A:A  -85 -422.20133 252.20133 0.99917453
Tratamiento C:C-Tratamiento A:A -215 -552.20133 122.20133 0.56481573
Tratamiento A:D-Tratamiento A:A   70 -267.20133 407.20133 0.99986918
Tratamiento B:D-Tratamiento A:A   30 -307.20133 367.20133 0.99999998
Tratamiento C:D-Tratamiento A:A  -90 -427.20133 247.20133 0.99861097
Tratamiento C:A-Tratamiento B:A -120 -457.20133 217.20133 0.98442868
Tratamiento A:B-Tratamiento B:A  180 -157.20133 517.20133 0.79199422
Tratamiento B:B-Tratamiento B:A  200 -137.20133 537.20133 0.66725376
Tratamiento C:B-Tratamiento B:A   80 -257.20133 417.20133 0.99953021
Tratamiento A:C-Tratamiento B:A   60 -277.20133 397.20133 0.99997161
Tratamiento B:C-Tratamiento B:A   15 -322.20133 352.20133 1.00000000
Tratamiento C:C-Tratamiento B:A -115 -452.20133 222.20133 0.98883724
Tratamiento A:D-Tratamiento B:A  170 -167.20133 507.20133 0.84482714
Tratamiento B:D-Tratamiento B:A  130 -207.20133 467.20133 0.97166849
Tratamiento C:D-Tratamiento B:A   10 -327.20133 347.20133 1.00000000
Tratamiento A:B-Tratamiento C:A  300  -37.20133 637.20133 0.12426891
Tratamiento B:B-Tratamiento C:A  320  -17.20133 657.20133 0.07734285
Tratamiento C:B-Tratamiento C:A  200 -137.20133 537.20133 0.66725376
Tratamiento A:C-Tratamiento C:A  180 -157.20133 517.20133 0.79199422
Tratamiento B:C-Tratamiento C:A  135 -202.20133 472.20133 0.96292710
Tratamiento C:C-Tratamiento C:A    5 -332.20133 342.20133 1.00000000
Tratamiento A:D-Tratamiento C:A  290  -47.20133 627.20133 0.15523148
Tratamiento B:D-Tratamiento C:A  250  -87.20133 587.20133 0.33810239
Tratamiento C:D-Tratamiento C:A  130 -207.20133 467.20133 0.97166849
Tratamiento B:B-Tratamiento A:B   20 -317.20133 357.20133 1.00000000
Tratamiento C:B-Tratamiento A:B -100 -437.20133 237.20133 0.99648792
Tratamiento A:C-Tratamiento A:B -120 -457.20133 217.20133 0.98442868
Tratamiento B:C-Tratamiento A:B -165 -502.20133 172.20133 0.86821266
Tratamiento C:C-Tratamiento A:B -295 -632.20133  42.20133 0.13906793
Tratamiento A:D-Tratamiento A:B  -10 -347.20133 327.20133 1.00000000
Tratamiento B:D-Tratamiento A:B  -50 -387.20133 287.20133 0.99999559
Tratamiento C:D-Tratamiento A:B -170 -507.20133 167.20133 0.84482714
Tratamiento C:B-Tratamiento B:B -120 -457.20133 217.20133 0.98442868
Tratamiento A:C-Tratamiento B:B -140 -477.20133 197.20133 0.95237095
Tratamiento B:C-Tratamiento B:B -185 -522.20133 152.20133 0.76286619
Tratamiento C:C-Tratamiento B:B -315 -652.20133  22.20133 0.08738088
Tratamiento A:D-Tratamiento B:B  -30 -367.20133 307.20133 0.99999998
Tratamiento B:D-Tratamiento B:B  -70 -407.20133 267.20133 0.99986918
Tratamiento C:D-Tratamiento B:B -190 -527.20133 147.20133 0.73220331
Tratamiento A:C-Tratamiento C:B  -20 -357.20133 317.20133 1.00000000
Tratamiento B:C-Tratamiento C:B  -65 -402.20133 272.20133 0.99993686
Tratamiento C:C-Tratamiento C:B -195 -532.20133 142.20133 0.70024579
Tratamiento A:D-Tratamiento C:B   90 -247.20133 427.20133 0.99861097
Tratamiento B:D-Tratamiento C:B   50 -287.20133 387.20133 0.99999559
Tratamiento C:D-Tratamiento C:B  -70 -407.20133 267.20133 0.99986918
Tratamiento B:C-Tratamiento A:C  -45 -382.20133 292.20133 0.99999853
Tratamiento C:C-Tratamiento A:C -175 -512.20133 162.20133 0.81937432
Tratamiento A:D-Tratamiento A:C  110 -227.20133 447.20133 0.99219397
Tratamiento B:D-Tratamiento A:C   70 -267.20133 407.20133 0.99986918
Tratamiento C:D-Tratamiento A:C  -50 -387.20133 287.20133 0.99999559
Tratamiento C:C-Tratamiento B:C -130 -467.20133 207.20133 0.97166849
Tratamiento A:D-Tratamiento B:C  155 -182.20133 492.20133 0.90844194
Tratamiento B:D-Tratamiento B:C  115 -222.20133 452.20133 0.98883724
Tratamiento C:D-Tratamiento B:C   -5 -342.20133 332.20133 1.00000000
Tratamiento A:D-Tratamiento C:C  285  -52.20133 622.20133 0.17281780
Tratamiento B:D-Tratamiento C:C  245  -92.20133 582.20133 0.36755468
Tratamiento C:D-Tratamiento C:C  125 -212.20133 462.20133 0.97877180
Tratamiento B:D-Tratamiento A:D  -40 -377.20133 297.20133 0.99999957
Tratamiento C:D-Tratamiento A:D -160 -497.20133 177.20133 0.88943437
Tratamiento C:D-Tratamiento B:D -120 -457.20133 217.20133 0.98442868

Prueba de rangos de Kruskal-Wallis

Es similar a la prueba U de Mann-Whitney pero pueden compararse más de dos grupos.

Esta prueba tiene supuestos sobre la distrubución de los datos ni hace hipótesis sobre las medianas de los grupos. Se centra en probar si existe la probabilidad de que la observación en un grupo sea mayor a una observación en otro grupo. Generalmente, esto establece si una muestra tiene una dominancia estocástica con respecto de otra.

La prueba de Kruskal- Wallis supone que las observaciones son independientes, por lo tanto, no es una prueba adecuada para datos apareados o medidas repetidas.

Las hipótesis de esta prueba se plantean en términos de \(H_0 =\) Los grupos son muestreados de poblaciones con distribuciones idénticas y \(H_i =\) Los grupos son muestreados de poblaciones con diferente distrubución.

Ejemplo Kruskal-Wallis

Se realizó un experimento para comparar tres tipos de terapia en la atención de pacientes con aracnofobia. Después de cada intervención se realizó un test con escala tipo Likert de cinco puntos que indica la intensidad del miedo a las arañas.

  Tratamiento  n mean    sd min Q1 median   Q3 max
1        Beck 10  2.3 0.823   1  2      2 2.75   4
2  Conductual 10  4.0 0.667   3  4      4 4.00   5
3     Gestalt 10  4.2 0.632   3  4      4 4.75   5

El resultado del análisis mediante la prueba de Kruskal-Wallis es:

    Kruskal-Wallis rank sum test

data:  Likert by Tratamiento
Kruskal-Wallis chi-squared = 16.842, df = 2, p-value = 0.0002202

Este resultado indica que al menos uno de los tratamientos presenta resutlados diferentes a los demás. Para tener certeza de cuáles son diferentes es necesario realizar una prueba pos hoc. Para la prueba de Kruskal-Wallis la prueba pos hoc más utilizada es la prueba de Dunn para la comparación de múltiples grupos.

            Comparison          Z      P.unadj        P.adj
1    Beck - Conductual -3.2889338 0.0010056766 0.0015085149
2       Beck - Gestalt -3.7702412 0.0001630898 0.0004892695
3 Conductual - Gestalt -0.4813074 0.6302980448 0.6302980448

Correlación

La correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores de la otra.

La expresión matemática de una correlación adquiere valores desde -1 hasta +1 y se denomina coeficiente de correlación. Los valores positivos cercanos al +1 indican una correlación alta positiva, lo que implica que a valores altos en una medida, también serán altos en la otra.

Las correlaciones con valores iguales o cercanos a cero indican que no hay relación entre las mediciones que se están comparando.

Cuando los valores de una correlación se aproximan a -1, indican que la asociación es negativa, es decir, que los valores de una variable son inversamente proporcionales a los de la otra.

Correlación de Pearson

Es básicamente una covarianza estandarizada (Guardìa, 2006).

\[r_{xy} = {\Sigma(x_i-\hat{x})(y_i-\hat{y}) \over \sqrt{\Sigma[(x_i-\hat{x})^2+(y_i-\hat{y})^2]}}\]

Los supuestos para la correlación de Pearson son:

  • La distribución conjunta de las variables x y y debe ser normal bivariada

  • Debe existir una relación de tipo lineal entre las variables

  • Las distribuciones de cada variable deben ser constantes (homocedasticidad)

Correlación de Pearson (Ejemplo)

Se puede analizar visualmente la relación entre las variables.

La matriz para la correlación de pearson es la siguiente:

                Grado       Peso   Calorias      Sodio Puntuacion
Grado       1.0000000  0.8537015  0.8480573  0.7855545 -0.7032118
Peso        0.8537015  1.0000000  0.9945259  0.8654492 -0.4840410
Calorias    0.8480573  0.9945259  1.0000000  0.8489548 -0.4846330
Sodio       0.7855545  0.8654492  0.8489548  1.0000000 -0.4497510
Puntuacion -0.7032118 -0.4840410 -0.4846330 -0.4497510  1.0000000

Los intervalos de confianza para esta correlación son:

                 lower          r      upper            p
Grado-Peso   0.7474784  0.8537015  0.9173551 9.191090e-14
Grado-Calrs  0.7383147  0.8480573  0.9140528 1.954611e-13
Grado-Sodio  0.6394753  0.7855545  0.8768893 1.652476e-10
Grado-Pntcn -0.8262036 -0.7032118 -0.5162379 7.179472e-08
Peso-Calrs   0.9899997  0.9945259  0.9970066 8.039912e-44
Peso-Sodio   0.7666822  0.8654492  0.9242004 1.718549e-14
Peso-Pntcn  -0.6808396 -0.4840410 -0.2220576 7.546753e-04
Calrs-Sodio  0.7397691  0.8489548  0.9145785 1.737185e-13
Calrs-Pntcn -0.6812542 -0.4846330 -0.2227927 7.418414e-04
Sodio-Pntcn -0.6566022 -0.4497510 -0.1799772 1.937869e-03

Se pueden presentar los datos de forma visual integrando la grafica de dispersión de puntos, el histograma y el coeficiente de correlación.

Nunca está demás revisar la distribución de los residuos para comprobar si se comportan de forma normal.

Correlación de Kendall

Es una prueba no paramética con base en rangos que no hace supuestos sobre la distribución de los datos y que es relativamente robusta contra los datos extremos.

Las variables pueden tener un nivel de medición ordinal, intervalar o de razón.

El coeficiente de la correlación de Kendall es \(\tau\), adquiere valores entre \(\pm 1\). Existen dos variantes \(\tau_a\) y \(\tau_b\) la segunda opción permite un mejor tratamiento de los empates.

                Grado       Peso   Calorias      Sodio Puntuacion
Grado       1.0000000  0.7185583  0.6982957  0.6455104 -0.5383806
Peso        0.7185583  1.0000000  0.9712783  0.6710259 -0.3309011
Calorias    0.6982957  0.9712783  1.0000000  0.6490902 -0.3343934
Sodio       0.6455104  0.6710259  0.6490902  1.0000000 -0.3189505
Puntuacion -0.5383806 -0.3309011 -0.3343934 -0.3189505  1.0000000

Los intervalos de confianza para la correlación de Kendall:

                 lower          r       upper            p
Grado-Peso   0.5386337  0.7185583  0.83580353 2.725652e-08
Grado-Calrs  0.5091173  0.6982957  0.82311323 9.667171e-08
Grado-Sodio  0.4342596  0.6455104  0.78945835 1.686891e-06
Grado-Pntcn -0.7183859 -0.5383806 -0.29080318 1.362744e-04
Peso-Calrs   0.9480309  0.9712783  0.98421066 1.920306e-28
Peso-Sodio   0.4700839  0.6710259  0.80583537 4.549381e-07
Peso-Pntcn  -0.5691528 -0.3309011 -0.04138711 2.640189e-02
Calrs-Sodio  0.4392458  0.6490902  0.79176849 1.413926e-06
Calrs-Pntcn -0.5718017 -0.3343934 -0.04530665 2.476032e-02
Sodio-Pntcn -0.5600509 -0.3189505 -0.02804192 3.272017e-02

Correlación de Spearman

Es una prueba no paramética con base en rangos que no hace supuestos sobre la distribución de los datos y también es relativamente robusta contra los datos extremos.

Las variables pueden tener un nivel de medición ordinal, intervalar o de razón, aunque generalmente se utiliza con datos ordinales.

Su coeficiente es \(\rho\) y toma valores entre \(\pm 1\). La correlación de Spearman evalúa la relación monotónica entre variables.

                Grado       Peso   Calorias      Sodio Puntuacion
Grado       1.0000000  0.8565401  0.8536290  0.8102305 -0.6785188
Peso        0.8565401  1.0000000  0.9964692  0.8279986 -0.4789339
Calorias    0.8536290  0.9964692  1.0000000  0.8201766 -0.4842002
Sodio       0.8102305  0.8279986  0.8201766  1.0000000 -0.4811287
Puntuacion -0.6785188 -0.4789339 -0.4842002 -0.4811287  1.0000000

Los intervalos de confianza para Spearman:

                 lower          r      upper            p
Grado-Peso   0.7521025  0.8565401  0.9190126 6.213615e-14
Grado-Calrs  0.7473606  0.8536290  0.9173127 9.282353e-14
Grado-Sodio  0.6779284  0.8102305  0.8916930 1.557042e-11
Grado-Pntcn -0.8106057 -0.6785188 -0.4807313 3.021309e-07
Peso-Calrs   0.9935445  0.9964692  0.9980701 6.593999e-48
Peso-Sodio   0.7060725  0.8279986  0.9022456 2.273777e-12
Peso-Pntcn  -0.6772568 -0.4789339 -0.2157277 8.739292e-04
Calrs-Sodio  0.6936351  0.8201766  0.8976110 5.442852e-12
Calrs-Pntcn -0.6809511 -0.4842002 -0.2222553 7.512044e-04
Sodio-Pntcn -0.6787976 -0.4811287 -0.2184453 8.207576e-04

Regresión lineal

La regresión lineal es otro método estadístico utilizado para conocer la asociación entre variables. En este análisis se valora la contribución de la variable independiente (\(x\)) sobre la variable dependiente (\(y\)), esto permite hacer predicciones sobre el valor de \(y\) para cualquier valor dado de \(x\).

La regresión lineal al igual que otros modelos estadísticos requiere que se cumplan ciertas condiciones para su aplicación.

  1. Linealidad. La ecuación de la regresión adopta la forma de una recta conjuntando los valores observados en la variable independiente el origen de la recta y los residuos. Si los datos no se comportan linealmente podemos hablar de un problema de especificación.

  2. Independencia. Los residuos deben ser independientes, es decir, no debe existir un patrón en los residuos.

  3. Homocedasticidad. Para cada valor de la variable independiente la varianza de los residuos es constante.

  4. Normalidad. Para cada valor de la variable independiente los residuos se distribuyen de forma normal.

La regresión simple brinda una medida de qué tanto se parecen los datos observados a una línea recta representada por la ecuación:

\[y_i = \beta_0 + \beta_1X_i + \epsilon\]

\(x\) es una variable independiente que en el modelo de regresión lineal se conoce como regresor; \(\beta_0\) representa el intercepto, el punto donde la línea corta el eje vertical; \(\beta_1\) representa la pendiente, entendida como el cambio en \(y\) por cada unidad en \(x\); y \(\epsilon\) es el error.

Cuando existe más de un regresor la regresión linear se expande a un modelo de regresión múltiple.

Existen diferentes métodos para determinar la recta de la regresión, el más utilizado es el método de mínimos cuadrados en el cual se elevan al cuadrado las diferencias entre los valores observados \(y\) y los valores predichos por la regresión \(y'\) (Figura 10) como se muestra en la siguiente ecuación:

\[\Sigma(y-y')^2\]

Además del intercepto y la pendiente, el modelo de regresión cacula el coeficiente de determinación (\(R^2\)) que indica la cantidad de variación en la variable dependiente que se explica por los cambios en la variable independiente. Mientras mayor es la proporción de la varianza de Y explicada por el modelo, mayor será el coeficiente de determinación. El rango de \(R^2\) puede variar entre 0, que indica un nulo ajuste, hasta 1, que señala un ajuste perfecto.

Siempre existe la posibilidad de encontrar una línea de ajuste para un conjunto de datos, no obstante, esto no quiere decir que sea la mejor opción para explicar esos datos.

El estadístico \(F\) del ANOVA permite contrastar la \(H_0\) en que el valor de \(R^2\) es cero, cuando el nivel crítico es menor al nivel de significancia establecido, se rechaza \(H_0\).

Regresión lineal (Ejercicio)

Tomando los datos de ingesta de sodio y como regresor las calorías consumidas tenemos el modelo \(y = \beta_0 + \beta_1Calorias_i\).

El resultados para este modelo es:

Call:
lm(formula = Sodio ~ Calorias, data = Data)

Residuals:
    Min      1Q  Median      3Q     Max 
-83.263 -26.263  -0.486  29.973  64.714 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) 519.07547   78.78211   6.589 5.09e-08 ***
Calorias      0.35909    0.03409  10.534 1.74e-13 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 38.89 on 43 degrees of freedom
Multiple R-squared:  0.7207,    Adjusted R-squared:  0.7142 
F-statistic:   111 on 1 and 43 DF,  p-value: 1.737e-13

Gráficamente esta es la representación del modelo:

Revisión de supuestos para el modelo de regresión lineal.

Regresión no paramétrica

Existen diferentes técnicas no paramétricas para la regresión:

  • Kendall-Theil

  • Regresión de cuantiles

  • Regresión local

  • Modelos generalizados

Regresión múltiple

La regresión múltiple incluye más de un regresor, idealmente, de nivel de medición intervalar o de razón.

Un caso de regresión múltiple es la regresión polinomial, en la que se integran variables dummy que son exponenciales del regresor original.

\[y = \beta_0 + \beta_1x_i + \beta_1x_i^2 + \beta_1x_i^3 + \beta_1x_i^4\]

  Rank Df.res   AIC  AICc   BIC R.squared Adj.R.sq   p.value Shapiro.W
1    2     43 461.1 461.7 466.5    0.7207   0.7142 1.737e-13    0.9696
2    3     42 431.4 432.4 438.6    0.8621   0.8556 8.487e-19    0.9791
3    4     41 433.2 434.7 442.2    0.8627   0.8526 1.025e-17    0.9749
4    5     40 428.5 430.8 439.4    0.8815   0.8696 5.566e-18    0.9625
  Shapiro.p
1    0.2800
2    0.5839
3    0.4288
4    0.1518

El mejor modelo arroja los siguientes datos:

Call:
lm(formula = Sodio ~ Calorias + Calorias2, data = Data)

Residuals:
    Min      1Q  Median      3Q     Max 
-50.653 -24.877   1.797  16.445  61.350 

Coefficients:
              Estimate Std. Error t value Pr(>|t|)    
(Intercept) -3.707e+03  6.463e+02  -5.736 9.53e-07 ***
Calorias     4.034e+00  5.604e-01   7.198 7.58e-09 ***
Calorias2   -7.946e-04  1.211e-04  -6.563 6.14e-08 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 27.65 on 42 degrees of freedom
Multiple R-squared:  0.8621,    Adjusted R-squared:  0.8556 
F-statistic: 131.3 on 2 and 42 DF,  p-value: < 2.2e-16

Prueba Ji cuadrada (\(\chi^2\))

Es una medida de la discrepancia existente entre las frecuencias observadas y las esperadas.

\[\chi^2 = \sum{(f_o-f_e)^2 \over fe}\]

Prueba de homogeneidad con \(\chi^2\)

Si lanzamos una moneda teóricamente tenemos 50% de probabilidades de que caiga sol y 50% de que caiga águila. Después de 300 intentos obtenemos 135 soles y 165 águilas (Tabla 3). ¿Es una buena moneda para echar volados?

Núm. Lanzamientos Sol Águila
300 135 (150) 165 (150)

    Pearson's Chi-squared test with Yates' continuity correction

data:  C
X-squared = 1.3099, df = 1, p-value = 0.2524

Prueba de independencia \(\chi^2\)

La \(\chi^2\) se utiliza para estimar si dos variables categóricas son independientes o están relacionadas.

Un tratamiento para dejar de fumar se implementó en 110 fumadores compulsivos. Un número igual de pacientes en lista de espera participaron como grupo control. Se intenta conocer si existen diferencias estadísticamente significativas entre el consumo de cigarrillos después del tratamiento.

Grupo Cambio conducta Sin cambio conducta Total
Grupo tratamiento 92 18 110
Grupo control 68 42 110
Total 160 60 220

Para verificar H0 calculamos la proporción de pacientes con cambio de conducta y la proporción de pacientes sin cambio.

\[P_{cambio} = {CC \over N} = {160 \over 220} = 0.73\]

\[P_{no cambio} = {SC \over N} = {60 \over 220} = 0.27\]

Para conocer las frecuencias esperadas para cada celda utilizamos:

\[f_e = P_{cambio}*n_{Tx} = {160 \over 220}*110 = 80\] \[f_e = P_{no cambio}*n_{Tx} = {60 \over 220}*110 = 30\] \[f_e = P_{cambio}*n_{control} = {160 \over 220}*110 = 80\] \[f_e = P_{nocambio}*n_{control} = {60 \over 220}*110 = 30\]

El resultado de la prueba de independencia es:

    Pearson's Chi-squared test

data:  td
X-squared = 13.2, df = 1, p-value = 0.0002799

Prueba de bondad de ajuste

Se utiliza la prueba \(\chi^2\) para determinar la calidad del ajuste mediante distribuciones teóricas (como la distribución normal o la binomial) de distribuciones empíricas. Para poblaciones grandes se utiliza la corrección de Yates:

\[\chi^2 = \sum {(|f_o-f_e|-0.5)^2 \over f_e}\]

Pensemos en la distribución de probabilidad de un dado que se lanza 150 veces, ¿es un dado balanceado? o ¿está cargado?

    Chi-squared test for given probabilities

data:  freq
X-squared = 6.72, df = 5, p-value = 0.2423

Medidas de asociación para tabulaciones

Existe un gran número de estadísticos para obtener coeficientes de correlación para tablas de contingencia.

Varios de ellos se basan en la \(\chi^2\) o tienen relación con la correlación de Pearson.

Es equivalente a la correlación de Pearson cuando se aplica a dos variables dicotómicas. Para tablas 2X2 tiene una distribución \(-1<\phi<1\) de otra forma \(0<\phi<min(R-1,C-1)\).

Nombre Coeficientes Fórmula Tipo de Variables
Coeficiente de correlación de Mathews \(\phi\) \(\phi=\sqrt{\chi^2 \over n}\) 2 nominales

Asume que existe una relación lineal entre las variables y sigue la distribución de \(\chi^2\).

Nombre Coeficientes Fórmula Tipo de Variables
\(\chi^2\) de Mantel-Haenszel \(\chi^2_{MH}\) \(\chi^2_{MH}=(n-1)r^2\) 2 ordinales

Cuando se aplica a una tabla de 2X2 tiene una distribución de \(-1<V<1\) en otros casos \(0<V<1\).

Nombre Coeficientes Fórmula Tipo de Variables
V de Cramer \(V\) \(V=\phi \ , V = \sqrt{{\chi^2 \over n} \over min(R-1,C-1)}\) 2 dicotómicas

Es una opción cuando no se cumple con las condiciones para utilizar la \(\chi^2\).

Nombre Coeficientes Fórmula Tipo de Variables
Prueba exacta de Fisher \(P\) \(P=\sum_Ap\) 2 dicotómicas

También se basa en la \(\chi^2\) y tiene un rango de \(0<P<\sqrt{min(R-1,C-1) \over min(R,C)}\)

Nombre Coeficientes Fórmula Tipo de Variables
Coeficiente de contingencia \(P\) \(P=\sqrt{\chi2 \over \chi^2+n}\) 2 nominales

Análisis multivariado

El análisis multivariado se refiere a aquellas situaciones en las que se obtienen muchas observaciones o variables de cada uno de los individuos.

Muchos fenómenos no pueden ser entendidos sin analizar un conjunto de variables a la vez, desentramar las interrelaciones entre múltiples mediciones de un individuo para poder hacer inferencias es lo que da valor al análisis multivariado.

En el análisis multivariado hay una clasificación que divide los estudios en exploratorios y confirmatorios.

La diferencia reside en si las hipótesis han sido establecidas apriori y se mantienen intactas o no.

Los análisis multivariados más utilizados son:

  • componentes principales

  • análisis factorial

  • análisis de conglomerados (cluster analysis)

  • Análisis discriminante

  • Correlación canónica

  • Manova