0% encontró este documento útil (0 votos)
375 vistas105 páginas

Análisis de Varianza de un Solo Factor

Este documento describe el análisis de varianza (ANOVA) para probar la igualdad de varias medias en experimentos con un solo factor. Explica el modelo estadístico lineal, las hipótesis nulas e alternativas, y cómo se descompone la suma de cuadrados total en componentes atribuibles al tratamiento y al error para realizar la prueba F. También cubre temas como la estimación de parámetros, intervalos de confianza, datos no balanceados y la verificación de supuestos como la normalidad de los residuales.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
375 vistas105 páginas

Análisis de Varianza de un Solo Factor

Este documento describe el análisis de varianza (ANOVA) para probar la igualdad de varias medias en experimentos con un solo factor. Explica el modelo estadístico lineal, las hipótesis nulas e alternativas, y cómo se descompone la suma de cuadrados total en componentes atribuibles al tratamiento y al error para realizar la prueba F. También cubre temas como la estimación de parámetros, intervalos de confianza, datos no balanceados y la verificación de supuestos como la normalidad de los residuales.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 105

EXPERIMENTOS CON UN SOLO

FACTOR: EL ANÁLISIS DE
VARIANZA

Cap. 3
El procedimiento correcto para probar la igualdad de varias medias es el análisis de
varianza. Es la técnica más útil en el Campo de la inferencia estadística.
Modelo para los datos

Es útil describir las observaciones mediante el modelo estadístico lineal


Modelo de medias

Modelo de efectos
ANÁLISIS DEL MODELO CON EFECTOS FIJOS
El interés se encuentra en probar la igualdad de las media “a” medias de los tratamientos.

Las hipótesis son:

En el modelo de los efectos, la media µi del tratamiento i-ésimo se descompone en dos


componentes tales que:

Por lo general, µ se considera como una media global, de σ𝑎𝑖=1 𝜇𝑖


tal modo que: =𝜇
𝑎

Esta definición implica: ෍ 𝜏𝑖 = 0


𝑖=1
Es decir, los efectos del tratamiento o factor pueden considerarse como desviaciones de
la media global. Una forma de escribir las hipótesis anteriores es en término de los
efectos de los tratamientos τi

El procedimiento apropiado para probar la igualdad de las


medias, es el análisis de varianza.
DESCOMPOSICIÓN DE LA SUMA DE CUADRADOS TOTAL

El nombre análisis de varianza se deriva de la partición


de variabilidad total en sus partes componentes. La
suma de cuadrados total corregida:
2

Se usa como una medida de la variabilidad global de los datos


Si se combinan las “a” varianzas muestrales se obtiene una sola estimación de la
varianza poblacional

Esta relación es una estimación combinada de la varianza común dentro de cada uno
de los “a” tratamientos.
La identidad del análisis de varianza proporciona dos estimaciones de σ2

Una basada en la variabilidad Una basada en la variabilidad entre


inherente dentro de los tratamientos
tratamientos
Si no hay diferencias en las medias similares, y si no lo son, se sospecha
que la diferencia observada puede ser causada por diferencias en las
medias de los tratamientos

Cuadrados medios
Teorema de Cochran

Entonces, Q1, Q2, Q3, ….Qs son VA ji cuadrada independientes


con v1, v2….vs GL, respectivamente, si y solo si:
Puesto que los grados de libertad de SS tratamientos y SSE suman N-1, el número total
de grados de libertad, el teorema de Cochran implica que SS tratamientos/ σ2 y SSe / σ2
son VA Chi cuadrada, con una distribución independiente.
Por lo tanto, si la Ho de que no hay diferencias en las medias de los tratamientos es
verdadera, el coeficiente:
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 /(𝑎 − 1) 𝑀𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 Y de distribuye como F con a-1
𝐹𝑜 = =
𝑆𝑆𝐸 /(𝑁 − 𝑎) 𝑀𝑆𝐸 y N-a GL.

𝐹0 > 𝐹𝛼,𝑎−1,𝑁−𝑎 Se rechaza Ho


Es posible obtener fórmulas para calcular estas sumas de cuadrados simplificadas.

La suma de cuadrados del error se obtiene por sustracción como:


ESTIMACIÓN DE LOS PARÁMETROS DEL MODELO

Es necesario desarrollar estimadores para los parámetros del modelo de clasificación,


partiendo de:

Luego de desarrollar el método de mínimos cuadrados, derivar y simplificar se obtiene


un sistema de ecuaciones lineales, cuya solución es:
Intervalo de confianza, para estimar la media del iésimo tratamiento, cuya media es:

Un intervalo de confianza para (1-α)100% para bel iésimo tratamiento podría ser:

De la misma manera para un diferencia de medias (𝜇𝑖 − 𝜇𝑗 )


En una fábrica de camisas, se necesitan hacer pruebas de la resistencia a la tensión del
hilado, por la experiencia del gerente de planta se sabe que el porcentaje de algodón
afecta a la misma.
El porcentaje de algodón puede estar en el rango de 20 y 40% para que el producto
tenga otros aspectos de calidad.
El Ingeniero, decide hacer pruebas con el peso porcentual del algodón de, 15,20, 25, 30
y 35%, también decide probar 5 ejemplares en cada nivel del contenido de algodón. Con
α=5%
Datos de la resistencia a la tensión (Lb/pulg.2)
% Algodón 1 2 3 4 5
15 7 7 15 11 9
20 12 17 12 18 18
25 14 18 18 19 19
30 19 25 22 19 23
35 7 10 11 15 11
% Algodón 1 2 3 4 5Totales Yi Promedios
15 7 7 15 11 9 49 9,8
20 12 17 12 18 18 77 15,4
25 14 18 18 19 19 88 17,6
30 19 25 22 19 23 108 21,6
35 7 10 11 15 11 54 10,8
Y.. 376 75,2
15,04
= (7) 2 + (7) 2+ (15) 2……+(15) 2+ (11)2 – (376)2/25 = 636,96

={[(49) 2 + (77) 2+ (88) 2+(108) 2+ (54)2 ] / 5}– [(376)2/25]

= 475, 76

= 636,96 – 475, 76 = 161,20

𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 /(𝑎 − 1) 𝑀𝑆𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 118,94


𝐹𝑜 = = 𝐹𝑜 = = 14,76
𝑆𝑆𝐸 /(𝑁 − 𝑎) 𝑀𝑆𝐸 8,06
Media global: = 376/25 = 15,04

= 9,80 – 15,04=
9,8 15,04 -5,24
15,4 15,04 0,36
17,6 15,04 2,56
21,6 15,04 6,56
10,8 15,04 -4,24
Intervalo de confianza a un 95%

A un intervalo de confianza de 95% para la media del tratamiento 4 (30% de algodón)


sería:

8,06 8,06
26,6 − 2,086 ≤ 𝜇4 ≤ 21,60 + 2,086
5 5

21,6 − 2,65 ≤ 𝜇4 ≤ 21,60 + 2,65

18,95 ≤ 𝜇4 ≤ 24,25
DATOS NO BALANCEADOS

Hay dos ventajas al elegir


un diseño equilibrado:
Sea que se hagan ni observaciones bajo el tratamiento i(i=1,2,3,……,a) y que

Las fórmulas para calcular manualmente SSt y SS tratamientos quedan como:

No se requieren más cambios


EJERCICIO

Se están investigando 4 catalizadores que pueden afectar la concentración de un


componente en una mezcla líquida de 3 componentes. So obtienen las siguientes
concentraciones

a) ¿Tienen los 4 catalizadores el mismo efecto sobre la concentración?


b) Analizar los residuales de este experimento
c) Construir la estimación de un intervalo de confianza de 99% para la respuesta media
del catalizador
VERIFICACIÓN DE LA ADECUACIÓN DEL MODELO

El uso de la partición para probar formalmente que no hay diferencias en las medias
de los tratamientos requiere que se satisfagan ciertos supuestos.

Específicamente, estos supuestos son que el modelo describe de manera adecuada


las observaciones y que los errores siguen una DN e independiente con media 0 y
varianza constante pero desconocida.
Las violaciones de los supuestos básicos y la adecuación del modelo pueden
investigarse con facilidad mediante el examen de los residuales.

El residual de la observación j-ejésima en el tratamiento i-ésimo se define como:

𝑒𝑖𝑗 = 𝑦𝑖𝑗 − 𝑦ො𝑖𝑗 𝑦ො𝑖𝑗 = una estimación de la observación y correspondiente


ij

𝑦ො𝑖𝑗 = 𝜇Ƹ + 𝜏Ƹ 𝑖 = 𝑦ത𝑖
El examen de los residuales deberá ser una parte automática de cualquier análisis de
varianza. Si el modelo es el adecuado, los residuales deberán estar sin estructura, es
decir, no deberán contener patrones obvios.
i) SUPUESTO DE NORMALIDAD
La verificación del supuesto de normalidad
podría hacerse graficando un histograma de
los residuales. Si se satisface el supuesto
NID(0,σ2 ) para los errores, esta gráfica deberá
aparecer como una muestra de una DN con
centro 0.

Pero con muestras pequeñas, suelen ocurrir fluctuaciones significativas.

Las desviaciones marcadas de la normalidad son potencialmente serias y requieren


análisis adicional.
Si la distribución fundamental de los errores es normal, esta gráfica tendrá la apariencia
de una línea recta.

Para visualizar la línea recta deberá presentarse más atención a los valores centrales de la
gráfica que a los valores de los extremos.
Un procedimiento en extremos útil es construir una gráfica
de probabilidad normal de los residuales

Los residuales se calculan:


La tendencia de la grafica de probabilidad normal a curvarse hacia abajo ligeramente
del lado izquierdo, implica que la cola izquierda de la distribución de los errores sea
un tanto más delgada de lo que se anticiparía con una distribución normal, es decir,
los residuales negativos no son tan grandes (en valor absoluto) como se esperaba.

Una distribución que de los errores que tiene colas considerablemente más
gruesas o delgadas que la distribución normal es motivo de mayor preocupación
que una distribución sesgada. Puesto que la prueba F solo se afecta ligeramente,
se dice que el análisis de varianza (y los procedimientos relacionados como las
correlaciones múltiples) es robusto con respecto al supuesto de normalidad.
Una anomalía muy común que suele ponerse de manifiesto en las gráficas de
probabilidad normal es un residual que es mucho más grande que cualquier otro.
Puntos atípicos
La presencia de uno o más puntos atípicos puede introducir serias distorsiones en el
análisis de la varianza, por lo que cuando se localiza un pto. Atípico potencial, se
requiere una investigación atenta.
𝑒𝑖𝑗
Se puede realizar una verificación aproximada de los puntos 𝑑𝑖𝑗 =
𝑀𝑆𝐸
atípicos examinando los residuales estandarizados

Un residual mayor que 3 o 4 desviaciones estándar a partir de cero es un punto atípico


potencial
II) GRÁFICA DE LOS RESIDUALES EN SECUENCIAS EN EL TIEMPO

Esta es muy útil para detectar correlaciones entre los residuales.

Una tendencia a tener corridas de residuales positivos y negativos indica una correlación
positiva.

Esto implicaría que el supuesto de independencia de los errores a sido violado. Se trata
de un problema potencialmente serio y cuya solución es difícil, por lo que de ser
posible es importante evitar el problema cuando se colecten los datos. Por esto es muy
importante la aleatorización.
III) GRÁFICA DE LOS RESIDUALES CONTRA LOS VALORES AJUSTADOS

Si el modelo es correcto y se satisfacen los supuestos, los residuales deberán estar sin
estructura, en particular, no deberán estar relacionados con ninguna otra variable,
incluyendo la respuesta predica. Una verificación simple es graficar los residuales contra
los valores ajustados 𝑌෢
𝑖𝑗 .

Para un solo factor 𝑦ො𝑖𝑗 = 𝑦ഥ𝑖 . No deberá presentar ningún patrón obvio

Uno de los defectos que a veces reluce con este método es una varianza no constante.

La gráfica tendría forma


Varianza se Yij, se hace de embudo o de
incrementa más grande megáfono con la boca
hacia afuera
Si se viola el supuesto de homogeneidad de las varianzas, la prueba F sólo se vera
afectada ligeramente en el modelo balanceado, pero tendrá mayores efectos en un
diseño no balanceado o en casos en que una de las varianzas es considerablemente mas
grande que las demás, el problema es más grave.

Si los niveles del factor que tienen las varianzas mayores corresponden también con los
tamaños de las muestras más pequeños, el índice de error tipo I real es mayor que lo
previsto. Recíprocamente, si los niveles del factor con las varianzas mayores tienen
también los tamaños de las muestras mayores, los niveles de significación son mucho
menores que lo anticipado.

Es mejor escoger tamaños de las muestras iguales siempre que sea posible
Gráfica de los residuales contra los valores ajustados
Gráfica de los residuales vs. Los niveles
Pruebas estadísticas para igualdad de varianza
Aún cuando es frecuente el uso de las gráficas residuales para diagnosticar la desigualdad
de varianzas, se han propuesto también varias pruebas estadísticas.
Estas pruebas pueden considerarse como pruebas formales de las hipótesis

Un procedimiento muy útil es la prueba de Barlett.


La igualdad de varianza se conoce como homocedasticidad

Donde:

Si2 es la varianza muestral de la


población i-ésima
La cantidad “q” es grande cuando la diferencia entre las varianzas muestrales Si2 es
considerablemente grande , y es igual a cero cuando todas las Si2 son iguales.

Ho deberá rechazarse para los valores de Xo2 que sean muy grandes, es decir, se rechaza
Ho sólo cuando:

La prueba de Barlett es muy sensible al supuesto de normalidad. Por consiguiente,


cuando la validez de este supuesto está en duda, no deberá usarse la prueba de
Barlett
EJEMPLO
Ya que el supuesto de normalidad no está entre dicho en este ejemplo, se puede usar la
prueba de Barlett.
Se calculan primero las varianzas muestrales de cada tratamiento y se encuentra que:

𝑆12 = 11,2
𝑆22 = 9,8 = 8,06
𝑆32 = 4,3
= 0,45
𝑆42 = 6,8
𝑆52 = 8,2
= 1,10

El estadístico de prueba: = 0,93

No puede rechazarse la hipótesis Ho y se concluye que las 5 varianzas son iguales


La prueba de Levene modificada es un procedimiento muy útil ya que es robusto en cuanto
a las desviaciones de la normal.
Para probar la hipótesis de que las varianzas son iguales en todos los tratamientos, la
prueba de Levene modificada utiliza las desviación absoluta dij de las observaciones yij de
cada tratamiento de la mediana de los tratamientos.

𝑑𝑖𝑗 = 𝑦𝑖𝑗 − 𝑦෥𝑖 𝑝𝑎𝑟𝑎 𝑖 = 1,2, … 𝑎 ; 𝑗 = 1,2,3 … . 𝑛

La prueba de Levene modificada evalúa entonces si la media de estas desviaciones es igual


o no para todos los tratamientos

Cuando las desviaciones de las medias son iguales, la varianza de las observaciones de
todos los tratamientos serán iguales

El estadístico de prueba para la prueba de Levene es simplemente el estadístico FANOVA


usual para probar la igualdad de las medias que se aplica a las desviaciones absolutas
EJEMPLO
Un ingeniero civil esta interesado en determinar si 4 métodos diferentes para estimar la
frecuencia de las inundaciones producen estimaciones equivalentes de la descarga pico
cuando se aplican a la misma cuenca.
Cada procedimiento se usa 6 veces en la cuenca, y los datos de las descargas
resultantes (en pies cúbicos/segundo) son:
El análisis de varianza implica que hay una diferencia en las estimaciones de las
descargas pico promedio obtenidos en los cuatro experimentos, como indica a
continuación
Graficar los residuales

La gráfica de los residuales contra los valores ajustados es


preocupante porque la forma de embudo con la boca hacia afuera
indica que no se satisface el supuesto de una varianza constante.
Las desviaciones dij alrededor de las medianas de los tratamientos se muestran a
continuación

La prueba de Levene consiste en realizar un análisis de varianza estándar en las dij

El estadístico de la prueba F que


resulta en este caso es: Fo= 4,57

Para el cual el valor de P es: P = 0,0136

Por lo tanto la prueba de Levene rechaza la hipótesis nula de que las varianzas son
iguales, coincidiendo en esencia con el diagnóstico que se hizo a partir del examen visual
de la gráfica de los residuales contra los valores ajustado
La Tabla ANOVA para los datos ajustados, con la cual se llegó a la anterior conclusión, se
muestra a continuación

Los datos de la descarga pico son un buen candidato para una transformación de
datos.
Selección empírica de una transformación
Si los experimentos conocieran la relación entre la varianza de las observaciones y la media,
podrían usar esta información como guía para la selección de la forma de la transformación.
Se desarrolla ahora este punto:
Sea E(y) = µ la media de y, y suponga que la desviación estándar de y es proporcional a una
potencia de la media y tal que:
𝜎𝑦 ∝ 𝜇𝛼
Quiere encontrarse una transformación de y que produzca una varianza constante.
Suponga que la transformación es una potencia de los datos originales, por ejemplo:
𝑦 ∗ = 𝑦1
Puede demostrarse entonces que: 𝜎𝛾 ∝ 𝜇1+𝛼−1

Evidentemente, se si hace 𝛾 =1−𝛼 La varianza de los datos transformados 𝑦 ∗ es


constante
En la siguiente tabla se resumen varias de las transformaciones comunes y se enlistan en el
orden de fuerza creciente. Por fuera de una transformación se entiende la cantidad de
curvatura que induce.

Una transformación suave aplicada a datos que se extienden en un rango estrecho tiene
escaso efecto sobre el análisis, mientras que una transformación fuerte aplicada a un rango
amplio puede tener resultados dramáticos.
Con frecuencia las transformaciones tienen escaso 𝑦𝑚á𝑥
ൗ𝑦𝑚𝑖𝑛 Sea mayor que 2 ó 3
efecto a menos que el cociente
Al graficar log 𝑆𝑖 contra log 𝑦ത𝑖 , se observa que la pendiente de la recta que pasa por los 4
puntos esta cerca de ½, por la tabla de transformaciones para estabilizar la varianza, se
considera que la transformación de la raíz cuadrada puede ser apropiada.
La tabla de los datos transformados es:

Y el análisis de varianza es:


La gráfica residual muestra una mejoría sensible en comparación con la anterior:
INTERPRETACIÓN PRÁCTICA DE LOS RESULTADOS

Después de realizar el experimento, llevar a cabo el análisis estadístico e investigar los


supuestos fundamentales, el experimentador está listo para sacar conclusiones prácticas
acerca del problema bajo estudio.

Muchas veces esto es relativamente fácil, y ciertamente en los experimentos sencillos


que se han considerado hasta este punto, esto podría hacerse de manera un tanto
informal, tal vez mediante la inspección de la representaciones gráficas, como los
diagramas de caja y el diagrama de dispersión.

Sin embargo, en algunos casos es necesario aplicar técnicas más formales.


Un modelo de regresión

Los factores que intervienen en un experimento pueden ser cuantitativos o


cualitativos. Un factor cuantitativo es aquel cuyos niveles pueden asociarse con
puntos en una escala numérica, como la temperatura, la presión o el tiempo.

Los factores cualitativos, por otra parte, son aquellos cuyos niveles no pueden
ordenarse por magnitud.

Los operadores, los lotes de materia prima y los cambios de turno con factores
cualitativos típicos, ya que no existe ninguna razón para ordenarlos bajo algún
criterio numérico particular.

Al enfoque general para ajustar modelos empíricos se le llama análisis de


regresión.
Comparación gráfica de medias
Es muy sencillo desarrollar un procedimiento gráfico para la comparación de las medias
después de un ANOVA.
Suponga que el factor de interés tiene a niveles y que 𝑦ത1 , 𝑦ത2 , … . 𝑦ത𝑎 , son los promedios
de los tratamientos. Si se conoce σ, el promedio de cualquier tratamiento tendrá una
𝜎
desviación estándar .
𝑛

Entonces, si todas las medias de los niveles del factor son idénticas, las medias muestrales
observadas 𝑦ത𝑖 , se comportarían como un conjunto de observaciones tomadas al azar de
𝜎
una distribución normal con media𝑦ത𝑖 , y desviación estándar
𝑛

Visualice una distribución normal con la capacidad de ser deslizada sobre un eje abajo del
cual están graficadas 𝑦ത1 , 𝑦ത2 , … . 𝑦ത𝑎 .Si todas las medias de los tratamientos son iguales,
deberá haber una posición de esta distribución que haga evidente que los valores 𝑦ത𝑖 ,se
sacaron de la misma distribución.
Si no es este caso, los valores 𝑦ത𝑖 , que no parecen haberse sacado de esta distribución
se asocian con los niveles del factor que producen respuestas medias diferentes

Punto débil: se desconoce σ se sustituye con 𝑀𝑆𝐸 del análisis de varianza y usar una
𝑀𝑆𝐸
distribución t con factor de escala en lugar de la distribución normal.
𝑛

Ej.) Para trazar la distribución t, simplemente se multiplica el valor de la abscisa t por el


𝑀𝑆𝐸
factor de escala y se grafica contra la ordenada de t en este punto.
𝑛

𝑀𝑆𝐸 8,06
= = 1,27
𝑛 5
En la figura se ve que no hay ninguna posición de la distribución tal que los cinco
promedios puedan considerarse como observaciones típicas seleccionadas al azar de la
distribución.

Esto implica que las 5 medias no son iguales; por lo tanto, la figura es una
representación gráfica de los resultados del análisis de varianza

La figura indica que el 30% de algodón produce resistencia a la tensión mucho más alta
que 20 ó 25 % de algodón y que 15 o 35 % de algodón producirán resistencias aún más
bajas
CONTRASTES
Muchos métodos de comparación múltiple utilizan el concepto de contrastes.
Puesto que se rechazó la hipótesis nula en el caso de la resistencia del algodón, se sabe que
algunos pesos porcentuales de algodón producen resistencia a la tensión diferentes a otros,
pero ¿Cuáles son los que causan en realidad esta diferencia?
Al principio podría sospecharse que los niveles 4 y 5 (30% y 35%) producen la misma
resistencia a la tensión, lo que implica que la hipótesis a probar sería:
𝐻𝑜 : 𝜇4 = 𝜇5
𝐻𝑜 : 𝜇4 ≠ 𝜇5
Si desde el principio del experimento se hubiera sospechado que el promedio de los niveles
más bajos del peso porcentual del algodón (1 y 2) no difería del promedio de los niveles más
altos del peso porcentual de algodón (4 y 5), entonces la hipótesis había sido:
𝐻𝑜 : 𝜇1 + 𝜇2 = 𝜇4 + 𝜇5
𝐻𝑜 : 𝜇1 + 𝜇2 ≠ 𝜇4 + 𝜇5
En general un contraste es una combinación lineal de parámetros de la forma
Γ = σ𝑎𝑖=1 𝑐𝑖 𝜇𝑖 donde las constantes de los contrastes c1, c2,…, ca, suman cero; es decir
σ𝑎𝑖=1 𝑐𝑖 = 0

Las dos hipótesis anteriores pueden expresarse en términos de contrastes

Las constantes de los contrastes para las hipótesis de igualdad son:


c1= c2= c3 = 0; c4=+1; c5 =-1

Las constantes de los contrastes para las hipótesis de igualdad de sumas son:
c1= c2=+1 c3 = 0; c4= c5 =-1
Las pruebas de hipótesis que incluyen contrastes pueden hacerse de dos maneras básicas:
El primer método utiliza la prueba t

El contraste de interés se escribe en términos de los totales de los tratamientos,


obteniéndose:
𝑎 𝑎

𝐶 = ෍ 𝑐𝑖 𝑦𝑖 La varianza V(𝐶) = 𝑛𝜎 2 ෍ 𝑐𝑖2


𝑖=1
de C es: 𝑖=1

Cuando los tamaños de las muestras de cada tratamiento son iguales.


Si la hipótesis nula de:
Es verdadera, el cociente σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖
N(0,1)
𝑛𝜎 2 σ𝑎𝑖=1 𝑐𝑖2
Por lo que se sustituye la varianza desconocida 𝜎 2 con su estimación, el error
cuadrático medio MSe y se utiliza el estadístico:

σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖
𝑡𝑜 =
𝑛𝑀𝑆𝐸 σ𝑎𝑖=1 𝑐𝑖2

Se rechazará la hipótesis nula si 𝑡𝑜 excede a 𝑡𝛼,𝑁−𝑎


2
El segundo método utiliza la prueba F. Entonces el cuadrado de una VA t con v grados
de libertad es una VA F con un grado de libertad en el numerador y v grados de libertad
en el denominador
σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖 2
𝐹𝑜 = 𝑡𝑜 =
𝑛𝑀𝑆𝐸 σ𝑎𝑖=1 𝑐𝑖2
Si la hipótesis nula de:

Se rechazará la hipótesis nula si 𝐹𝑜 > 𝐹𝛼,1,𝑁−𝑎

También se puede escribir:

Donde la suma de cuadrados de


𝑀𝑆𝑐 𝑆𝑆𝑐/1 σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖 2
𝐹𝑜 = = los contrastes con un solo grado 𝑆𝑆𝑐 =
𝑀𝑆𝐸 𝑀𝑆𝐸 de libertad es: 𝑛 σ𝑎𝑖=1 𝑐𝑖2
Intérvalos de confianza para un contraste

En lugar de probar hipótesis acerca de un contraste, puede ser más útil construir un
intervalo de confianza. Entonces el contraste suele expresarse en término de los
promedios de los tratamientos 𝑦ഥ𝑖 .

Suponga que el contraste de interés es: Γ = σ𝑎𝑖=1 𝑐𝑖 𝜇𝑖

Al sustituir las medias de 𝑎 𝑎


𝜎2
los tratamientos con los 𝐶 = ෍ 𝑐𝑖 𝑦ഥ𝑖 V(𝐶) = ෍ 𝑐𝑖2
promedios de los 𝑛
𝑖=1 𝑖=1
tratamientos se obtiene:
Cuando los tamaños de las muestras son iguales. Si se usa MSE para estimar 𝜎 2 , el intervalo
de confianza de 100(1-α) porciento para el contraste σ𝑎𝑖=1 𝑐𝑖 𝜇𝑖 es
Evidentemente, si este intervalo de
confianza incluye al cero, no podría
rechazarse la hipótesis nula.
Contraste estandarizado

Cuando hay interés en más de un contraste, con frecuencia es útil evaluarlos en la misma
escala. Una forma de hacer esto es estandarizando el contraste para que su varianza sea
𝜎 2.

Si el contraste σ𝑎𝑖=1 𝑐𝑖 𝜇𝑖 se expresa en términos totales de los tratamientos como


σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖 al dividirlo por 𝑛 σ𝑎𝑖=1 𝑐𝑖2 se obtendrá un contraste estandarizado con 𝜎 2 .
Entonces el contraste estandarizado es en realidad:

෍ 𝑐𝑖∗ 𝑦𝑖
𝑖=1
𝑐𝑖∗ = 𝐶𝑖 / 𝑛 σ𝑎𝑖=1 𝑐𝑖2
Donde:
Tamaño de las muestras desiguales
Cuando los tamaños de las muestras de casa tratamiento son diferentes, se introducen
modificaciones menores en los resultados anteriores.
Primero, observe que la definición de contraste 𝑎
requiere ahora que ෍ 𝑐𝑖 𝑛𝑖 = 0
𝑖=1

Otros cambios requeridos son directos.

Estadístico 𝑡𝑜 La suma de cuadrados


de los contrastes
σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖
𝑡𝑜 =
𝑀𝑆𝐸 σ𝑎𝑖=1 𝑛𝑖 𝑐𝑖2 σ𝑎𝑖=1 𝑐𝑖 𝑦𝑖 2
𝑆𝑆𝑐 = 𝑎
σ𝑖=1 𝑛𝑖 𝑐𝑖2
CONTRASTES ORTOGONALES (CASO ESPECIAL)
𝑎

Dos contrastes con coeficientes {c1} y {d1} son ortogonales, si: ෍ 𝑐𝑖 𝑑𝑖 = 0


𝑖=1
𝑎

O para un diseño no balanceado, si: ෍ 𝑛𝑖 𝑐𝑖 𝑑𝑖 = 0


𝑖=1

Para a tratamientos, el conjunto de a-1 de contrastes ortogonales hace la partición de las


suma de cuadrados debida a los tratamientos a-1 componentes independientes con un
solo grado de libertad. Por lo tanto, las pruebas que se realizan en los contrastes
ortogonales son independientes
EJEMPLO
Si hay a= 3 tratamientos, donde el tratamiento 1 es el control y donde los niveles del
factor en los tratamientos 2 y 3 son de interés para el experimentador, los contrastes
ortogonales apropiados podrían ser los siguientes:
Tratamientos Coeficientes para contrastes ortogonales
1 (Control) -2 0
2 (Control) 1 -1
3 (Control) 1 1

Contraste 1:Ci=-2,1,1, compara el efecto promedio del factor con el control,


mientras que el contraste 2 con di=0,-1,1 compara los dos niveles del factor de
interés.
En general, el método de contraste (o de contrastes ortogonales) es útil para lo
que se llama comparaciones preplaneadas, es decir, los contrastes se especifican
antes de llevar a cabo el experimento y de examinar los datos.
EJEMPLO

Suponga que antes de correr el experimento se especificó la siguiente serie de


comparaciones entre las medias de los tratamientos
𝑎

𝐶 = ෍ 𝑐𝑖 𝑦𝑖 𝐶1 = −1 108 + 1 54 = −54
𝑖=1
Por los valores de P se concluye que hay diferencias significativas entre los niveles 4 y
5y 1 y 3 del peso porcentual del algodón, pero que el promedio de los niveles 1 y 3 no
difiere del promedio de los niveles 4 y 5 con el nivel α=0,05, y que el nivel 2 no difiere
del promedio de los otros 4 niveles
MÉTODO DE SCHEFFÉ PARA COMPARAR TODOS LOS CONTRASTES
Scheffé ha propuesto un método para comparar todos y cada uno de los contrastes
posibles entre las medias de los tratamientos.

Si se ha determinado un conjunto de m contrastes de las medias de tratamientos

𝜏𝑢 = 𝑐1𝑢 𝜇1 + 𝑐2𝑢 𝜇2 + ⋯ . +𝑐𝑎𝑢 𝜇𝑎 u= 1,2,3,…,m


El contraste correspondiente usando los promedios de tratamiento 𝑦ഥ𝑖 es:
𝐶𝑢 = 𝑐1𝑢 𝑦1 + 𝑐2𝑢 𝑦2 + ⋯ . +𝑐𝑎𝑢 𝑦𝑎 u= 1,2,3,…,m
El error estándar de este contraste es: ni es el número de observaciones
en el tratamiento i-ésimo

El valor crítico con el que debe ser


comparado Cu es:
Para probar la hipótesis de que el contraste Γu difiere de manera significativa de cero,
se compara Cu con el valor crítico.

Si 𝐶𝑢 > 𝑆𝛼,𝑢 se rechaza la hipótesis de que el contraste Γu es igual a cero

Esta metodología también sirve para formar intervalos de confianza para todos los
contrastes posibles entre las medias de los tratamientos.

Los intervalos resultantes por ejemplo: 𝐶𝑢 − 𝑆𝛼,𝑢 ≤ Γ𝑢 ≤ 𝐶𝑢 + 𝑆𝛼,𝑢 son intervalos de


confianza simultáneos por cuanto la probabilidad de que todos ellos sean verdaderos
simultáneamente es al menos 1-α
EJEMPLO

Los valores numéricos de estos contrastes son:


𝐶1 = 𝑦1 + 𝑦3 − 𝑦4 − 𝑦5 𝐶2 = 𝑦1 − 𝑦4
𝐶1 = 9,8 + 17,6 − 21,6 − 10,8= 5 𝐶2 = 9,8 − 21,6 = −11,8

Los errores estándar

𝑆𝑐1 = 8,06(1 + 1 + 1 + 1)/5 𝑆𝑐2 = 8,06(1 + 1)/2 = 1,80


= 2,54

Los valores críticos de 1% son:


𝑆0,01,1 = 2,54 4(4,43) = 10,69

𝑆0,01,2 = 1,80 4(4,43) = 7,58


Puesto que : 𝐶1 < 𝑆0,01,1 5 < 10,69

Se concluye que el contraste es igual a cero, es decir, no existe evidencia sólida para concluir
que las medias de los tratamientos 1 y 3 como grupo difieren de las medias de los
tratamientos 4 y 5 como grupo.

Sin embargo, como: 𝐶2 > 𝑆0,01,2 11,8 > 7,58

Se concluye que el contraste no es igual a cero, es decir, las resistencias medias de los
tratamientos 1 y 4 difieren significativamente
COMPARACIÓN DE PARES DE MEDIAS DE TRATAMIENTOS

Si el interés se encuentra en comparar todos los parees de a medias de tratamientos y


que las hipótesis nulas que quieren probarse son 𝐻𝑜 : 𝜇𝑖 = 𝜇𝑗 para toda i≠j

Prueba de Tukey
Si se quieren probar todas las comparaciones de las medias por pares:

𝐻𝑜 : 𝜇𝑖 = 𝜇𝑗
𝐻1 : 𝜇𝑖 ≠ 𝜇𝑗

Para toda i≠j, Tukey propuso un procedimiento para probar hipótesis para las que el nivel
de significación global es exactamente α cuando los tamaños de las muestras son iguales
y es a lo sumo αcuando los tamaños de las muestras no son iguales.
Este también se puede utilizar para contraer los intervalos de confianza para las
diferencias en todos los pares de medias, para estos intervalos, el valor de confianza
simultaneo es de 100(1- α)% cuando el tamaño de las muestras son iguales y de al menos
100(1- α)% cuando el tamaño de las muestras no son iguales.

Se utiliza la distribución 𝑦ത𝑚á𝑥 − 𝑦ത𝑚𝑖𝑛


𝑞=
del estadístico del rango 𝑀𝑆𝐸 /𝑛
studentizado:

𝑦ത𝑚á𝑥 𝑒 𝑦ത𝑚𝑖𝑛 , son los valores máximos y mínimos entre las medias de un grupo p de
medias muestrales.
𝑞𝛼 (𝑝,𝑓) los puntos porcentuales α superiores de q, donde f es el número de grados de
libertad asociados con MSE.
Tabla
Para tamaños de muestras iguales, la prueba de Tukey declara que dos medias son
significativamente diferentes si el valor absoluto de sus diferencias muestrales
excede

𝑀𝑆𝐸
𝑇𝛼 = 𝑞𝛼 (𝑎, 𝑓)
𝑛

Se puede construir una serie de intervalos de confianza de 100(1-α)% para todos


los pares de medias.

𝑀𝑆𝐸 𝑀𝑆𝐸
𝑦ത𝑖 − 𝑦ത𝑗 − 𝑞𝛼 (𝑎, 𝑓) ≤ 𝜇𝑖 - 𝜇𝑗 ≤ 𝑦ത𝑖 − 𝑦ത𝑗 + 𝑞𝛼 (𝑎, 𝑓) i≠j
𝑛 𝑛
Cuando los tamaños de muestras no son iguales

𝑞𝛼 𝑎, 𝑓 1 1
𝑇𝛼 = 𝑀𝑆𝐸 ( + )
2 𝑛𝑖 𝑛𝑗

𝑞𝛼 𝑎,𝑓 1 1 𝑞𝛼 𝑎,𝑓 1 1
𝑦ത𝑖 − 𝑦ത𝑗 − 𝑀𝑆𝐸 ( + ) ≤ 𝜇 𝑖 - 𝜇𝑗 ≤ 𝑦ത𝑖 − 𝑦ത𝑗 + 𝑀𝑆𝐸 ( + )
2 𝑛𝑖 𝑛𝑗 2 𝑛𝑖 𝑛𝑗
EJEMPLO

α = 0,05 q 0,05 (5,20) = 4,23


F= 20 Grados de libertad para el error

𝑀𝑆𝐸
𝑇𝛼 = 𝑞𝛼 (𝑎, 𝑓)
𝑛

8,06
𝑇0,05 = 𝑞0,05 (5,20) = 5,37
5

Por lo tanto cualquier par de promedios de los tratamientos que difieran en valor
absoluto por más de 5,37 implicaría que el par correspondiente se medias
poblacionales son significativamente diferentes
y1-y2= 9,8-15,4= -5,6 y2-y4= 15,4-21,6= -6,2
ÿ1 9,8
ÿ2 15,4 y1-y3= 9,8-17,6= -7,8 y2-y5= 15,4-10,8= 4,6
ÿ3 17,6 y1-y4= 9,8-21,6= -11,8 y3-y4= 17,6-21,6= -4,0
ÿ4 21,6 y1-y5= 9,8-10,8= -1,0 y3-y5= 17,6-10,8= 6,8
ÿ5 10,8
y2-y3= 15,4-17,6 = -2,2 y4-y5= 21,6-10,8= 10,8

Para el estadístico del rango studentizado q se tiene:

𝑚á𝑥(𝑦𝑖
ത − 𝜇𝑖)−𝑚í𝑛 ( 𝑦𝑖
ത − 𝜇𝑖)
𝑝 ≤ 𝑞𝛼 (𝑎, 𝑓) = 1 − 𝛼
𝑀𝑆𝐸
𝑛
𝑀𝑆𝐸
Si 𝑚á𝑥(𝑦𝑖
ത − 𝜇𝑖)−𝑚í𝑛 ( 𝑦𝑖
ത − 𝜇𝑖) es menor o igual que 𝑞𝛼 (𝑎, 𝑓) debe ser verdadero
𝑛
𝑀𝑆𝐸
que [𝑚á𝑥(𝑦𝑖
ത − 𝜇𝑖)−𝑚í𝑛 ( 𝑦𝑖
ത − 𝜇𝑖) ] ≤ 𝑞𝛼 (𝑎, 𝑓) para cada par de medias, por lo
𝑛
tanto:

𝑀𝑆𝐸 𝑀𝑆𝐸
𝑝 −𝑞𝛼 𝑎, 𝑓 ≤ 𝑦ത𝑖 − 𝑦ത𝑗 − (𝜇𝑖 − 𝜇𝑗 ) ≤ 𝑞𝛼 𝑎, 𝑓 =1−𝛼
𝑛 𝑛
MÉTODO DE LAS DIFERENCIAS SIGNIFICATIVAS MÍNIMAS (LSD) DE FISHER

En este procedimiento se utiliza el estadístico


F para probar 𝐻𝑜 : 𝜇𝑖 = 𝜇𝑖

Suponiendo una hipótesis alternativa de


dos colas, los pares de medias µ1 y µ2 se 1 1
𝑦ത𝑖 − 𝑦ത𝑗 > 𝑇𝛼ൗ , 𝑁 − 𝑎 𝑀𝑆𝐸 +
declararían significativamente diferentes 2 𝑛𝑖 𝑛𝑗
si:

1 1 Diferencia
A la cantidad 𝐿𝑆𝐷 = 𝑇𝛼ൗ , 𝑁 − 𝑎 𝑀𝑆𝐸 + significativa
2 𝑛𝑖 𝑛𝑗
mínima

2𝑀𝑆𝐸
Si el diseño es balanceado 𝐿𝑆𝐷 = 𝑇𝛼ൗ , 𝑁 − 𝑎
2 𝑛
EJEMPLO Por lo tanto, cualquier par de
promedios de los tratamientos
α = 0,05 que difiera del valor absoluto
por más de 3,75 implicaría que
el par correspondiente de
medias poblacionales es
significativamente diferente.
Las diferencias de los promedios son

y1-y2= 9,8-15,4= -5,6 y2-y4= 15,4-21,6= -6,2


y1-y3= 9,8-17,6= -7,8 y2-y5= 15,4-10,8= 4,6
y1-y4= 9,8-21,6= -11,8 y3-y4= 17,6-21,6= -4,0
y1-y5= 9,8-10,8= -1,0 y3-y5= 17,6-10,8= 6,8
y2-y3= 15,4-17,6 = -2,2 y4-y5= 21,6-10,8= 10,8
Prueba de Rango múltiple de Duncan

Un procedimiento muy utilizado para comparar todos los pares de medias es la prueba de
rango múltiple desarrollada por Duncan.

Para aplicar esta prueba cuando los tamaños de las muestras son iguales, los a promedios de
los tratamientos se arreglan en orden ascendente, y el error estándar se cada promedio se
determina como:

Para tamaños de muestras desiguales, se sustituye


n en la ecuación anterior con la media armónica nh
de {nj}, donde
Se puede observar que si n1=n2….=na, na = n. En la tabla de Duncan los rangos
significativos se obtienen los valores rα(p,f) para p=2,3,…a donde α es el nivel de
significación y f es el número de grados de libertad del error.

Estos rangos se convierten en un conjunto de a-1 rangos mínimos de significación (por


ejemplo Rp) para p=2,3,…,a calculando

𝑅𝑝 = 𝑟𝛼 𝑝, 𝑓 𝑆𝑦ത𝑖
Los promedios en orden ascendente se tiene:
Existen diferencias significativas entre todos los pares de medias con excepción
de la 3-2 y 5-1

En la grafica, las medias que no son


significativamente diferentes
aparecen subrayadas
0.05
Prueba de Newman-keuls
DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA
Curva de operación característica
Curva de operación característica
CURVA DE
OPERACIÓN
CARACTERÍSTICA
CURVA DE OPERACIÓN CARACTERÍSTICA
CURVA DE OPERACIÓN CARACTERÍSTICA
CURVA DE
OPERACIÓN
CARACTERÍSTICA
EJERCICIO 3.11
Considerando el ejercicio de la resistencia de tensión del hilado. Suponga que el
experimentador está interesado en rechazar la hipótesis nula con una probabilidad de al
menos 0,90 si las medias de los cinco tratamientos son:
CURVA DE OPERACIÓN CARACTERÍSTICA
EJERCICIO

También podría gustarte