viernes, 26 de junio de 2009

ESTADÍSTICA II

Conceptos básicos de Inferencia Estadística

1 Conceptos básicos de Inferencia Estadística.
1.1 Objetivos de la Inferencia Estadística.
El objetivo de la Estadística es medir y modelar la variabilidad del proceso mediante un modelo probabilístico.
Para modelar la variabilidad de una variable aleatoria si sólo se dispone del conocimiento de una muestra de la misma se sigue el siguiente modo de actuación:
1. Planteamiento del problema.
2. Selección de la muestra (Muestreo estadístico), en algunos estudios la muestra se obtiene por simulación (Simulación Estadística)
3. Estudio descriptivo de la muestra, analítico y gráfico (Estadística Descriptiva).
4. En base al conocimiento de los modelos probabilísticos más utilizados y teniendo en cuenta el planteamiento del problema y el estudio descriptivo previo, elegir un modelo de probabilidad (Teoría de la Probabilidad).
5. Estimar los parámetros del modelo supuesto a partir de las observaciones muestrales utilizando los métodos de Inferencia Estadística: estimación puntual, estimación por intervalos de confianza y contrastes de hipótesis paramétricos.
6. Chequear que el modelo de probabilidad ajustado a los datos es adecuado y que se verifican las hipótesis supuestas en el estudio, por ejemplo, que las observaciones muestrales son independientes, que no existen observaciones erróneas,...,etc. Para ello se utilizan los métodos de Inferencia no Paramétrica.
7. Si se acepta que el modelo ajustado es adecuado se puede utilizar para obtener resultados y conclusiones sobre la variable en estudio. En caso contrario, se debe reformular el modelo de probabilidad y repetir el proceso desde el paso 4.

1.2 Inferencia Estadística. Conceptos básicos.
“El conjunto de métodos estadísticos que permiten deducir (inferir) como se distribuye la población en estudio o las relaciones estocásticas entre varias variables de interés a partir de la información que proporciona una muestra”.

Para que un método de inferencia estadística proporcione buenos resultados debe de:
Basarse en una técnica estadístico-matemática adecuada al problema y suficientemente validada.
Utilizar una muestra que realmente sea representativa de la población y de un tamaño suficiente.
Conceptos básicos que se utilizarán en este texto son los siguientes:
Población: es un conjunto homogéneo de individuos sobre los que se estudia una o varias características que son, de alguna forma, observables.
Muestra: es un subconjunto de la población. El número de elementos de la muestra se denomina tamaño muestral.
Muestreo aleatorio simple: es aquel en el que todos los individuos de la población tienen la misma probabilidad de ser elegidos.
Muestra aleatoria simple, de una variable aleatoria X, con distribución F, de tamaño n, es un conjunto de n variables aleatorias X1,X2,...,Xn, independientes e igualmente distribuídas (i.i.d.) con distribución F.
Espacio muestral: es el conjunto de muestras posibles que pueden obtenerse al seleccionar una muestra aleatoria, de tamaño n, de una cierta población.
Parámetro: es cualquier característica medible de la función de distribución de la variable en estudio (media, varianza,..).
Estadístico: es una función de la muestra T . Por tanto, es una variable aleatoria que tiene una función de distribución que se denomina distribución en el muestreo de T. Los estadísticos independientes del parámetro a estimar se denominan estimadores.
Propiedades de los estimadores.
Sea n = n un estimador del parámetro . Propiedades del estimador son las siguientes
1. Estimador centrado o insesgado, tiene sesgo cero,


2. Estimador asintóticamente centrado o insesgado, verifica


3. Error Cuadrático Medio de n, es


4. Estimador consistente en media cuadrática, verifica

por tanto


5. La precisión o eficacia del estimador n es

Si el estimador es insesgado


6. Estimador de la media poblacional, se utiliza la media muestral definida por
(1.1)

7. Si X sigue una distribución N , se verifica que
(1.2)

8. Estimador de la varianza poblacional, se utiliza la cuasivarianza muestral definida por
(1.3)

9. Si X sigue una distribución N , se verifica que
(1.4)

10. Dado que normalmente la varianza poblacional se desconoce y es necesario estimarla, es de interés el siguiente resultado
(1.5)

11.

1.3 Contraste o test de hipótesis. Definiciones.
1.3.1 Definiciones básicas.
Un contraste o test de hipótesis es una técnica de Inferencia Estadística que permite comprobar si la información que proporciona una muestra observada concuerda (o no) con la hipótesis estadística formulada sobre el modelo de probabilidad en estudio y, por tanto, se puede aceptar (o no) la hipótesis formulada.
Una hipótesis estadística es cualquier conjetura sobre una o varias características de interés de un modelo de probabilidad.
Una hipótesis estadística puede ser:
Paramétrica: es una afirmación sobre los valores de los parámetros poblacionales desconocidos. Las hipótesis paramétricas se clasifican en
Simple: si la hipótesis asigna valores únicos a los parámetros ( = 1'5, = 10, X = Y ,...).
Compuesta: si la hipótesis asigna un rango de valores a los parámetros poblacionales desconocidos ( > 1'5, 5 < < 10, X < Y ,...).

No Paramétrica: es una afirmación sobre alguna característica estadística de la población en estudio. Por ejemplo, las observaciones son independientes, la distribución de la variable en estudio es normal, la distribución es simétrica,...
La hipótesis que se contrasta se denomina hipótesis nula y, normalmente, se denota por H0. Si se rechaza la hipótesis nula es porque se asume como correcta una hipótesis complementaria que se denomina hipótesis alternativa y se denota por H1.
1.3.2 Pasos a seguir en la realización de un contraste de hipótesis.
Al realizar cualquier contraste de hipótesis estadístico se deben seguir las siguientes etapas:
1. Plantear el contraste de hipótesis, definiendo la hipótesis nula (H0, hipótesis que se desea contrastar), y la hipótesis alternativa (H1, cualquier forma de negación de la hipótesis nula ).
2. Definir una medida de discrepancia entre la información que proporciona la muestra ( ) y la hipótesis H0. Esta medida de discrepancia
(1.6)

3. se denomina estadístico del contraste y será cualquier función de los datos muestrales y de la información de la hipótesis nula .
La medida de discrepancia debe seguir una distribución conocida cuando H0 sea cierta, de forma que se pueda distinguir entre:
una discrepancia grande, la que tiene una probabilidad muy pequeña de ocurrir cuando H0 es cierto.
una discrepancia pequeña, la que tiene una probabilidad grande de ocurrir cuando H0 es cierta.
4. Decidir que valores de d se consideran muy grandes, cuando H0 es cierto, para que sean atribuibles al azar. Ésto es, decidir que discrepancias se consideran inadmisibles cuando H0 es correcto, lo que equivale a indicar el valor del nivel de significación, que se denota por .
5. Tomar la muestra ( ), calcular el valor del estadistico asociado a la muestra (valor crítico del contraste) y analizar:
Si es pequeño (pertenece a la región de aceptación), entonces se acepta la hipótesis H0.
Si es grande (pertenece a la región de rechazo), entonces se rechaza la hipótesis H0.
1.3.3 Tipos de Error en un contraste de hipótesis.
Al realizar un contraste se puede cometer uno de los dos errores siguientes:
Error tipo I, se rechaza la hipótesis nula H0 cuando es cierta.
Error tipo II, se acepta la hipótesis nula H0 cuando es falsa.
________________________________________

Situación real:
H0 es cierta H0 es falsa
Decisión: ACEPTAR H0 CORRECTO ERROR II
RECHAZAR H0 ERROR I CORRECTO

Tabla 1.1: Situaciones posibles en un contraste de hipótesis.
________________________________________
Debe tenerse en cuenta que sólo se puede cometer uno de los dos tipos de error y, en la mayoría de las situaciones, se desea controlar controlar la probabilidad de cometer un error de tipo I.
Se denomina nivel de significación de un contraste a la probabilidad de cometer un error tipo I, se denota por y, por tanto,
(1.7)

Fijar el nivel de significación equivale a decidir de antemano la probabilidad máxima que se está dispuesto a asumir de rechazar la hipótesis nula cuando es cierta. El nivel de significación lo elige el experimentador y tiene por ello la ventaja de tomarlo tan pequeño como desee (normalmente se toma = 0'05, 0'01 o 0'001).
La selección de un nivel de significación conduce a dividir en dos regiones el conjunto de posibles valores del estadístico de contraste:
La región de Rechazo, con probabilidad , bajo H0.
La región de Aceptación, con probabilidad 1 - ,bajo H0.

Figura 1.1. Tipos de errores. Contraste unilateral, P = 0'05, P = 0'36,
Si el estadístico de contraste toma un valor perteneciente a la región de aceptación, entonces no existen evidencias suficientes para rechazar la hipótesis nula con un nivel de significación y el contraste se dice que estadísticamente no es significativo. Si, por el contrario, el estadístico cae en la región de rechazo entonces se asume que los datos no son compatibles con la hipótesis nula y se rechaza a un nivel de significación . En este supuesto se dice que el contraste es estadísticamente significativo.
Por tanto, resolver un contraste estadístico es calcular la región de aceptación y la región de rechazo y actuar según la siguiente regla de decisión:
Se obtiene la muestra = y se calcula el estadístico del contraste .
(1.8)

Según la forma de la región de rechazo, un contraste de hipótesis, paramétrico o no, se denomina
Contraste unilateral o contraste de una cola es el contraste de hipótesis cuya región de rechazo está formada por una cola de la distribución del estadístico de contraste, bajo H0.
Contraste bilateral o contraste de dos colas es el contraste de hipótesis cuya región de rechazo está formada por las dos colas de la distribución del estadístico de contraste, bajo H0.
________________________________________

________________________________________
Figura 1.2. Contraste bilateral. H0 : = 0, H1 : 0.
________________________________________

________________________________________
Figura 1.3. Contraste unilateral H0 : > 0, H1 : < 0.

Ejemplo 1.1. Test de hipótesis estadística.
“La distribución del tamaño en Kb de los ficheros que resultan al digitalizar imágenes con un determinado programa puede suponerse normal. El programa ha sido mejorado en su última versión (versión B) hasta el punto de que quienes lo comercializan garantizan una disminución en el tamaño medio de los ficheros resultantes superior a 6 Kb con respecto a la versión anterior (versión A).
La nueva versión B se envió a probar a un centro de investigación privado que utiliza la versión A. Las últimas 550 imágenes recibidas se digitalizaron con la nueva versión B, obteniéndose que los tamaños de los ficheros resultantes presentaron una media xB = 63'9 y una cuasivarianza B2 = 105'063. Cuando se comprobó que las 550 imágenes anteriores a éstas, digitalizadas con la versión antigua A, habían proporcionado las siguientes medidas xA = 70'8 y A2 = 96'04, el centro no consideró realista la diferencia anunciada por el proveedor y devolvieron el producto.
Los proveedores enviaron entonces un representante comercial y éste convenció a los responsables del centro para la realización de una nueva prueba. Las 25 imágenes que había en ese momento en el laboratorio se digitalizaron con las dos versiones del programa A y B. Finalmente se calcularon las diferencias en Kb de los ficheros obtenidos con cada versión resultando
5'210 9'607 12'442 11'248 9'776
10'785 -2'368 9'762 8'683 10'783
10'830 12'836 11'487 12'964 5'371
7'343 0'615 12'406 6'151 9'917
5'722 4'693 4'048 8'480 8'151
Estos resultados hicieron cambiar de idea a los responsables del centro y adquirieron la nueva versión B.
Analizar ambas experiencias.
¿Cómo es posible que con tan sólo 25 datos se haya cambiado de opinión si la experiencia primera se realizó en base a un tamaño de muestra 22 veces superior?”
Solución:
Se siguen los siguientes pasos

Paso 1: Especificar las hipótesis nula (H0) y alternativa (H1).
Sea A la esperanza de la distribución de los tamaños de los ficheros una vez digitalizadas las imágenes con la versión A del programa y B la correspondiente a la versión B actualizada. Se desea investigar si es razonable asumir la afirmación del proveedor. El contraste a realizar es
(1.9)

Se supone que se verifican las siguientes hipótesis:
Las observaciones siguen una distribución normal.
Las observaciones son independientes.
Las dos muestras tienen igual varianza.
Se contrasta la tercera hipótesis de igualdad de las varianzas de las dos muestras.
(1.10)

Fijado = 0'05, se calcula el estadístico del contraste

Este valor 2 no pertenece a la región de rechazo especificada para el contraste de varianzas de dos muestras independientes que viene dado por

Por tanto se acepta la hipótesis de igualdad de las varianzas de las dos muestras.

Figura 1.4. Contraste de igualdad de varianzas.

Paso 2: Se elige un estadístico de contraste apropiado: d1 = d1(H0, ). En este problema una buena elección es la siguiente.
(1.11)

Si H0 es cierto, entonces
(1.12)

T2 es un estimador del parámetro A2 = B2 = 2, que viene dado por
(1.13)


Paso 3: Se fija el nivel de significación , esto es, la probabilidad de error de tipo I. En este ejemplo se utiliza = 0'05.

Paso 4: Se calculan las regiones de rechazo y de aceptación del contraste, teniendo en cuenta si el contraste es unilateral o bilateral.
En el ejemplo el contraste es unilateral y teniendo en cuenta la región de rechazo para = 0'05 es
(1.14)


Figura 1.5. Contraste de igualdad de medias. Primer estudio.

Paso 5: Se obtiene la muestra y utilizando el estadístico de contraste d1 dado en se obtiene el valor crítico = (X1, ,Xn).
En el ejemplo en estudio, en primer lugar se calcula la estimación de la varianza

Ahora el valor crítico del contraste C1 es

El nivel crítico asociado del contraste es 0'0683 (ver siguiente sección).

Paso 6: Se concluye si el test es estadísticamente significativo o no al nivel de significación según que el valor crítico pertenezca a la región de rechazo o a la región de aceptación, respectivamente.
Como 1 = 1'488 no pertenece a la región de rechazo dada en se acepta la hipótesis nula. Por consiguiente los datos muestrales no avalan que el tamaño medio de los ficheros disminuye en más de 6 Kb como afirman los vendedores del nuevo programa.
Tal y como se resolvió el problema hay un parámetro que no se controla, el error de tipo II, ya que se desconoce la probabilidad de aceptar la hipótesis nula cuando es falsa.
Si, simultáneamente, se desea controlar la probabilidad de error de tipo I y la probabilidad de error de tipo II ( ( 1)) se debe especificar el tamaño muestral que se está dispuesto a asumir. Ésto es, si se quiere controlar el porcentaje de veces que se detecta la hipótesis alternativa (que se denota = 1) cuando es cierta, que en términos de probabilidad se denota por

es necesario calcular el tamaño muestral n adecuado para garantizar que ambas probabilidades de error sean las fijadas.
Obviamente existe una relación entre los tres parámetros (n, y ( )), conocidos dos de ellos se puede obtener el tercero:
n, tamaño muestral,
, probabilidad de error de tipo I,
( ), probabilidad de error de tipo II.
En este ejemplo puede suponerse que existe independencia entre las observaciones muestrales y que no hay relación entre los dos grupos de 550 imágenes digitalizadas por cada una de las dos versiones del programa. Por tanto se trata de dos muestras independientes.
En la segunda experiencia que se propone los datos se han tomado apareados ya que se han ejecutado las dos versiones del programa sobre las mismas imágenes, primero la versión A y después la B. Por tanto hay independencia entre las observaciones de cada muestra pero no entre las observaciones de una muestra respecto a la otra. Para resolver el problema en este segundo contexto y evitar el problema de dependencia, se trabaja con la variable diferencia del tamaño del fichero al digitalizar la imagen con la versión A del programa y el tamaño del fichero al utilizar la versión B . Se calculan las 25 diferencias entre los tamaños de los ficheros resultantes y se obtiene una muestra única. De la que se obtiene

El contraste es ahora
(1.15)

El estadístico del contraste es
(1.16)

Bajo las hipótesis supuestas se verifica que la distribución de d3, cuando H0 es cierta, es una distribución t
(1.17)

Para = 0'05 se obtiene la siguiente región de rechazo

Utilizando se obtiene el siguiente valor crítico

Este valor 3 pertenece a la región de rechazo y se rechaza H0.
Obsérvese que también se rechazaría H0 con = 0'01 (de hecho el nivel crítico es 0'003). La decisión de rechazo parece clara y con garantías, en contradicción con la decisión de la primera experiencia.

Figura 1.6. Contraste sobre la media. Datos apareados.
¿Por qué esta diferencia en la respuesta?
Viene motivada por la alta variabilidad de las variables del primer experimento XA y XB. Con el muestreo apareado la variabilidad ha disminuido considerablemente, la varianza de la variable diferencia Z es considerablemente inferior a la varianza de XA y XB. La disminución tan fuerte en la variabilidad está motivada en la existencia de una alta correlación positiva entre las variables XA y XB, ya que las imágenes que al digitalizarlas con una versión generan ficheros grandes (pequeños) también producirán ficheros grandes (pequeños) al ser digitalizadas con la otra versión.

1.3.4 Nivel crítico y región crítica.
Si el contraste de hipótesis se va estudiar con una única muestra y no de forma repetida y sistemática, se puede utilizar una filosofía alternativa y más informativa que se basa en los conceptos de nivel crítico y región crítica.

Se denomina nivel crítico o p-valor a la probabilidad p de obtener una discrepancia con H0 mayor o igual que el valor crítico cuando H0 es correcto.
(1.9)

La región crítica es el conjunto de valores para los cuales d es mayor o igual que el valor crítico d .
Por tanto,



Comentarios:
1. El nivel crítico sólo puede calcularse una vez tomada la muestra, obteniéndose niveles críticos distintos para cada muestra.
2. El nivel crítico p puede interpretarse como un nivel mínimo de significación en el sentido de que niveles de significación iguales o superiores al p - valor llevarán a rechazar la hipótesis nula.
Por tanto, cuanto menor sea el p - valor mayor es el grado de incompatibilidad de la muestra con H0, lo que lleva a rechazar H0.
3. El cálculo del nivel crítico no proporciona de modo sistemático una decisión entre H0 y H1.
4. En las Figuras 1.7 (y 1.8) pueden verse representados el nivel crítico y la región crítica en un contraste unilateral (y bilateral) acerca de la media, bajo la hipótesis de normalidad.

________________________________________

________________________________________
Figura 1.7. Nivel crítico. Contraste unilateral sobre la media con = 0'84.

________________________________________

________________________________________
Figura 1.8. Nivel crítico. Contraste bilateral sobre la media con = 0'84.

1.3.5 Potencia de un contraste.
Para medir la bondad de un contraste de hipótesis se utiliza el concepto de potencia del contraste. Considérese que se está estudiando un contraste de hipótesis acerca del parámetro , siendo la hipótesis nula
frente a la hipótesis alternativa
Se denomina potencia al nivel del estadístico de contraste d a la función que asigna a cada valor del parámetro la probabilidad de rechazar H0 cuando es correcto.

Esto es,


donde
(1.10)


Comentarios:
1. Al grafo de la potencia se lo denomina curva de potencia. En algunos textos se trabaja con la función curva característica de operación definida por
(1.11)

2. Si denotamos por a la probabilidad de error de tipo I, se verifica que
Cuanto más lejana se encuentra la alternativa H1 de H0 menor es la probabilidad de incurrir en un error tipo II ( ) y, por consiguiente, la potencia tomará valores más próximos a 1.
3. Si la potencia en la hipótesis alternativa es siempre muy próxima a 1 entonces se dice que el estadístico de contraste es muy potente para contrastar H0 ya que en ese caso las muestras serán, con alta probabilidad, incompatibles con H0 cuando H1 sea cierta.
Por tanto puede interpretarse la potencia de un contraste como su sensibilidad o capacidad para detectar una hipótesis alternativa.
1. Fijado un nivel de significación , un contraste d1 se dice más potente que otro d2 para contrastar la hipótesis nula H0 si
(1.12)

2. En la Figura 1.9. se representa la función de potencia del contraste H0 : = 0 frente a la alternativa H1 : 0 (contraste bilateral), bajo la hipótesis de normalidad, con = 0'10 y tamaño muestral n = 100.
En la Figura 1.10. se representa la función de potencia del contraste H0 : < 0 frente a la alternativa H1 : > 0 (contraste unilateral), bajo la hipótesis de normalidad, con = 0'10 y tamaño muestral n = 100.
________________________________________

________________________________________
Figura 1.9. Función de Potencia. Contraste bilateral acerca de la media.
________________________________________

________________________________________
Figura 1.10. Función de Potencia. Contraste unilateral acerca de la media.
1.3.6 Algunos contrastes paramétricos importantes.
Se exponen en esta sección algunos de los estadísticos de contraste más importantes para contrastar hipótesis nulas del tipo H0 : = 0, siendo un parámetro desconocido y de cuyo valor depende la distribución de una variable de interés X.
Contrastes sobre la media. A partir de una muestra extraída de una población X normal con media y varianza 2 desconocidas, se desea contrastar la hipótesis nula
El estadístico de contraste es
(1.13)

donde es la desviación típica muestral corregida . Si H0 es cierto

Contrastes sobre la varianza. Sea la muestra aleatoria simple extraída de una población X normal con varianza 2, se desea contrastar
El estadístico de contraste es
(1.14)

Si H0 es cierto


Contrastes sobre la igualdad de varianzas. Sean dos muestras aleatorias simples e obtenidas de dos poblaciones X e Y, con distribuciones respectivas
N y N .
Se desea contrastar

El estadístico de contraste es
(1.15)

Si H0 es cierto


Contrastes sobre la diferencia de medias, muestras independientes e igualdad de varianzas. Sean dos muestras aleatorias simples e obtenidas de dos poblaciones X e Y, con distribuciones N y N . Por tanto se supone que X2 = Y 2 = 2. Se desea contrastar

El estadístico de contraste es
(1.16)

siendo
(1.17)

un estimador insesgado eficiente de la varianza que se calcula a partir de la información que proporcionan ambas muestras.
Si H0 es cierto se verifica que



Contrastes sobre la diferencia de medias, muestras independientes y varianzas desiguales. Sean dos muestras aleatorias simples e obtenidas de dos poblaciones X e Y, con distribuciones respectivas N y N ,y se supone que X2 Y 2. Se desea contrastar


El estadístico de contraste que se utiliza es
(1.18)

Si H0 es cierto se verifica que

siendo g = n + m - 2 + , con un término de corrección (ver Cao y otros (2001)).
Contrastes sobre la diferencia de medias, muestreo apareado. En este caso las dos muestras aleatorias simples tienen igual tamaño muestral e y son obtenidas al realizar dos observaciones Xi e Y i sobre el mismo individuo, el i-ésimo. Por la naturaleza del muestreo apareado las dos muestras son dependientes. Para eliminar este problema se estudia la variable diferencia Z = Y - X, por tanto, a partir de las dos muestras iniciales se calcula la muestra de diferencias , Zi = Xi - Yi . Para contrastar la hipótesis


Se utiliza el siguiente estadístico de contraste
(1.19)

Si H0 es cierto





Teoría de Diseño de Experimentos
2 Principios básicos del diseño de experimentos.
2.1 Introducción.
Los modelos de “Diseño de experimentos” son modelos estadísticos clásicos cuyo objetivo es averiguar si unos determinados factores influyen en la variable de interés y, si existe influencia de algún factor, cuantificarla. Ejemplos donde habría que utilizar estos modelos son los siguientes:
En el rendimiento de un determinado tipo de máquinas (unidades producidas por día) se desea estudiar la influencia del trabajador que la maneja y la marca de la máquina.
Se quiere estudiar la influencia del tipo de pila eléctrica y de la marca en la duración de las pilas.
Una compañía telefónica está interesada en conocer la influencia de varios factores en la variable de interés “la duración de una llamada telefónica”. Los factores que se consideran son los siguientes: hora a la que se produce la llamada; día de la semana en que se realiza la llamada; zona de la ciudad desde la que se hace la llamada; sexo del que realiza la llamada; tipo de teléfono (público o privado) desde el que se realiza la llamada.
Una compañía de software está interesada en estudiar la variable “porcentaje que se comprime un fichero al utilizar un programa que comprime ficheros” teniendo en cuenta el tipo de programa utilizado y el tipo de fichero que se comprime.
Se quiere estudiar el rendimiento de los alumnos en una asignatura y, para ello, se desean controlar diferentes factores: profesor que imparte la asignatura; método de enseñanza; sexo del alumno.
La metodología del diseño de experimentos se basa en la experimentación. Es conocido que si se repite un experimento, en condiciones indistinguibles, los resultados presentan variabilidad que puede ser grande o pequeña. Si la experimentación se realiza en un laboratorio donde la mayoría de las causas de variabilidad están muy controladas, el error experimental será pequeño y habrá poca variación en los resultados del experimento. Pero si se experimenta en procesos industriales, administrativos, ... la variabilidad es grande en la mayoría de los casos.
El objetivo del diseño de experimentos es estudiar si utilizar un determinado tratamiento produce una mejora en el proceso o no. Para ello se debe experimentar utilizando el tratamiento y no utilizándolo. Si la variabilidad experimental es grande, sólo se detectará la influencia del uso del tratamiento cuando éste produzca grandes cambios en relación con el error de observación.
La metodología del Diseño de Experimentos estudia cómo variar las condiciones habituales de realización de un proceso empírico para aumentar la probabilidad de detectar cambios significativos en la respuesta, de esta forma se obtiene un mayor conocimiento del comportamiento del proceso de interés.
Para que la metodología de diseño de experimentos sea eficaz es fundamental que el experimento esté bien diseñado.
Un experimento se realiza por alguno de los siguientes motivos:
* Determinar las principales causas de variación en la respuesta.
* Encontrar las condiciones experimentales con las que se consigue un valor extremo en la variable de interés o respuesta.
* Comparar las respuestas en diferentes niveles de observación de variables controladas.
* Obtener un modelo estadístico-matemático que permita hacer predicciones de respuestas futuras.
La utilización de los modelos de diseño de experimentos se basa en la experimentación y en el análisis de los resultados que se obtienen en un experimento bien planificado. En muy pocas ocasiones es posible utilizar estos métodos a partir de datos disponibles o datos históricos, aunque también se puede aprender de los estudios realizados a partir de datos recogidos por observación, de forma aleatoria y no planificada. En el análisis estadístico de datos históricos se pueden cometer diferentes errores, los más comunes son los siguientes:

— Inconsistencia de los datos. Los procesos cambian con el tiempo, se producen cambios en el personal (cambios de personas, mejoras del personal por procesos de aprendizaje, motivación, ...), cambios en las máquinas (reposiciones, reparaciones, envejecimiento, ...). Estos cambios tienen influencia en los datos recogidos, lo que hace que los datos históricos sean poco fiables, sobre todo si se han recogido en un amplio espacio de tiempo.

— Variables con fuerte correlación. Puede ocurrir que en el proceso existan dos o más variables altamente correlacionadas que pueden llevar a situaciones confusas. Por ejemplo, en el proceso hay dos variables X1 y X2 fuertemente correlacionadas que influyen en la respuesta, pero si en los datos que se tiene aumenta al mismo tiempo el valor de las dos variables no es posible distinguir si la influencia es debida a una u otra o a ambas variables (confusión de los efectos). Otra situación problemática se presenta si solo se dispone de datos de una variable (por ejemplo de X1 y no de X2), lo que puede llevar a pensar que la variable influyente es la X1 cuando, en realidad, la variable influyente es la X2 (variable oculta).

— El rango de las variables controladas es limitado. Si el rango de una de las variables importantes e influyentes en el proceso es pequeño, no se puede saber su influencia fuera de ese rango y puede quedar oculta su relación con la variable de interés o lo cambios que se producen en la relación fuera del rango observado. Esto suele ocurrir cuando se utilizan los datos recogidos al trabajar el proceso en condiciones normales y no se experimenta (cambiando las condiciones de funcionamiento) para observar el comportamiento del proceso en situaciones nuevas.

2.2 Tipos de variabilidad.
Uno de los principales objetivos de los modelos estadísticos y, en particular, de los modelos de diseño de experimentos, es controlar la variabilidad de un proceso estocástico que puede tener diferente origen. De hecho, los resultados de cualquier experimento están sometidos a tres tipos de variabilidad cuyas características son las siguientes:

— Variabilidad sistemática y planificada.
Esta variabilidad viene originada por la posible dispersión de los resultados debida a diferencias sistemáticas entre las distintas condiciones experimentales impuestas en el diseño por expreso deseo del experimentador. Es el tipo de variabilidad que se intenta identificar con el diseño estadístico.
Cuando este tipo de variabilidad está presente y tiene un tamaño importante, se espera que las respuestas tiendan a agruparse formando grupos (clusters).
Es deseable que exista esta variabilidad y que sea identificada y cuantificada por el modelo.

— Variabilidad típica de la naturaleza del problema y del experimento.
Es la variabilidad debida al ruido aleatorio. Este término incluye, entre otros, a la componente de variabilidad no planificada denominada error de medida. Es una variabilidad impredecible e inevitable.
Esta variablidad es la causante de que si en un laboratorio se toman medidas repetidas de un mismo objeto ocurra que, en muchos casos, la segunda medida no sea igual a la primera y, más aún, no se puede predecir sin error el valor de la tercera. Sin embargo, bajo el aparente caos, existe un patrón regular de comportamiento en esas medidas: todas ellas tenderán a fluctuar en torno a un valor central y siguiendo un modelo de probabilidad que será importante estimar.
Esta variabilidad es inevitable pero, si el experimento ha sido bien planificado, es posible estimar (medir) su valor, lo que es de gran importancia para obtener conclusiones y poder hacer predicciones.
Es una variabilidad que va a estar siempre presente pero que es tolerable.

— Variabilidad sistemática y no planificada.
Esta variabilidad produce una variación sistemática en los resultados y es debida a causas desconocidas y no planificadas. En otras palabras, los resultados están siendo sesgados sistemáticamente por causas desconocidas. La presencia de esta variabilidad supone la principal causa de conclusiones erróneas y estudios incorrectos al ajustar un modelo estadístico.

2.3 Planificación de un experimento.
La experimentación forma parte natural de la mayoría de las investigaciones científicas e industriales, en muchas de las cuales, los resultados del proceso de interés se ven afectados por la presencia de distintos factores, cuya influencia puede estar oculta por la variabilidad de los resultados muestrales. Es fundamental conocer los factores que influyen realmente y estimar esta influencia. Para conseguir ésto es necesario experimentar, variar las condiciones que afectan a las unidades experimentales y observar la variable respuesta. Del análisis y estudio de la información recogida se obtienen las conclusiones.
La forma tradicional que se utilizaba en la experimentación, para el estudio de estos problemas, se basaba en estudiar los factores uno a uno, ésto es, variar los niveles de un factor permaneciendo fijos los demás. Esta metodología presenta grandes inconvenientes:
* Es necesario un gran número de pruebas.
* Las conclusiones obtenidas en el estudio de cada factor tiene un campo de validez muy restringido.
* No es posible estudiar la existencia de interacción entre los factores.
* Es inviable, en muchos casos, por problemas de tiempo o costo.
Las técnicas de diseño de experimentos se basan en estudiar simultaneamente los efectos de todos los factores de interés, son más eficaces y proporcionan mejores resultados con un menor coste.
A continuación se enumeran las etapas que deben seguirse para una correcta planificación de un diseño experimental, etapas que deben ser ejecutadas de forma secuencial. También se introducen algunos conceptos básicos en el estudio de los modelos de diseño de experimentos.
Las etapas a seguir en el desarrollo de un problema de diseño de experimentos son las siguientes:
1. Definir los objetivos del experimento.
2. Identificar todas las posibles fuentes de variación, incluyendo:
— factores tratamiento y sus niveles,
— unidades experimentales,
— factores nuisance (molestos): factores bloque, factores ruido y covariables.
3. Elegir una regla de asignación de las unidades experimentales a las condiciones de estudio (tratamientos).
4. Especificar las medidas con que se trabajará (la respuesta), el procedimiento experimental y anticiparse a las posibles dificultades.
5. Ejecutar un experimento piloto.
6. Especificar el modelo.
7. Esquematizar los pasos del análisis.
8. Determinar el tamaño muestral.
9. Revisar las decisiones anteriores. Modificarlas si se considera necesario.

2.4 Resumen de los principales conceptos.
En esta sección se hace un resumen de la terminología común utilizada en la teoría de los modelos de diseño de experimentos:
Unidad experimental: son los objetos, individuos, intervalos de espacio o tiempo sobre los que se experimenta.
Variable de interés o respuesta: es la variable que se desea estudiar y controlar su variabilidad.
Factor: son las variables independientes que pueden influir en la variabilidad de la variable de interés.
Factor tratamiento: es un factor del que interesa conocer su influencia en la respuesta.
Factor bloque: es un factor en el que no se está interesado en conocer su influencia en la respuesta pero se supone que ésta existe y se quiere controlar para disminuir la variabilidad residual.
Niveles: cada uno de los resultados de un factor. Según sean elegidos por el experimentador o elegidos al azar de una amplia población se denominan factores de efectos fijos o factores de efectos aleatorios.
Tratamiento: es una combinación específica de los niveles de los factores en estudio. Son, por tanto, las condiciones experimentales que se desean comparar en el experimento. En un diseño con un único factor son los distintos niveles del factor y en un diseño con varios factores son las distintas combinaciones de niveles de los factores.
Observación experimental: es cada medición de la variable respuesta.
Tamaño del Experimento: es el número total de observaciones recogidas en el diseño.
Interacción de factores: existe interacción entre dos factores FI y FJ si el efecto de algún nivel de FI cambia al cambiar de nivel en FJ. Esta definición puede hacerse de forma simétrica y se puede generalizar a interacciones de orden tres o superior.
Ortogonalidad de factores: dos factores FI y FJ con I y J niveles, respectivamente, son ortogonales si en cada nivel i de FI el número de observaciones de los J niveles de FJ están en las mismas proporciones. Esta propiedad permite separar los efectos simples de los factores en estudio.
Diseño equilibrado o balanceado: es el diseño en el que todos los tratamientos son asignados a un número igual de unidades experimentales.

2.5 Principios básicos del diseño de experimentos.
Al planificar un experimento hay tres tres principios básicos que se deben tener siempre en cuenta:
— El principio de aleatorización.
— El bloqueo.
— La factorización del diseño.
Los dos primeros (aleatorizar y bloquear) son estrategias eficientes para asignar los tratamientos a las unidades experimentales sin preocuparse de qué tratamientos considerar. Por el contrario, la factorización del diseño define una estrategia eficiente para elegir los tratamientos sin considerar en absoluto como asignarlos después a las unidades experimentales.
Aleatorizar
“Aleatorizar todos los factores no controlados por el experimentador en el diseño experimental y que puden influir en los resultados serán asignados al azar a las unidades experimentales”.
Ventajas de aleatorizar los factores no controlados:
• Transforma la variabilidad sistemática no planificada en variabilidad no planificada o ruido aleatorio. Dicho de otra forma, aleatorizar previene contra la introducción de sesgos en el experimento.
• Evita la dependencia entre observaciones al aleatorizar los instantes de recogida muestral.
• Valida muchos de los procedimientos estadísticos más comunes.
Bloquear
“Se deben dividir o particionar las unidades experimentales en grupos llamados bloques de modo que las observaciones realizadas en cada bloque se realicen bajo condiciones experimentales lo más parecidas posibles.
A diferencia de lo que ocurre con los factores tratamiento, el experimentador no está interesado en investigar las posibles diferencias de la respuesta entre los niveles de los factores bloque”.
Bloquear es una buena estrategia siempre y cuando sea posible dividir las unidades experimentales en grupos de unidades similares.
La ventaja de bloquear un factor que se supone que tienen una clara influencia en la respuesta pero en el que no se está interesado, es la siguiente:
• Convierte la variabilidad sistemática no planificada en variabilidad sistemática planificada.
Con el siguiente ejemplo se trata de indicar la diferencia entre las estrategias de aleatorizar y de bloquear en un experimento.
2.6 Algunos diseños experimentales clásicos.
Un diseño experimental es una regla que determina la asignación de las unidades experimentales a los tratamientos. Aunque los experimentos difieren unos de otros en muchos aspectos, existen diseños estándar que se utilizan con mucha frecuencia. Algunos de los más utilizados son los siguientes:
2.6.1 Diseño completamente aleatorizado.
El experimentador asigna las unidades experimentales a los tratamientos al azar. La única restricción es el número de observaciones que se toman en cada tratamiento. De hecho si ni es el número de observaciones en el i-ésimo tratamiento, i = 1,...,I, entonces, los valores n1,n2,...,nI determinan por completo las propiedades estadísticas del diseño. Naturalmente, este tipo de diseño se utiliza en experimentos que no incluyen factores bloque.
El modelo matemático de este diseño tiene la forma:

2.6.2 Diseño en bloques o con un factor bloque.
En este diseño el experimentador agrupa las unidades experimentales en bloques, a continuación determina la distribución de los tratamientos en cada bloque y, por último, asigna al azar las unidades experimentales a los tratamientos dentro de cada bloque.
En el análisis estadístico de un diseño en bloques, éstos se tratan como los niveles de un único factor de bloqueo, aunque en realidad puedan venir definidos por la combinación de niveles de más de un factor nuisance.
El modelo matemático de este diseño es:


El diseño en bloques más simple es el denominado diseño en bloques completos, en el que cada tratamiento se observa el mismo número de veces en cada bloque.
El diseño en bloques completos con una única observación por cada tratamiento se denomina diseño en bloques completamente aleatorizado o, simplemente, diseño en bloques aleatorizado.
Cuando el tamaño del bloque es inferior al número de tratamientos no es posible observar la totalidad de tratamientos en cada bloque y se habla entonces de diseño en bloques incompletos.
2.6.3 Diseños con dos o más factores bloque.
En ocasiones hay dos (o más) fuentes de variación lo suficientemente importantes como para ser designadas factores de bloqueo. En tal caso, ambos factores bloque pueden ser cruzados o anidados.
Los factores bloque están cruzados cuando existen unidades experimentales en todas las combinaciones posibles de los niveles de los factores bloques.
Diseño con factores bloque cruzados. También denominado diseño fila-columna, se caracteriza porque existen unidades experimentales en todas las celdas (intersecciones de fila y columna).
El modelo matemático de este diseño es:




Los factores bloque están anidados si cada nivel particular de uno de los factores bloque ocurre en un único nivel del otro factor bloque.
Diseño con factores bloque anidados o jerarquizados. Dos factores bloque se dicen anidados cuando observaciones pertenecientes a dos niveles distintos de un factor bloque están automáticamente en dos niveles distintos del segundo factor bloque.
En la siguiente tabla puede observarse la diferencia entre ambos tipos de bloqueo.
________________________________________
Bloques Cruzados Bloques Anidados
________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________ ________________________________________
Bloque 1 Bloque 1
1 2 3 1 2 3
1 * * * 1 *
Bloque 2 2 * * * 2 *
3 * * * 3 *
Bloque 2 4 *
5 *
6 *
7 *
8 *
9 *
Tabla 2.1: Plan esquemático de experimentos con dos factores bloque

________________________________________
2.6.4 Diseños con dos o más factores.
En algunas ocasiones se está interesado en estudiar la influencia de dos (o más) factores tratamiento, para ello se hace un diseño de filas por columnas. En este modelo es importante estudiar la posible interacción entre los dos factores. Si en cada casilla se tiene una única observación no es posible estudiar la interacción entre los dos factores, para hacerlo hay que replicar el modelo, esto es, obtener k observaciones en cada casilla, donde k es el número de réplicas.
El modelo matemático de este diseño es:

Generalizar los diseños completos a más de dos factores es relativamente sencillo desde un punto de vista matemático, pero en su aspecto práctico tiene el inconveniente de que al aumentar el número de factores aumenta muy rápidamente el número de observaciones necesario para estimar el modelo. En la práctica es muy raro utilizar diseños completos con más de factores.
Un camino alternativo es utilizar fracciones factoriales que son diseños en los que se supone que muchas de las interacciones son nulas, esto permite estudiar el efecto de un número elevado de factores con un número relativamente pequeño de pruebas. Por ejemplo, el diseño en cuadrado latino, en el que se supone que todas las interacciones son nulas, permite estudiar tres factores de k niveles con solo k2 observaciones. Si se utilizase el diseño equilibrado completo se necesitan k3 observaciones.
2.6.5 Diseños factoriales a dos niveles.
En el estudio sobre la mejora de procesos industriales (control de calidad) es usual trabajar en problemas en los que hay muchos factores que pueden influir en la variable de interés. La utilización de experimentos completos en estos problemas tiene el gran inconveniente de necesitar un número elevado de observaciones, además puede ser una estrategia ineficaz porque, por lo general, muchos de los factores en estudio no son influyentes y mucha información recogida no es relevante. En este caso una estrategia mejor es utilizar una técnica secuencial donde se comienza por trabajar con unos pocos factores y según los resultados que se obtienen se eligen los factores a estudiar en la segunda etapa.
Los diseños factoriales 2k son diseños en los que se trabaja con k factores, todos ellos con dos niveles (se suelen denotar + y -). Estos diseños son adecuados para tratar el tipo de problemas descritos porque permiten trabajar con un número elevado de factores y son válidos para estrategias secuenciales.
Si k es grande, el número de observaciones que necesita un diseño factorial 2k es muy grande (n = 2k). Por este motivo, las fracciones factoriales 2k-p son muy utilizadas, éstas son diseños con k factores a dos niveles, que mantienen la propiedad de ortogonalidad de los factores y donde se suponen nulas las interacciones de orden alto (se confunden con los efectos simples) por lo que para su estudio solo se necesitan 2k-p observaciones (cuanto mayor sea p menor número de observaciones se necesita pero mayor confusión de efectos se supone).

3 Diseños con una fuente de variación.
3.1 Introducción.
Como ya se indicó en el capítulo previo el diseño de experimentos estudia la forma de realizar comparaciones lo más homogéneas posibles que permitan detectar cambios en el proceso de interés e identificar los factores influyentes.
En este contexto el problema más sencillo que se puede presentar es el de detectar la influencia de un factor que tiene dos niveles en una variable de interés (diseño de experimentos con un factor a dos niveles). Este problema es exactamente el mismo que el problema de comparar las medias de dos poblaciones. Problema que bajo la hipótesis de normalidad de las poblaciones se resuelve por el contraste de la t. La generalización de este problema es contrastar la igualdad de las medias de los I niveles de un factor, esto es, estudiar la influencia de un factor con I niveles en la variable de interés.
Para resolver este problema se utiliza la técnica del Análisis DE la VArianza: ADEVA (en inglés, ANalysis Of VAriance: ANOVA) introducida por R. A. Fisher en los años treinta. El análisis de la varianza es la herramienta fundamental para el estudio de una variable de interés a partir de observaciones que dependen de varios factores.

3.2 Modelo matemático del diseño completamente aleatorizado.
Se denota
Yit : la variable aleatoria que representa el valor de la respuesta en la t-ésima observación del i-ésimo tratamiento. En adelante se utilizará la notación Y it para referise a la variable e yit para referirse a una observación concreta.
i: la respuesta real del i-ésimo tratamiento. Es decir, a la respuesta que se obtendría siempre con el i-ésimo tratamiento si se ejecutase el experimento en, exactamente, las mismas condiciones.
it : la variable aleatoria que representa la distancia de la t-ésima observación del i-ésimo tratamiento a su valor real. Por tanto it agrupa la contribución de las fuentes de variación menores y no planificadas. Esta variable se denomina error o error experimental.
Para cada t = 1,...,ni, i = 1,...,I, el modelo matemático del diseño es:
(3.1)

Si en este modelo se denota

se obtiene la siguiente forma alternativa del modelo
(3.2)

es una constante que representa la respuesta media de la variable Y, y i representa la variación (positiva o negativa) de la media del nivel i respecto a la media de la respuesta: i = i - . Los parámetros i se llaman efectos.
Examinar las diferencias entre niveles equivale a examinar las diferencias entre los parámetros i en el modelo (1.1 ) o entre los parámetros i en el modelo (1.2 ):

Si se utiliza el segundo modelo, se exige la condición:
(3.3)

Si hay el mismo número de datos en cada nivel , esta condición es
(3.4)

El modelo (3.1) es un modelo lineal. En su estudio se suponen las siguientes hipótesis:
1. La varianza es de la respuesta es constante (homocedasticidad),

equivalentemente, V ar = 2, j = 1,...,ni, i = 1,...,I.
2. La distribución de la respuesta es normal,

equivalentemente, ij ~ N , j = 1,...,ni, i = 1,...,I.
3. Las observaciones Y ij son independientes. Bajo las hipótesis de normalidad, esto equivale a que Cov(Y ij,Y kh) = 0, si i k o j h.
En función de los errores esta hipótesis es “los ij son independientes”, que bajo normalidad, equivale a que Cov = 0, si i k o j h.
En resumen,

El siguiente ejemplo ayuda a entender el modelo de diseño de experimentos completamente aleatorizado.
Ejemplo 3.1.
“Una empresa desea estudiar la productividad media por hora en el montaje de un mecanismo electrónico en las tres fábricas que tiene: FA, FB y FC. Para ello se ha tomado una muestra de la productividad por hora en cada fábrica. La recogida de datos se ha aleatorizado y nada presupone que existan factores con influencia en los resultados obtenidos.” (Este ejemplo se desarrolla en la sección 3.6.)

3.3 Estimación de los parámetros.
En el modelo matemático (3.1) hay I + 1 parámetros a estimar:

Análogamente, en el modelo (3.2) hay I + 1 parámetros a estimar:

el parámetro I se deduce de la condición (3.3).
Los parámetros del modelo se estiman por el método de máxima-verosimilitud que bajo la hipótesis de normalidad es equivalente a obtenerlos por el método de mínimos cuadrados.
3.3.1 Estimadores por máxima-verosimilitud.
De la hipótesis de normalidad se sigue que
i,j
La función de verosimilitud es

Tomando logaritmos neperianos se obtiene la función soporte

para obtener el máximo de la función L se deriva la misma respecto a i y 2 y se iguala a cero, de donde se obtienen ecuaciones, cuya resolución proporciona los siguientes estimadores:
(3.5)

(3.6)

donde si2 es la varianza de los resultados del nivel i,

En la práctica el estimador MV 2 no se suele utilizar porque es sesgado


3.3.2 Estimadores por mínimo-cuadráticos.
Un método alternativo de estimación de los parámetros es el método de estimación mínimo cuadrática, que consiste en seleccionar como estimadores los valores de los parámetros que minimizan la suma de los cuadrados de los errores. Esto es, se trata de seleccionar valores 1,..., I que minimicen la siguiente función de I variables:

por tanto se quiere calcular 1,..., I tales que


El problema de minimización anterior conduce a un sistema de I ecuaciones (denominadas ecuaciones normales) cuyas soluciones únicas son para cada i = + i,
(3.7)

Por tanto, los estimadores que se utilizarán son los siguientes
(3.8)

Si se utiliza el modelo (3.2), los estimadores son
(3.9)

(3.10)

La bondad de los estimadores mínimo-cuadráticos la establece un resultado clave en los problemas de modelización lineal estadística, el Teorema de Gauss-Markov, según el cual,
“Para todo modelo lineal con errores normales, independientes y varianza común 2, los estimadores mínimo-cuadráticos son únicos, insesgados y de varianza mínima”.
En base a las hipótesis del modelo es fácil deducir que la distribución de los estimadores dados (3.8) es la siguiente
(3.11)

3.3.3 Estimación puntual de la varianza.
En cualquier modelo estadístico, se denomina residuo a la diferencia entre un valor observado y el valor previsto por el modelo. Esto es,
(3.12)

En el modelo actual, para todo j = 1,...,ni e i = 1,...,I se tiene:
(3.13)

con i los estimadores mínimo-cuadráticos dados (3.8).
En el modelo de diseño de experimentos completamente aleatorizado hay n = i = 1Ini residuos eij. Existen las siguientes I relaciones entre ellos

Por ello se dice que los residuos del modelo tienen n - I grados de libertad.
A partir de los residuos se obtiene la suma de residuos al cuadrado, suma de cuadrados residual o variabilidad no explicada (scR), dada por
(3.14)

El valor concreto scR es una realización particular de la variable aleatoria SCR (el resultado que se obtiene a partir de la muestra seleccionada)
El valor concreto scR es una realización particular de la variable aleatoria SCR. Esta variable es,

Un sencillo cálculo algebraico permite obtener la relación:

con i2 la varianza muestral corregida del i-ésimo tratamiento,


Como i2 es un estimador insesgado de la varianza del error 2, el valor esperado de SCR es:

Por tanto, un estimador insesgado de 2 es:
(3.15)

que se denomina, indistintamente, varianza residual o error cuadrático medio o varianza dentro de los tratamientos.
De las hipótesis del modelo se deduce que
(3.16)

Intervalos de confianza para los parámetros del modelo.
A partir de la distribución dada en (3.16) se puede calcular un intervalo de confianza al (1 - ) para la varianza 2 del modelo. Este intervalo viene dado por:
(3.17)

donde n-I2 es un número que verifica que P = , siendo una variable aleatoria con distribución chi-cuadrado con n - I grados de libertad.
El intervalo dado en (3.17 ) no es simétrico. En algunos casos también se utiliza el siguiente intervalo de confianza

Los intervalos de confianza de i se obtienen a partir de la distribución dada en (3.11 ). Dado que se desconoce el parámetro 2, de (3.11 ) y (3.16 ) se deduce que
(3.18)

Que permite calcular el siguiente intervalo de confianza simétrico de i al (1 - )
(3.19)

donde tn-I es un número que verifica que P = , siendo una variable aleatoria con distribución t con n - I grados de libertad.

3.4 Análisis de la varianza de una vía.
3.4.1 Idea general.
El problema básico es contrastar la hipótesis nula de que el factor no influye en la variable de interés,

o equivalentemente

frente a la alternativa de que el factor si influye. Esto es, existen diferencias entre los valores medios de los distintos tratamientos,

La idea básica del test análisis de la varianza es comparar:
* la suma de cuadrados residual bajo el modelo matemático cuando H1 es cierto, (modelo completo),
* con la suma de cuadrados residual del modelo que resulta cuando H0 es cierto (modelo reducido).
Es decir:

Si H0 es cierto, el único parámetro de medias es que se estima por

Por tanto, la suma de cuadrados residual del modelo reducido (H0) es:

Se verifica que
Si H0 es falsa y al menos dos efectos tratamiento difieren, la suma de cuadrados residual scR bajo el modelo completo es considerablemente más pequeña que la suma de cuadrados residual del modelo reducido scR0. Por el contrario, si H0 es cierta ambas serán muy similares.


La cantidad

se denomina indistintamente variabilidad explicada o suma de cuadrados entre tratamientos o suma de cuadrados explicada (por diferencias entre tratamientos).
El valor scT es grande si se rechaza H0, pero no se puede utilizar como medida de discrepancia del contraste porque es dimensionada (tiene las unidades de Y ). Por ello se utiliza como estadístico del contraste el cociente entre scT y scR.
Si scT es grande en relación a scR se rechaza H0.

3.4.2 Descomposición de la variabilidad.
Teniendo en cuenta que:

elevando al cuadrado se obtiene


este resultado es debido a que se anulan los dobles productos que aparecen al elevar al cuadrado. Los grados de libertad de estos términos son:
• n - 1 es el número de grados de libertad de scG, porque hay n observaciones relacionadas por la ecuación i = 1I j = 1ni = 0.

• I - 1 es el número de grados de libertad de scT, porque hay I efectos de los tratamientos relacionados por la ecuación i = 1Ini = i = 1Ini i = 0.

• n - I es el número de grados de libertad de scR, porque hay n residuos relacionados por las ecuaciones
i = 1I j = 1ni = i = 1I j = 1nieij = 0, i = 1,...,I.
Dividiendo las sumas de cuadrados por los correspondientes grados de libertad se obtienen tres estimaciones distintas de 2:

Si H0 (las medias son iguales) es cierta, se verifica que


Por tanto,
(3.20)

Utilizando (3.20), como estadístico del contraste puede utilizarse

Se rechaza H0 al nivel de significación si

Comentarios.
1. Si el test F resulta significativo (se rechaza H0, por tanto, el factor es influyente) se deberá estudiar entre qué tratamientos existen diferencias significativas.
2. Una medida relativa de la variabilidad explicada por el factor es el coeficiente de determinación, definido como
(3.21)

3. Si de desea aumentar la precisión del contraste, puede hacerse de dos formas:
a. Reducir 2 (el error experimental) introduciendo nuevos factores.
b. Aumentar el tamaño muestral en cada grupo.
4. En algunos textos se utiliza la siguiente notación: scG = V T (Variabilidad Total), scT = V E (Variabilidad Explicada), scR = V NE (Variabilidad No Explicada).
5. En general, sea cierta o no la hipótesis nula, se verifica que

siendo
(3.22)


CUADRO DEL ANÁLISIS DE LA VARIANZA
— UNA VÍA – FACTOR FIJO –

Fuente de
Variación
Suma de
Cuadrados
g.l.
scm

E(SCM)

Tratamientos scT =
i = 1I ni 2
I - 1 scmT =

2 + Q( i)
Residual scR =
i = 1I j = 1nieit2
n - I scmR =


Global scG =
i = 1I j = 1ni 2
n - 1

Rechazar H0 : i = j i,j en base al p-valor
Coeficiente de Determinación: R2 =
Cuadro 1.1: Cuadro del análisis de la varianza para un diseño completamente aleatorizado de efectos fijos.

3.5 Inferencia de los parámetros del modelo.
3.5.1 Intervalos de confianza de los parámetros.
3.5.2 Concepto de contraste.
3.5.3 Contrastes múltiples.
3.6 Análisis de un caso de diseño con un factor fijo
3.7 Efectos aleatorios.
3.7.1 El modelo matemático de un factor aleatorio.
3.7.2 Contraste de varianza nula de los efectos tratamiento.
3.7.3 Análisis de un caso de diseño con un factor aleatorio.
4 Chequeo del modelo de diseño de experimentos con un factor.
4.1 Hipótesis básicas del modelo.
4.2 Bondad del ajuste del modelo.
4.3 Normalidad de los errores.
4.3.1 Gráficos de normalidad
4.3.2 Contrastes de bondad de ajuste
4.4 Homocedasticidad de los errores.
4.5 La familia de transformaciones de Box-Cox.
4.6 Homogeneidad de los errores. Datos atípicos.
4.7 Independencia de los errores.
4.7.1 Gráficos para detectar dependencia.
4.7.2 Contrastes para detectar dependencias.
4.8 Contraste de Kruskal-Wallis. Alternativa no paramétrica al Anova.
5 Diseño de experimentos clásicos
5.1 Concepto de bloque.
5.2 Diseño en bloques completamente aleatorizados.
5.2.1 Modelo matemático.
5.2.2 Estimación de los parámetros.
5.2.3 Análisis de la varianza.
5.2.4 Análisis de residuos.
5.2.5 Análisis de un caso
5.3 La interacción entre factores.
5.4 Modelos de dos factores-tratamiento.
5.4.1 Modelo matemático.
5.4.2 Estimación de los parámetros.
5.4.3 Descomposición de la variabilidad
5.4.4 Análisis de un caso
5.5 Diseño factorial con tres factores.
5.6 Fracciones factoriales. El cuadrado latino.
5.6.1 El modelo de cuadrado latino.
5.6.2 Análisis de un caso.

Teoría de Regresión Lineal

6 El modelo de regresión lineal simple.
6.1 Introducción a los modelos de regresión. Objetivos.
6.2 Clasificación de los modelos de regresión.
6.3 El modelo de regresión lineal simple.
6.3.1 Formulación matemática del modelo.
6.3.2 Estimación de los parámetros del modelo.
6.3.3 Propiedades de los estimadores.
6.4 Interpretación geométrica del modelo.
6.5 contrastes sobre os parámetros del modelo.
6.6 Tabla ANOVA. El contraste de regresión.
6.7 El contraste de linealidad.
6.8 Coeficiente de determinación. Coeficiente de correlación.
6.9 Predicción en regresión lineal simple.
6.9.1 Estimación de las medias condicionadas.
6.9.2 Predicción de una observación.
6.10 Modelo de regresión lineal con regresor estocástico.
6.11 Análisis de un caso de un modelo de regresión lineal simple.

7 Chequeo del modelo de regresión lineal simple. Análisis de residuos.
7.1 Problemas en el ajuste de un modelo de regresión lineal simple.
7.2 La hipótesis de linealidad. Transformaciones
7.3 Análisisi de residuos.Gráficos.
7.3.1 Residuos. Tipos
7.3.2.Gráficos de residuos.
7.4 Observaciones influyentes
7.5 Las hipótesis básicas del modelo
7.5.1 La hipótesis de normalidad.
7.5.2 La hipótesis de homocedasticidad

8 Modelo de regresión lineal múltiple.
8.1 Regresión Lineal General: el modelo matemático
8.2 Estimación de los parámetros del modelo.
8.3 Interpretación geométrica.
8.4 Propiedades de los estimadores.
8.4.1 Estimador de los coeficientes del modelo lineal
8.4.2 El estimador de la varianza.
8.4.3 Inferencia sobre los coeficientes del modelo
8.4.4 Teorema de Gauss-Markov.
8.5 El Análisis de la Varianza.
8.5.1 Tabla ANOVA. El contraste conjunto de la F.
8.5.2 Contrastes individuales de la F.
8.6 Correlación.
8.6.1 Coeficiente de correlación múltiple.
8.6.2 Correlación Parcial
8.7 Predicción en el Modelo de Regresión Lineal Múltiple.
8.7.1 Estimación de las medias condicionadas.
8.7.2 Predicción de una observación.
8.8 Análisis de un caso de un modelo de regresión lineal múltiple.

9 Chequeo del modelo de regresión lineal múltiple.
9.1 Problemas en el ajuste de un modelo de regresión lineal múltiple.
9.2 Multicolinealidad.
9.3 Análisis de residuos. Gráficos.
9.4 Hipótesis básicas del modelo
9.4.1 Hipótesis de normalidad.
9.4.2 Hipótesis de homocedasticidad.
9.4.3 Hipótesis de independencia.
9.5 Análisis de influencia.
9.5.1 Influencia a priori. Valor de influencia.
9.5.2 Influencia a posteriori.
9.6 Error de especificación.
9.7 Selección de variables regresoras.
9.8 Criterios para la elección de un modelo de regresión.
10 Otros modelos de regresión .
10.1 Estimación por mínimos cuadrados generalizados.
10.2 Estimación robusta.


10.3 Estimación polinómica.
10.4 Regresión con variables regresoras cualitativas.
10.5 Regresión con variable respuesta binaria.
10.6 Regresión contraída (ridge regression)
10.7 Regresión no lineal

No hay comentarios:

Publicar un comentario