Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Universidad Autonoma "Gabriel Rene Moreno" Facultad de Ciencias de La Salud Unidad de Postgrado
Universidad Autonoma "Gabriel Rene Moreno" Facultad de Ciencias de La Salud Unidad de Postgrado
El hecho de buscar explicaciones, relaciones de causalidad que existen entre los fenómenos en la
naturaleza, en muchos casos es difícil lograrlo si no se está en condiciones que pueden ser
controladas por el investigador. Lo anterior conlleva a tratar de simular el fenómeno en
condiciones adecuadas, lo cual se logra mediante la EXPERIMENTACIÓN.
Existen diferentes tipos de investigaciones que pueden generar conocimientos ya sean éstas
básicas, aplicadas o bien de innovación tecnológica; independientemente del conocimiento
que genere una investigación o del problema que ésta resuelva, ésta tiene que someterse
a una valoración científica. Para esto la estadística ofrece herramientas como los DISEÑOS
EXPERIMENTALES de los cuales el investigador se va l e pa ra de most rar sus
c onj et ura s, ace pt a r o no una hipótesis, comparar resultados, emitir conclusiones etc.,
acerca del problema o fenómeno en estudio.
"Las teorías basadas en ideologías carecen de experimentación, y por ello, no son ciencia, lo que
no se demuestra con experimento es política. Lo que se demuestra con experimentación, es
ciencia” (Robert Laughlin, Premio Nobel de Física 1998).
Atributos
Supóngase el siguiente ejemplo. Se tiene en un aula de clase un grupo de 20 estudiantes y
suponga además, que el estudiante de la primera fila es alto, color de piel blanca, cabello
castaño, ojos claros, etc. Si a los 20 estudiantes se les considera como una población, se puede
decir que los detalles antes mencionados corresponden a características propias de un
miembro de esa población, o sea, son atribuciones propias del estudiante en particular.
Con el ejemplo antes citado, se puede tratar de deducir un concepto de Atributo, diciendo que
es una característica propia de cada elemento de una población.
Variable
Nombre
Cuando un investigador toma los datos correspondiente a una variable, éste tiene que saber el
nombre de la variable, de lo contrario cómo va a tomar información de una variable si no sabe
el nombre de ésta. En si el nombre está referido a cómo se conoce o se nombra la variable en
el campo del conocimiento que corresponde.
ESCALAS DE MEDICIÓN
Medir una variable significa constatar la observación en los elementos de la población que es
objeto de estudio, es decir, consiste en verificar que valor toma la variable en la unidad de
análisis. Lo anterior implica que para medir una variable, ésta tiene que ser observable en el
mundo real, manteniendo el principio fundamental de la construcción de una variable que
consiste en que sus categorías deben de ser totalmente inclusivas y mutuamente excluyentes.
En Estadística se definen cuatro niveles o escalas de medición las cuales son:
a.- Escala Nominal: En esta escala lo único que puede decirse de una observación es a cuál
de un cierto número de categorías pertenece.
En esta escala de medición la única relación que puede establecerse entre observaciones es la
de igualdad y por lo tanto de desigualdad. Dos observaciones son iguales si están en la misma
categoría (llamadas también clases) y diferente si no lo están. Como consecuencia de lo
anterior, la única estadística válida para este tipo de datos es la frecuencia de cada clase.
Ejemplo, supóngase que en grupo de personas se desea medir el estado de salud con respecto a
una enfermedad en particular. En este caso la constatación de la variable (medición) en los
miembros de la población debe de concluir en que están o no afectados por la enfermedad.
b.- Escala Ordinal: Las observaciones medidas en esta escala pueden ordenarse de menor a
mayor, y en consecuencia no sólo se admiten las relación de igualdad, sino además la de
Por: Ing. M.Sc. Francisco Martínez Solaris
Mgs. En Educación Superior
mayor qué y menor que. Muchos de los estudios realizados en las Ciencias Sociales producen
observaciones que son medidas bajo esta escala, por lo difícil que es medir actitudes en los
seres humanos.
En esta escala además de calcularse frecuencias como en la escala nominal, se puede calcular
una medida de tendencia central llamada Mediana.
Un ejemplo clásico de esta escala es la jerarquización que existe en la iglesia y el ejército.
Coronel > Teniente > Subteniente > Sargento > Cabo > Soldado
c.- Escala de Intervalo: Con observaciones en esta escala no sólo se pueden ordenarse las
observaciones, sino que además puede definirse una unidad de distancia (puede ser arbitraria)
entre ellas. La principal diferencia de esta escala con la de Proporciones es que en la escala de
Intervalo el cero y la unidad de distancia son arbitrarios y, en particular, el cero no
corresponde a una característica física de las unidades de medidas. Un ejemplo clásico en esta
escala es la medición de la temperatura.
Dado que los requisitos indispensables para efectuar sumas y productos son que existan ceros
y una unidad de distancia, con las observaciones medidas bajo esta escala puede calcularse
medidas de tendencia central como la media y de dispersión como la varianza. Por tal razón
esta escala es más fuerte que la Nominal.
b.- Escala de Proporción o Razón: En esta escala las observaciones pueden ordenarse y
existen un cero y una unidad de distancia que son inherentes al sistema, es decir, que no son
arbitrarios. Ejemplos típicos de características medidas en esta escala el peso de un individuo,
el rendimiento por hectárea de una planta, etc. Esta es la escala de medición más fuerte que
existe y por lo tanto permite el cálculo de cualquier estadística.
ORGANIZACIÓN DE LA INFORMACIÓN
“i” se llama índice de suma y es una variable que toma los valores 1, 2, 3, ..., n.
La expresión i=1 indica en este caso que 1 es el valor inicial de i (no siempre el valor inicial
comienza de 1).
La n arriba del signo, indica el último valor de i.
A xi se le llama sumando
Propiedades de la sumatoria
Sean x1, x2,..., xn y y1, y2,..., yn dos conjuntos de datos, y “a” y “b” dos constantes
arbitrarias. Entonces:
1.
2. ( )
La demostración de cada una de estas propiedades se deja como práctica para el estudiante.
Una forma sencilla de arreglar estos datos es presentarlos en orden ascendente o descendente.
Si se arreglan de manera ascendente quedarían de la siguiente forma:
Este arreglo de datos ofrece varias ventajas sobre los datos originales o sin arreglar:
Se pueden localizar rápidamente los valores mínimos y máximos en los datos. En el
ejemplo, el valor mínimo es 15.2 y 16.9 el máximo.
Los datos se pueden dividir en secciones (clases)
Fácilmente se puede apreciar que valores se repiten más de una vez.
xi fi fr xi fi fr
15.2 1 3.33 16.1 1 3.33
15.4 1 3.33 16.2 2 6.67
15.6 3 10.00 16.3 3 10.00
15.7 2 6.67 16.4 2 6.67
15.8 3 10.00 16.6 1 3.33
15.9 4 13.33 16.8 2 6.67
16.0 4 13.33 16.9 1 3.33
Total 18 60.00 Total 12 40.00
Hay autores que consideran la siguiente forma de presentación de cuadros de frecuencia donde
incluyen elementos que son propios de las Tablas de Frecuencias Absolutas y Relativas. Esto
se muestra a continuación:
Veamos un ejemplo:
Medimos la altura de los niños de una clase con instrumental de precisión y en condiciones
adecuadas, escogiendo a todos sus componentes, 30 sujetos, y obtenemos los siguientes
resultados (m):
Puesto que todas las tallas están comprendidas entre 1.20 y 1.30 m., podemos agruparlas por
centímetros formando 11 grupos indicando cuántos niños presentan cada uno de los valores. Si
presentamos esta información estructurada (agrupada) en un cuadro de frecuencias
obtendríamos la siguiente:
Frecuencias
Observación
fi Fia fr (%) Fra
1.20 1 1 3.33 3.33
1.21 4 5 13.33 16.66
1.22 4 9 13.33 30.00
1.23 2 11 6.67 36.66
1.24 1 12 3.33 40.00
1.25 2 14 6.67 46.66
1.26 3 17 10.00 56.66
1.27 3 20 10.00 66.66
1.28 4 24 13.33 80.00
1.29 3 27 10.00 90.00
1.30 3 30 10.00 100.00
Total 30 100
Si los valores que toma la variable son muy diversos y cada uno de ellos se repite muy pocas
veces, entonces conviene agruparlos por intervalos mayores. ya que de otra manera
obtendríamos una tabla de frecuencia muy extensa que aportaría muy poco valor a efectos de
síntesis.
Supongamos que ahora medimos la estatura de los habitantes de una vivienda (también 30
personas) y obtenemos los siguientes resultados (m):
Para el caso de variables cuantitativas discretas, los intervalos de clases son cerrados por
ambos lados.
Para efecto de este texto se desarrollarán los principales como son el Diagrama de Puntos
por su relación con el Diagrama de dispersión, Histograma de frecuencia, Polígono de
frecuencia, Ojiva y Diagrama de sectores.
Diagrama de Puntos
Histograma
Se llama Histograma a la gráfica de barras verticales sin espaciamiento entre ellas, construida
colocando en el eje vertical a las frecuencias absolutas ó relativas y el eje horizontal a los
límites de clase de una tabla de frecuencias. Lo anterior implica que si los intervalos de clases
son iguales, sobre cada clase se erigen rectángulos cuyas áreas son proporcionales a las
frecuencias de clase. Las etapas que se deben de cubrir en la construcción de un histograma
son:
Colocar en el eje horizontal los límites de clases
Colocar en el eje vertical las frecuencias relativas o absolutas.
Erigir rectángulos cuya base son las clases y su altura las frecuencias que corresponde
a cada clase
Para ejemplificar este método gráfico se tomará a la tabla de frecuencia absoluta y
relativa y las frecuencias absolutas asociada a cada clase.
Intervalos de clases
En este caso, dado que se utilizó la frecuencia absoluta para construir el histograma entonces
el histograma toma el nombre de Histograma de Frecuencias Absolutas.
Polígono de Frecuencia
Un polígono de frecuencia es una gráfica de líneas rectas que unen los puntos obtenidos al
colocar en el eje horizontal a los valores medios (puntos medios) de clases y en el eje vertical
a las frecuencias absolutas o relativas. Esto equivale a unir los puntos medios de la cara
superior de los rectángulos de un histograma por medio de líneas rectas.
Para cerrar el polígono se adiciona una clase tanto inferior como superior para que el polígono
cierre.
9
Frecuencias absolutas
8
7
6
5
4
3
2
1
0
Una Ojiva o Polígono de Frecuencia Acumulada es una gráfica construida con segmentos de
líneas rectas que unen los puntos obtenidos al colocar en el eje horizontal a los límites
superiores de clase y en el vertical a las frecuencias acumuladas absolutas o relativas.
Al inicio en el eje horizontal se coloca el límite inferior de la primera clase y se le asigna una
frecuencia acumulada de cero. Asimismo, por su naturaleza una ojiva es no decreciente.
Retomando como ejemplo la misma tabla de frecuencia absoluta y relativa, se tomarán las
frecuencias absolutas acumuladas por la izquierda o “menor que” de ésta.
Este tipo de gráfico se utiliza para representar datos cualitativos y cuantitativos discretos. Su
uso más frecuente es con el propósito de comparar ya sea las categorías que toma una variable
cualitativa o los valores discretos de una variable cuantitativa respecto al total.
Para construir este gráfico se utiliza una circunferencia, la cual se divide en sectores de tal
manera que sus medidas angulares centrales y, por ende la superficie del sector circular sean
proporcionales a las magnitudes de los valores de la variable que se trata de representar.
Por: Ing. M.Sc. Francisco Martínez Solaris
Mgs. En Educación Superior
Al total de las frecuencias (∑fi = n) le corresponde el círculo completo, es decir, los 360 0 de la
circunferencia y por regla de tres simple se determina el número de grados que le corresponde
a cada categoría o valor discreto en particular.
Ejemplo:
Los datos que se muestran a continuación corresponden a la distribución de los docentes de
una universidad en particular, respecto al lugar de realización de estudios de diplomados.
(19 x 3600)
= = 49.9 = 50
137
De la manera que quedaría de la siguiente forma una vez que se hayan realizado las
operaciones correspondientes:
Universidad
de Interés
63%
Ejemplo:
Por: Ing. M.Sc. Francisco Martínez Solaris
Mgs. En Educación Superior
Sean los siguientes datos x1=2, x2=12, x3=9, x4=10, x5=7. La media aritmética de estos datos
es:
En una clase se tienen fi observaciones (frecuencia absoluta), las cuales pueden tener
cualquier valor entre el límite superior e inferior de esa clase. Para calcular de una manera
aproximada la media, se supone que las observaciones se encuentran uniformemente
distribuidas en el intervalo y, por lo tanto, el valor medio de clase (Punto medio de clase o
Marca de Clase) es un valor representativo de esa clase.
Esta expresión representaría la suma aproximada de las observaciones; por lo tanto, la media
aritmética se estimaría de la siguiente manera:
Ejemplo:
Para ejemplificar la media aritmética para datos tabulados se retomará la tabla de frecuencias
absolutas y relativas que se ha expuesto anteriormente, la cual corresponde a la estatura de 30
personas. Se pide estimar la estatura promedio de estas personas.
Es importante ver que lo que se ha solicitado es una estimación de la estatura y no una
determinación ya que en datos lo único que se puede hacer es una estimación ya que la
determinación se la realiza en los datos originales.
Retomando la ecuación de estimación de la media aritmética se tiene lo siguiente:
Intervalos de Clase PMC fi PMC*fi
0.98 a 1.15 1.065 2 2.13
1.15 a 1.32 1.235 5 6.175
1.32 a 1.49 1.405 8 11.24
1.49 a 1.66 1.575 7 11.025
1.66 a 1.83 1.745 4 6.98
1.83 a 2.00 1.915 4 7.66
Total 45.21
Promedio 45.21/30 = 1.507
La media aritmética tiene muchas propiedades sin embargo, solo se expondrá una por la
relevancia que tiene a nivel de inferencia y es la siguiente:
La suma algebraica de las desviaciones de un conjunto de números respecto a su media
aritmética es cero, es decir: ( ) . Esta es la razón por la cual le media se
la interpreta como el punto de equilibrio de una colección de datos numérica y además,
es por ello que en Estadística se le conoce como “el primer momento”.
Mediana
Es el valor de la serie de datos que se sitúa justamente en el centro de la muestra (un 50% de
valores son inferiores y otro 50% son superiores).
No presentan el problema de estar influido por los valores extremos, pero en cambio no utiliza
en su cálculo toda la información de la serie de datos (no pondera cada valor por el número de
veces que se ha repetido).
La mediana (Me) de un conjunto de “n” números, ordenados de menor a mayor, es el número
central en el arreglo. Si n es un número non, sólo hay un valor central. Si n es un número par,
hay dos valores centrales, y la mediana debe tomarse como la media de estos dos valores.
Ejemplo...
1.- Sean la siguiente colección de datos: 27, 3.4, 3.2, 3.3, 3.1
El primer paso para determinar la Mediana en datos sin tabular es ordenar los datos en orden
ascendente o descendente de tal forma que:
3.1, 3.2, 3.3, 3.4, 27. Dado que n es un número non o impar (n=5), entonces sólo hay un valor
central (3.3) y éste es el valor de la mediana.
Me = 3.3
2.- Calcular la mediana para los siguientes datos y ordenados:
151, 152, 153, 158, 162, 167, 167, 167, 168, 173
En este caso n es par (n=10), por lo que hay dos valores centrales, que son 162 y 167.
Entonces partiendo del concepto de Mediana, la Me es la media aritmética de estos dos
valores ya que antes y después de ella, no existe más del 50% de los datos.
Cuando los datos son simétricos entre la mediana y la media aritmética no hay mucha
diferencia; sin embargo, para datos no simétricos es mejor medida de tendencia central la
mediana que la media.
Cálculo de la Mediana en datos tabulados
Cuando los datos están agrupados en clases, es decir, cuando existe una tabla de distribución
de frecuencias, para estimar la mediana se utiliza la siguiente ecuación:
( )( )
Donde:
Me = Mediana
a = Límite inferior de la clase de la Mediana
b = Límite superior de la clase de la Mediana
c = Frecuencia relativa acumulada una clase antes de la clase de la Mediana
d = Frecuencia relativa de la clase de la Mediana
Como se puede observar todos los insumos requeridos para la determinación de la Me, están
en la misma tabla.
Como se ha verificado anteriormente, la mediana es aquella medida de tendencia central que
antes y después de ella no existe más del 50% de la información, es decir, parte en dos la base
de datos. A partir de esto es que se propuso partir la base de datos en cuatro partes y se le
llamó cuartiles, luego en 10 parte y se les llamó deciles y luego en 100 partes y se les llamó
percentiles. A todo esto se llaman Fractiles, los cuales no se desarrollan en el presente
documento pero si se recomienda revisar cualquiera de la obras citadas al final de este
documento para verificar esta información.
Moda
La Moda (Mo) de un conjunto de datos es la observación o valor (si existe) que ocurre con
mayor frecuencia. Si es un valor único se dice que la distribución de frecuencias es unimodal.
( )
( ) ( )
Donde:
Mo = Moda
Licm = Límite inferior de la clase modal
Acm = Amplitud de clase de la clase modal
ficm =Frecuencia absoluta de la clase modal
ficprem = Frecuencia absoluta de la clase postmodal
ficpostm = Frecuencia absoluta de la clase postmodal
Ejemplo:
En este caso la clase modal sería aquella que tiene mayor frecuencia absoluta, esta es:
( )
( ) ( )
MEDIDAS DE DISPERSION
Estas son las medidas que miden como se dispersan los datos, generalmente alrededor de una
medida de tendencia central. Entre éstas se pueden mencionar las siguientes:
Rango o Amplitud
Desviación Media y Mediana
Varianza y Desviación Típica
Dispersión Relativa
Generalmente las más utilizadas son: Varianza, Desviación típica y Dispersión relativa o
Coeficiente de Variación y una que en los métodos tabulares ya se ha utilizado como es el
Rango.
Rango
La Amplitud, Rango o Recorrido de un conjunto de datos es la diferencia entre las
observaciones de mayor y menor valor numérico en el mismo.
R = Valor máximo - Valor mínimo
Varianza
La varianza retoma un nombre de acuerdo a dónde se determina. Si la determinación es en una
población se la llama Varianza Poblacional (σ²) y si es en una muestra se le llama Varianza
Muestral (s²).
La Varianza Población o Variancia de una población finita de N elementos x1, x2, x3, ...xn; se
define como la media aritmética del cuadrado de las desviaciones de las observaciones
respecto a su media μ; y se determina a través de la siguiente ecuación para varianza
poblacional:
( )
En caso de que sea muestral y para datos no organizados en una tabla de frecuencia absoluta y
relativa, se determina de la siguiente forma:
( )
( )
Existe una fórmula de trabajo mucho más rápido para determinar la varianza muestral para
datos no tabulados que resulta de desarrollar en trinomio cuadrado perfecto de la ecuación.
Esta fórmula es:
( )
Ejemplo:
( )
(37.6)²
47.1558 -
S² = 30
30-1
S² = 0.00105 m²
Dado que se determina o se estima la varianza se eleva al cuadrado las unidades originales de
medición razón por la cual no se debe comparar con la media aritmética ya que ésta es medida
en unidades lineales. Por esta razón, es que se propone una nueva medida de dispersión
llamada Desviación Típica.
Desviación Típica
No es más que la raíz cuadrada positiva de la varianza. En este sentido se puede hablar
entonces desviación típica poblacional y muestral, entonces:
σ = √σ²
Por: Ing. M.Sc. Francisco Martínez Solaris
Mgs. En Educación Superior
S = √S²
Para el caso del ejemplo anterior, S = √0.00105 = 0.0324 m
Este dato indica que los datos se dispersan en promedio 0.0324 m del promedio de la variable
Estatura.
Coeficiente de Variación
Todas las medidas de dispersión antes descritas son medidas de variación absoluta. Una
medida de la dispersión relativa de los datos, que toma en cuenta su magnitud, está dada por el
Coeficiente de Variación.
Coeficiente de Variación (C.V): Es una medida de dispersión relativa de un conjunto de
datos, que se obtiene dividiendo la desviación estándar del conjunto datos entre su media
aritmética.
Cuando se multiplica por 100 se expresa en porcentaje indicando tanto por uno que se alejan
los datos de su media aritmética.
( )
( )
(45.21)²
69.9 -
S² = 30
30-1
S² = 0.0609
S = 0.0780
45.21/30 = 1.507
( )
Una curva unimodal se puede deformar de dos maneras, respecto a un eje horizontal o bien
respecto a un eje vertical.
Cuando se trata de una deformación horizontal se habla de Asimetría y cuando se habla de
deformación vertical se habla de Curtosis.
Asimetría es el grado de deformación horizontal que presente una curva unimodal respecto al
eje horizontal. De acuerdo a ello se puede tener lo siguiente:
Asimetría Positiva: Se dice que una distribución de frecuencia unimodal presenta asimetría
positiva o a la derecha, si tiene una ramificación más extendida hacia la derecha o hacia los
valores grandes de una variable. Esto indica que la variable tiende a tomar valores mayores
que su promedio y la relación que se establece entre las principales medidas de tendencia
central es la siguiente:
Asimetría Negativa: Una distribución unimodal tiene asimetría negativa o hacia la izquierda,
si tiene una ramificación más extendida hacia la izquierda indicando con ello que la variable
tiende a tomar valores inferiores a su promedio. En este caso, la relación que se establece
entre las principales medidas de tendencia central es la siguiente:
La siguiente gráfica resume la asimetría negativa y positiva
Coeficiente de Asimetría
La medida más usada para cuantificar la asimetría de la distribución de frecuencias de una
variable X, recibe el nombre de coeficiente de asimetría y que desde el punto de vista de
momento (tercer momento) tiene por ecuación:
La ecuación antes expuesta es para datos sin organizar o datos no tabulados. Aquí se puede
observar que si existen observaciones muy grandes en relación a la media, el coeficiente de
asimetría tendrá un valor positivo. Si existen observaciones muy pequeñas (menor que la
media), el coeficiente de asimetría será negativo y, finalmente, si las observaciones están
simétricamente distribuidas alrededor de la media, el coeficiente de asimetría tendrá el valor
de cero.
Ejemplo.
Sea los siguientes datos:
6.2, 7.9, 8.1, 8.5, 8.5, 8.9, 9.1, 10.8
Determine el CAs.
̅ = 8.5
s = 1.29
= 2.1388
=0
Por lo tanto se puede decir que la distribución es simétrica, en este caso el promedio, la
mediana y la moda coinciden en el mismo valor, lo cual puede ser verificado.
Ejemplo:
En caso que los datos estén tabulados (organizados) y si la tabla no presente clases abiertas se
puede estimar Curtosis desde el punto de vista de momento a través de la siguiente ecuación:
( ̅)
El coeficiente de Curtosis puede tomar uno de los siguientes valores, indicando con el tipo de
deformación vertical de la curva unimodal. Estos son:
Kur > 3: Este valor indica que la distribución es más apuntada que la normal y recibe el
nombre de Leptocúrtica
Kur = 3: En este caso la distribución es moderadamente apuntada y se llama Mesocúrtica (o
apuntamiento normal)
Kur < 3: Este indica que la distribución es menos apuntada que la normal, o sea achatada y se
llama Platicúrtica
Los experimentos aleatorios pueden ser simples o compuestos. Experimentos aleatorios simples
son los que se han ejemplificado anteriormente.
Un experimento aleatorio compuesto consiste en dos o más experimentos simples que puede
ocurrir de forma sucesiva o bien de forma simultánea.
M3
M1*M2
M2 C S
M1 C S CC CCC CCS
C CC CS CS CSC CSS
S SC SS SC SCC SCS
SS SSC SSS
Otro ejemplo podría ser el experimento aleatorio compuesto consistente en el lanzamiento de una
moneda y un dado al mismo tiempo.
M2
M1 1 2 3 4 5 6
C (C,1) (C,2) (C,3) (C,4) (C,5) (C,6)
S (S,1) (S,2) (S,3) (S,4) (S,5) (S,6)
En muchos casos un diagrama, conocido con el nombre de Diagrama del Árbol, es más sugerente
para la determinar el espacio muestral de un experimento aleatorio compuesto.
Ejemplo... Determine el espacio muestra M del experimento aleatorio compuesto consistente en
el lanzamiento de tres monedas al mismo tiempo
(2n) = 24 = 16
Dado que ya se ha identificado el espacio muestral como conjunto universal, los eventos como
subconjunto del espacio muestral, se identificará también el conjunto vacío () de la teoría de
conjunto como el evento imposible, esto es, un evento que no se da o sea que no ocurre. Por
ejemplo, lanzar dos dados simultáneamente, y sea el evento A: "obtener suma de 14". De hecho
esto nunca va a suceder A = {}.
Sub-evento: Dados dos eventos, A y B se dice que A está contenido en B o que A es sub-evento
de B, si todo suceso favorable a A, es favorable a B. En otras palabras, si ocurre el evento A,
ocurre el evento B. Esto es: A B, si wi A w B
B M
A B
Igualdad de Eventos: Se dice que dos eventos A y B son iguales si, AB y BA. Esto es: A =
B = AB y BA.
Unión de Eventos: Dados dos eventos A y B, se llama unión de A con B y se denota por AB
al evento formado por los sucesos que pertenecen a A ó a B ó, a ambos, es decir:
AB = {wiM /wiA v wiB}.
A B M
AB
Intersección: Dados los eventos A y B, se llama intersección de A con B, al evento formado por
todos los sucesos favorables a A y a B. Es decir, ambos eventos A y B ocurren. Esto es:
AB = {w M / wA w B}.
A B M
AB
c
A
A
Ac
Enfoques de Probabilidades
Definir probabilidad estrictamente es un poco inadecuado. La formulación axiomática de la
teoría de probabilidades requiere niveles de abstracción y competencia matemática fuertes. Sin
embargo, hay autores que plantean enfoques a través de los cuales se puede abordar las
probabilidades. Estos enfoques son:
1. Enfoque o Probabilidad Clásica (llamada también de Laplace o Apriori)
2. Enfoque desde el punto de vista de frecuencia relativa (llamada también A posteriori).
3. Probabilidad subjetiva
Enfoque Clásico o A priori: Llamado también Este definición se basa en el supuesto de que
todos los resultados posibles de un experimento aleatorio son igualmente probable, es decir, cada
suceso de un espacio muestral M, tienen la misma posibilidad de ocurrir.
Según Laplace (1812) la probabilidad de un evento es la razón entre el número de casos
(sucesos) favorables y el número total de casos (sucesos) posibles, siempre que nada obligue
a creer que alguno de estos sucesos deban de tener preferencia a los demás, lo que hace que
todos sean iguales. Esto es:
Ejemplo..... Si se lanza una moneda tres veces. Calcular la probabilidad que ocurran:
a.- Dos caras
b.- Al menos dos caras
c.- A lo más dos caras
El espacio muestral de este experimento lo puede obtener a través de producto cartesiano o bien
a través del diagrama del árbol. Determinando el espacio muestral:
M = {CCC, CCS, CSC, CSS, SCC, SCS, SSC, SSS}
a.- A = {CCS, CSC, SCC} P[A] = 3/8
b.- B = {CCC, CCS, CSC, SCC} P[B] = 4/8 = 1/2
c.- C = {CCS, CSC, CSS, SCC, SCS, SSC, SSS} P[C] = 7/8
Ejemplo
Considérese el lanzamiento de dos dados. Calcular la probabilidad de:
a.- Obtener suma 7
b.- Obtener suma 6
c.- Obtener suma mayor que 5
d.- Que el resultado del primer dado sea mayor que el resultado del segundo dado.
A = {(w1,w2) M / w1 + w2 = 7}
Por: Ing. M.Sc. Francisco Martínez Solaris
Mgs. En Educación Superior
B = {(wi,w2) M / w1 + w2 = 6}
C = {(w1,w2) M / w1 + w2 > 5}
D = {w1,w2) M / w1 > w2}]
Determinando el espacio muestral a través del producto cartesiano de los dos espacios
muestrales simples de los experimentos que conforman este experimento compuesto se tendría lo
siguiente:
M2
M1 1 2 3 4 5 6
1 (1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
2 (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
3 (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
4 (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
5 (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
6 (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
Probabilidad desde el punto de vista subjetivo está relacionada con una presunción,
creencia o como algunos autores le llaman corazonada, por lo tanto, puede variar de una
persona a otra.
Dado un experimento determinado, la probabilidad de un evento A es el grado de creencia
asignado a la ocurrencia de este evento por un individuo particular, basado en toda la
evidencia a su disposición con las siguientes exigencias:
1.- P[A] = 0, representa la certeza que el evento A, no ocurrirá
2.- P[A] = 1, representa la certeza que el evento A, sí ocurrirá
Como se puede observar se está totalizando tanto por filas como por columnas, es decir, de
acuerdo a los dos criterios de clasificación de la información. A esto se le llama
probabilidades marginales y a la información del interior del cuadro se le llama
probabilidad conjunta de los dos eventos (criterios de clasificación). Resolviendo el
problema se tiene:
a. Si el trabajador seleccionado es soltero, ¿cuál es la probabilidad que sea mujer?.
En este caso el evento condicionante es que el trabajador sea soltero y el evento
dependiente es que sea mujer.
Los problemas de probabilidad de eventos dependientes se pueden resolver de dos manera:
respecto al espacio muestral original y respecto al espacio muestral restringido del evento
que condiciona. Para el primer caso:
( ⁄ )
Para el segundo caso, es decir, respecto al espacio muestral restringido del evento
condiciónate se tendría que ver cuántas veces se repite el evento trabajador de sexo
femenino y cuántas veces se repite el evento trabajador soltero. De acuerdo a esto se tiene
que:
( ⁄ ) =
( ⁄ ) =
[ ] [ ] [ ]
Independencia de Sucesos
En probabilidad condicional la ocurrencia de un evento condiciona la probabilidad de un
segundo evento. Sin embargo, hay muchos casos donde los eventos están totalmente sin
conexión, y la ocurrencia de uno de ellos no cambia la probabilidad de ocurrencia del otro,
en este caso se dice que son independientes.
Sean A y B dos eventos y sea P [B] 0., A y B son eventos independientes si:
a.- P[A/B] = P[A]
Como consecuencia, si A y B son independientes y
P [A/B] = P[AB]/P[B] = P[A] P[AB] = P[A]P[B] y viceversa
Dos eventos A y B son independientes si se cumple cualquiera de las siguientes
condiciones:
.- P[A/B] = P[A] .- P[B/A] = P[B] .- P[AB] = P[A].P[B]
Ejemplo...
Un impulso eléctrico debe de pasar del punto I al II para producir una señal. Para llegar al
punto II debe de pasar por dos componentes electrónicos (E1 y E2). La trayectoria del
impulso se interrumpe si falla cualquiera de los dos componentes. La probabilidad de que el
componente E1 no falle es 0.7 y la probabilidad que el componente E2 no falle es 0.8.
Además, la probabilidad de que al menos uno no falle es 0.94. ¿Cuál es la probabilidad de
que la señal se produzca?
A = Componente E1 no falle = P[A] = 0.7
B = Componente E2 no falle = P[B] = 0.8
P [AUB] = 0.94
Para que se produzca el impulso eléctrico, ninguno de los componentes (E1 y E2) deben de
fallar la probabilidad solicitada es P[AB].
P[AUB] = P[A] + P[B] - P[AB]
P [AB] = P[A] + P[B] - P[AUB]
Probabilidad Total
Sean A1, A2,..., Ak, eventos que forman una partición del espacio muestral y Sea B un
evento en el espacio muestral. Si P[A1], P[A2],..., P[Ak], P[B/A1], P[B/A2],..., P[B/Ak]
son probabilidades conocidas y se está interesado en la ocurrencia del evento B. Para
obtener esta probabilidad se hace uso del Teorema de Probabilidad Total que partiendo de
las premisas anteriores se enuncia de la siguiente manera:
∑ * ⁄ +
[ ⁄ ] [ ⁄ ] * ⁄ +
Ejemplo:
Un profesor tiene tres secretarias con diferentes niveles de competencia. Las secretarias son
S1, S2, S3. La secretaria S1 ha escrito el 20% de un trabajo, la secretaria S2 el 40% y la
secretaria S3 el 40%. Hay un error ortográfico que irrita en especial al profesor, y éste ha
calculado que S1 lo comete el 90% de las veces que tiene que escribir la palabra en
cuestión, que S2 lo comete el 40% de las veces, y S3 nunca.
¿Cuál es la probabilidad de que el profesor encuentre el error mencionado?
Obteniendo la información que proporciona el problema se tiene:
P [S1] = 0.20; P [S2] = 0.40; P [S3] = 0.40; P [ ⁄ P [ ⁄ P
P [S1] = 0.20
P [E’/S1] = 0.10
P [E/S2] = 0.60
P [S2] = 0.40
P [E’/S2] = 0.40
P [E/S3] = 0
P [S3] = 0.40
P [E’/S2] = 1
Supóngase ahora que el evento “B” ya ha ocurrido y se está interesado en saber a cuáles de
los eventos que forman la partición del espacio muestra se ha debido su ocurrencia. En este
caso se hace uso del Teorema de Bayes que partiendo también de las premisas anteriores se
enuncia de la siguiente forma:
* ⁄ +
* ⁄ +
* ⁄ +
[ ⁄ ] ( )
[ ⁄ ]
[ ⁄ ] ( )
[ ⁄ ]
Puede ser que se tenga una relación positiva entre las variables X y Y, esto quiere decir que
a medida que aumenta X, Y también aumenta.
Otra situación que se puede dar es una relación inversa, es decir, que a medida que aumenta
X, Y disminuye.
En el último caso se recurre al hecho de que regresión también se entiende como la
tangente inversa del ángulo de inclinación de una recta. En los dos primeros casos las rectas
tienen pendiente y en el tercer caso, no hay pendiente lo cual indica que no existe regresión
lineal entre ambas variables.
Supuesto 3. Homogeneidad de varianza
Esta suposición es muy importante en el análisis de regresión. La varianza de la
distribuciones de "Y" son idénticas para todos los valores de "X". En otras palabras, se
supone que σ²y/x1 = σ²y/x2 = σ²y/xn = σ², donde σ² es la varianza común (desconocida) para
todas las distribuciones de "Y", independientemente del valor de "X". Esto quiere decir,
que la media de "Y" se modifica con el valor de "X", pero la varianza se mantiene
constante.
Supuesto 4. Independencia
Los valores de "Y" deberán ser estadísticamente independiente. Un ejemplo donde se viola
este supuesto es cuando se realizan mediciones de peso a un mismo individuo en un lapso
menor a una hora.
Supuesto 5. Normalidad
La distribución de "Y" para cualquier valor de "X" es normal. Esto equivale a suponer que
la variable aleatoria no observable ε es normal y su media es cero ya que "X" se toma
como variable no aleatoria susceptible a ser manipulada por el investigador.
Todos los supuestos anteriores se pueden resumir en los siguientes:
1. "Y" es una variable aleatoria cuya distribución probabilística depende del valor de "X".
Diagrama de Dispersión
Este diagrama tiene por objetivo dar una idea de la posible relación existente entre la
variable dependiente Y y la independiente X.
Para realizar un diagrama de dispersión se coloca en el eje de las abscisas los valores
correspondiente a la variable independiente X y en el eje de las ordenadas los valores de la
variable dependiente Y. Luego se colocan puntos en la intersección de los valores de ambas
variables. Un ejemplo de lo anterior se muestra en seguida.
Los datos que se muestran a continuación corresponden a la producción en miles de
millones de dólares de 10 empresas y sus costos de producción de las mismas en miles de
millones de dólares.
Para construir un diagrama de dispersión lo primero que se tiene que hacer es determinar
quién es la variable dependiente y quién es la variable independiente, es decir, establecer la
relación entre dichas variables. Esta relación debe ser lo más natural posible.
14
Costo (Miles de millones $us)
12
10
0
0 5 10 15 20 25 30 35 40
Producción (Miles de Millones $us)
̂ ̂ ̅ . Donde:
̂ Coeficiente de Regresión
̂ Intercepto de la recta de estimación
Ejemplo:
Retomando los datos que se utilizaron para construir el diagrama de dispersión y aclarando
que “X” es Producción (miles de millones de $us) y “Y” Costos (miles de millones de $us)
y haciendo uso de las ecuaciones derivadas a través de la técnica de mínimos cuadrados se
tiene lo siguiente:
X Y XY X2 Y2
10 3 30 100 9
18 5 90 324 25
12 4 48 144 16
16 5 80 256 25
22 8 176 484 64
36 12 432 1296 144
30 10 300 900 100
32 14 448 1024 196
26 12 312 676 144
12 3 36 144 9
Totales 214 76 1952 5348 732
Promedio 21.4 7.6
⌈ ( ) ⌉
⌈ ⌉
⌈ ⌉
( ) ( )
⌈ √( )( )⌉
⌈ ⌉
2
Para el caso del ejemplo anterior el R es el siguiente:
⌈ ( ) ⌉
⌈ ⌉
⌈ ⌉
( ) ( )
⌈ √( )( )⌉
⌈ ⌉
̂ (∑ )
La cuarta columna es para los Cuadrados Medios (CM) que viene a ser las estimaciones
propiamente dichas de las varianza de cada una de las fuentes de variación. Estas resultan
de dividir las sumas de cuadrados de éstas entre sus grados de libertad.
La quinta columna denominada como “Fc” se refiere a los “F” calculados que resultan de
dividir el cuadrado medio de regresión entre el cuadrado medio del error, es decir, de la
variabilidad no debida a la regresión. Es por ello que el error se considera como un término
de comparación entre la variabilidad debida a regresión y el mismo. Si el cuadrado medio
del error es mayor que el cuadrado medio de regresión, el resultado que se obtendrá será
pequeño y posiblemente menor que el valor de la siguiente columna “Ft” o “F” de tabla,
valor que se extrae de una tabla de “F” con un nivel de significancia, grados de libertad de
regresión y los grados de libertad del error.
Para entender mejor lo anterior se debe de partir del juego de hipótesis que se prueba en un
ANARE. Este es:
Ho: β1 = 0
Ha: β1 0
La hipótesis nula (Ho) asume el efecto de igual o nulidad de efecto y es la hipótesis que se
somete a prueba. Partiendo del hecho de que asume el efecto de nulidad, en este caso indica
que no existe regresión lineal simple, y asume que la relación entre X y Y es una línea recta
sin pendiente, es por ello que es igual a cero.
Por hipótesis alternativa se entiende aquella que contradice a la hipótesis nula y que es
aceptada una vez que se rechaza la hipótesis nula. Es por ello que está como β1 0 ya que
una igualdad se contradice con una desigualdad. Esto significa que la recta tiene pendiente,
es decir, que existe regresión lineal simple.
( )
FV gl SC CM Fc Ft
Regresión 1 137.6897 137.6897 67.0389 11.26
Error 8 16.4310 2.053875
Total 9 154.4
De los resultados de la tabla se puede observar que el “Fc” es mayor que el “Ft” lo cual
indica que existe suficiente evidencia para rechazar la hipótesis nula, es decir, que existe
regresión lineal simple y por lo tanto se dice que la ecuación estimada sirve para predecir el
comportamiento de Costos (Y) a través del conocimiento de Producción (X).
10
0
0 5 10 15 20 25 30 35 40
Producción (miles de millones de $us)
Regresión no Lineal
Regresión Múltiple
No siempre la dependencia en caso de existir se pueda deber a una sola variable, puede ser
que “Y” como variable dependiente se vea afectada por más de una variable independiente,
en este caso se habla de regresión lineal múltiple, aspecto que no se desarrolla en este
documento.
⌈ ⌉= 0.9452
( ) ( )
√( )( )
Este valor indica que existe una asociación fuerte y positiva entre estas variables, es decir,
entre la producción y los costos de esas empresas.
Este diseño es el más simple de todos; en él se asigna al azar los tratamientos a grupos de
unidades experimentales previamente determinadas. Asimismo, todas las variables, excepto
las que están en estudio se mantienen constantes.
2.1. ¿Cuándo utilizar este Diseño?
Este diseño se utiliza cuando las unidades experimentales son homogéneas, o sea, que la
única diferencia que existe son los tratamientos que se aplican a las unidades
experimentales. Este diseño se usa cuando se estudia dos o más tratamientos bajo las
siguientes condiciones:
Lugar y unidades experimentales muy uniformes (suelo homogéneo, en
laboratorios, invernaderos, galpones, etc.), donde no hay heterogeneidad necesaria
de absorber.
Cuando sea probable que una parte del experimento se pierda.
Cuando se tiene un experimento pequeño y donde la mayor precisión de otras
distribuciones no compensan la pérdida de grados de libertad en el error.
Este tipo de diseño proporciona el máximo número de grados de libertad para la estimación
del error experimental; además, no requiere estimar datos faltantes, es decir, puede
analizarse con diferente número de repeticiones por tratamiento (diseño desbalanceado).
Donde:
Yij = Variable Respuesta
μ = Efecto común a todas las observaciones
Ti = Efecto del i-ésimo tratamiento, i = 1, 2, 3.., t tratamientos
Eij = Erro experimental o error del modelo
2.3. Supuesto del Análisis de Varianza
Todos los análisis estadísticos se basan en supuestos y en caso del análisis de varianza son:
Homogeneidad de Varianza, Normalidad, Aditividad y Linealidad del Modelo, e
Independencia.
2.3.1. Homogeneidad de Varianza:
Las varianzas de las diferentes medías deben ser homogéneas. Por lo general, en el análisis
de varianza, se utiliza un promedio de “n” varianza (CME) para obtener la mejor
estimación de la varianza común. Pero, si las varianzas dentro de los tratamientos fuesen de
hecho distintas, no se tendría justificación para combinarlas, ya que el promediar varianzas
de tratamientos mayores y menores podría proporcionar resultados engañosos. La
diferencia entre dos tratamientos con varianzas grandes puede ser considerada significativa
cuando en realidad ésta puede haber ocurrido por casualidad. Por otra parte, la diferencia
entre dos tratamientos con varianzas pequeñas puede ser declarada no significativa cuando
en verdad lo es.
Cuadro 1. Concentración de los datos para un Diseño Completamente al Azar con “i”
tratamiento y “j” repeticiones.
REPETICIONES
TRATAMIENTOS ΣYi.
1 2 3 …j
1 Y11 Y12 Y13 Y1j Y1.
2 Y21 Y22 Y23 Y2j Y2.
3 Y31 Y32 Y33 Y3j Y3.
…i Yi1 Yi2 Yi3 Yij Yi.
ΣY.j Y.1 Y.2 Y.3 Y.j Y..
El modelo lineal para este diseño tiene solo dos fuentes de variación y es el siguiente:
Las fuentes de variación son las debidas a los tratamientos y las no debidas a
los tratamientos. La media poblacional µ no se considera como fuente de
variación ya que se considera como el efecto común a todas las observaciones
y es por eso que cuando se calcula las sumas de cuadrados se le resta el factor
de corrección que no es más que la media o efecto común de manera que solo
F.V gl SC CM Fc Ft
Tratamiento t-1 SCTRAT. ( )
Donde:
F.V = Fuente de variación
gl = Grados de libertad
SC = Suma de Cuadrados
CM = Cuadrado Medio
Fc = “F” calculado
Ft (, grados de libertad de tratamientos, grados de libertad del error) = “F” tabulado que
se encuentra en la tabla de “F” a un nivel de significancia “” (probabilidad de error tipo I),
grados de libertad de los tratamientos y grados de libertad del error
En caso de que los tratamientos tengan diferentes número de repeticiones (diseño
desbalanceado) la salida de varianza es la siguiente:
FV gl SC CM Fc Ft
Tratamiento t-1 SCTRAT. ( )
La hipótesis nula asume el efecto de igual, es decir, que los tratamiento ejercen el mismo
efecto sobre la variable respuesta. Esta es la hipótesis que se somete a prueba y, la hipótesis
alternativa, en su esencia, es la que contradice a la hipótesis nula.
Dado que la hipótesis nula es la que se somete a prueba, entonces puede ser aceptada o
rechazada, si no es rechazada significa que no existe la suficiente evidencia experimental para
hacerlo, en caso de rechazarse, de inmediato se acepta la hipótesis alternativa. Para saber
cuándo aceptar o rechazar la hipótesis nula se toma en cuenta la siguiente regla de decisión:
igualdad de varianza lo cual indica que las varianzas de los tratamientos (variedades) son
iguales estadísticamente.
( )
se tiene lo siguiente:
es por ello que µ no se declara como fuente de variación en la salida de varianza de los
modelos aditivos lineales, además se debe recordar que varianza desde el punto de variable
aleatoria es: E(X-µ)² que es lo mismos que: E(X) ² - µ².
( )
( )
Es importante recordar que ninguna de estas sumas de cuadrados puede ser negativas por
ser componentes de varianza y recuerde que varianza no es más que el promedio de las
desviaciones al cuadrado de una variable respecto a su media y por otra parte, ninguna
suma de cuadrados puede ser mayor que la suma de cuadrados totales.
Además se puede observar que la Suma de Cuadrados del Error se obtiene por diferencia
entre la Suma de Cuadrados Totales y la de Tratamiento. Esto es producto de la aplicación
misma de lo que es análisis de varianza.
Una vez obtenidas las sumas de cuadrados correspondientes, el siguiente paso es construir
la tabla de análisis de varianza (salida de varianza) la cual queda como se muestra en el
Cuadro 6 una vez que se han determinado los cuadrados medios, el “Fc” F calculado y el
“Ft” F de tabla. Además, es recomendable que esta tabla vaya acompañada del Coeficiente
de Variación (C.V) el cual se define como la relación entre la raíz cuadrada del Cuadrado
Medio del Error y el Promedio de la Variable respuesta o en estudio.
√
( )
√
( )
√ , donde:
Donde:
Es el valor extraído de una tabla especial de rango “estudentizado”, con los grados de
libertad del error y con la disposición relativa de las medias en el arreglo.
CMError = Cuadrado Medio del Error
r = Número de repeticiones.
√ ;
Donde:
q = Valor obtenido de tablas especiales de rango “estudentizado”, para los grados de
libertad del error y con la disposición relativa de las medias en el arreglo
CMError = Cuadrado medio del error
r = número de repeticiones
Donde:
q = Valor obtenido de tablas especiales de rango “estudentizados”, para los grados de
libertad del error y con la disposición relativa de las medias en el arreglo
CMError = Cuadrado medio del error
r = número de repeticiones
√( ) ( )
Donde:
t = Número de tratamientos
F = Valor que se obtiene de la distribución de “F” de Snedecor con t-1 y los grados de
libertad del error.
se muestran en el Cuadro 9.
Cuadro 9. Valores estudentizado extraído de la tabla de Duncan y valores críticos de
la prueba según el número de medias a comparar.
Número de Medias
Medias a comparar
2 3 4 5
R(0.05, 16) 3 3.15 3.23 3.3
RMS 119.50 125.48 128.66 131.45
Aquí se puede ver el efecto secuencial de Duncan ya que utiliza un comparador distinto
según el número de medias a comparar.
Los resultados de aplicar la prueba son los siguientes:
Cuadro 10. Contrastación de las diferencias entre medias adyacentes con los valores
críticos de Duncan.
Como se puede observar, en este caso los resultados obtenidos son un poco diferentes a los
obtenidos con DMS, en este caso, Estela ejerce el mismo comportamiento que Topacio,
por lo demás, la interpretación es la misma.
Aplicando la prueba de SNK:
Al igual que la prueba de Duncan, SNK es una prueba secuencial lo que indica que utiliza
un valor diferente para cada comparación de acuerdo al número de medias a comparar. Los
Los resultados al aplicar la prueba de rangos múltiples de SNK se resumen en el Cuadro 12.
Cuadro 12. Resultados de la comparación de medias según el método de SNK.
Estela Topacio Martí UC - 82 VF-134 Valores
Variedades/Promedios Críticos
887.50 760.80 676.88 611.65 610.55 de SNK
Estela 887.50 0 126.70 ns 210.63* 275.85* 276.95* 172.48
Topacio 760.80 0 83.93 ns 149.15 ns 150.25 ns 161.33
Martí 676.88 0 65.23 ns 66.33 ns 145.39
UC - 82 611.65 0 1.10 ns 119.50
VF-134 610.55 0
ns = No significativo * = significativo
La prueba de Scheffé al igual que Tukey no es una prueba secuencial por lo tanto solo
utiliza un valor de “F” de Snedecor que se extrae un nivel de significancia “”, para el caso
del ejemplo = 0.05, con los grado de libertad de tratamientos y los del error experimental,
que son los mismos del ANDEVA. Aplicando la ecuación de Scheffé,
Cuadro 14 siguiente:
F(0.05, 4, 16) =
Cuadro 15. Resumen de los resultados obtenidos al aplicar las pruebas de rangos
múltiples de DMS, Duncan, SNK, Tukey y Scheffé.
Prueba de Rangos Múltiples
Variedades
DMS Duncan SNK Tukey Scheffé
Estela a a a a a
Topacio b ab ab ab ab
Martí bc bc b b b
UC - 82 c c b b b
VF-134 c c b b b
Promedios con literales distintas son estadísticamente diferentes (P ˂ 0.05).
Según Martínez Garza (1994) el método de Scheffé es más riguroso para detectar
diferencias significativas y esto se demuestra con los resultados expuestos en el Cuadro 15,
(aunque en este caso coincide tanto con SNK y Tukey debido al número de medias que se
compararon, es decir, que si hubieran sido más medias estos resultados probablemente
serían distintos) es por ello que se recomienda usarlo a un = 0.1. Por otra parte se ha
podido observar que tanto SNK como Tukey tiende a no detectar diferencias estadística
donde DMS y Duncan lo han hecho con diferencias mayores.
Una discusión más fundamentada sobre las separaciones de medias puede encontrarse en
Steel y Torrie (1992) en su obra “Bioestadística: Principios y Procedimientos pero sí se
puede deducir que para experimentos en fases exploratorias es recomendable usar pruebas
que no sean tan rigurosas como es DMS, Duncan e inclusive SNK, sin embargo, si este no
es el caso y los promedios no han sido corregidos por efecto de covariable, es
recomendable Tukey y si se requiere una prueba más rigurosa sin importar si el
experimento es balanceado o no, si los promedios ha sido corregido o no por covariable, es
recomendable usar Scheffé.
Donde:
Yij = Variable respuesta
= Efecto común a todas las observaciones
Bj = Efecto de la j-ésima repetición; j = 1, 2, 3,...r repeticiones
Ti = Efecto del j-ésimo tratamiento; i = 1, 2, 3, …i, tratamiento
Eij = Error experimental
BLOQUES
TRATAMIENTOS ΣYi.
1 2 3 …j
1 Y11 Y12 Y13 Y1j Y1.
2 Y21 Y22 Y23 Y2j Y2.
3 Y31 Y32 Y33 Y3j Y3.
…i Yi1 Yi2 Yi3 Yij Yi.
ΣY.j Y.1 Y.2 Y.3 Y.j Y..
En este diseño se prueban dos juegos de hipótesis uno para bloques y otros para
tratamientos. Estas hipótesis son las siguientes:
Para tratamiento
Ho: µ1 - µ2 - µ3 -… µi = 0 (T1 - T2 - T3 - …Ti = 0)
Para Bloques
Ho: Bµ1 - Bµ2 - Bµ3 -… Bµj = 0 (B1 - B2 - B3 - …Bj = 0)
Las ecuaciones de trabajo para realizar el análisis de varianza de este diseño son las
; Factor de Corrección
( )
Ejemplo:
Se llevó a cabo un experimento bajo un arreglo en bloques completamente al azar donde se
probaron el efecto siete tratamientos en el rendimiento (tn/ha) de una variedad de caña de
azúcar. Realice el análisis de varianza correspondiente a un = 0.05 con la siguiente
información:
Cuadro 18. Rendimiento (tn/ha) en una variedad de caña de azúcar sometida al efecto
de siete tratamientos.
Tratamientos I II III ƩYi.
1 63.08 51.99 43.43 158.5
2 44.38 49.77 40.29 134.44
3 58.65 52.31 41.84 152.8
4 52.31 59.28 46.28 157.87
5 52.31 53.89 47.55 153.75
6 49.45 32.65 34.55 116.65
7 50.72 57.06 42.80 150.58
ƩY.j 370.9 356.95 296.74 1024.59
Adaptado de Guzmán (2009)
( )
Interpretación de Resultados
Es necesario recalcar que en un diseño de bloques completamente al azar la variable que se
está bloqueando no es de interés estudiar, en este caso, se está interesado en el efecto que
ejercen los tratamientos en el rendimiento de la variedad de caña de azúcar.
Cuando se establece un diseño en bloques completamente al azar, es necesario estar seguro
que en verdad el factor de estorbo existe, caso contrario se pierde grados de libertad en el
error, lo cual hace que las diferencias dentro de los tratamientos (error experimental) sean
mayores con las consecuencias que corresponden ya que se aumenta en el cuadrado medio
del error.
Para el caso del ejemplo, se puede verificar en la salida de varianza que existe diferencias
significativas (P 0.05) en bloques lo cual indica, que el investigador tenía razón en
realizar el bloqueo en el sentido que lo hizo, no hay más interpretación que se le pueda dar,
excepto cuando este bloqueo tiene o representa características de interés que se pueden
utilizar en subsiguientes investigaciones.
Por otra parte, este mismo análisis indica que los tratamientos estudiados ejercieron el
mismo efecto (P > 0.05) en el comportamiento de la variable respuesta, en este caso, el
rendimiento, es decir que no existen elementos de convicción para decir lo contrario. Si se
observa esta conclusión está basada en la prueba de hipótesis correspondiente a los
tratamientos y dado que se rechazó la hipótesis nula en el análisis de varianza, entonces se
está interpretando lo que significa la hipótesis alternativa.
Dado que el análisis de varianza no reportó diferencias significativas para tratamientos, no
Los tratamientos están entre las hileras y las columnas bajo las características que se han
mencionado anteriormente, es por ello que hay que hacer un resumen de los tratamientos en
otro cuadrado como se muestra a continuación.
Cuadro 21. Resumen de la información de los tratamientos extraído de un diseño
Cuadrado Latino.
Repeticiones
Tratamiento ΣYi.
R1 R2 R3 … Rj
T1 Y11 Y12 Y13 Y1j Y1.
T2 Y21 Y22 Y23 Y2j Y2.
T3 Y31 Y32 Y33 Y3j Y3.
… Tk Yi1 Yi2 Yi3 Yij Y..k
Y..1 Y..2 Y..3 Y..j Y…
Las ecuaciones de trabajo para el análisis de varianza de este diseño son las siguientes:
( )
( )
Ejemplo:
Cuadro 23. Efecto de cuatro fármacos en los días para una curar una enfermedad en
pacientes de cuatro grupos etáreos y cuatro tipos de peso.
Grupo Etáreo
Peso
E1 E2 E3 E4
P1 10.0 F1 9.5 F2 7.0 F4 11.5 F3
P2 8.0 F2 10.0 F1 8.5 F3 9.0 F4
P3 7.0 F3 6.5 F4 7.0 F1 8.0 F2
P4 6.0 F4 5.0 F3 6.0 F2 9.0 F1
Lo primero que se debe hacer es resumir la información para columnas, hileras tratamiento.
La de hileras y columnas sería la siguiente:
Fármaco
1 2 3 4 ΣY..k
(Tratamiento)
F1 10.0 10.0 7.0 9.0 36.0
F2 8.0 9.5 6.0 8.0 31.5
F3 7.0 5.0 8.5 11.5 32.0
F4 6.0 6.5 7.0 9.0 28.5
Con esta información se puede realizar el análisis de varianza
( )
∑ ( )
( )
∑
( )
∑
( )
∑
( )
( )
Factor B
Factor A
b1 b2 b3 b4
a1 a1b1 a1b2 a1b3 a1b4
a2 a2b1 a2b2 a2b3 a2b4
a3 a3b1 a3b2 a3b3 a3b4
( )
( )
( )
( )
( )
La salida de varianza de acuerdo al modelo aditivo lineal sería la que se muestra en el
Cuadro 28.
En este caso se adicionaría una hipótesis más que sería la de bloque y si hubiera un rechazo
de Ho, la interpretación sería la misma que se ha mencionado anteriormente.
Ejemplo
Un médico está interesado en determinar si tanto el estado nutricional como la edad (grupo
etáreo) de la madre tiene efecto sobre el peso del recién nacido. Los estados nutricionales
de su interés fueron: Normal, Sobrepeso y Obesa, y los grupos etáreos fueron: menores a 15
años, 15 a 18 años, 19 a 30 años y mayores a 30 años. Seleccionó de forma aleatoria cuatro
madres para cada combinación de los niveles de los dos factores, estado nutricional y grupo
b. Juego de Hipótesis
Como existen dos factores y sus interacciones, las hipótesis son las siguientes:
Para el factor Estado Nutricional:
Ho: µNormal- µSobre peso- µObesa = 0
Ha: µNormal- µSobre peso- µObesa 0
Para el factor Grupo Etáreo:
Ho: µmenores de 15 - µ15 a 18 - µ19 a 30 - µmayores 30 años = 0
Ha: µmenores de 15 - µ15 a 18 - µ19 a 30 - µmayores 30 años 0
Para las interacciones:
Ho: µa1b1 - µa1b2 - µa1b3 - µa1b4 - … µa3b4 = 0
Ha: µa1b1 - µa1b2 - µa1b3 - µa1b4 - … µa3b4 0
c. Análisis de varianza
( )
( )
( ) ( )
( )
( )
( )
( )
( )
( )
( )
Con estos cálculos se construye la salida o tabla de varianza como se muestra en el Cuadro
33.
Cuadro 33. Salida de varianza para el diseño bifactorial en un DCA del ejemplo.
F.V gl SC CM Fc Ft (0.01)
Estado Nutricional 2 1373750 686875 8.3609467 5.248
Grupo Etáreo 3 5510625 1836875 22.359256 4.377
Interacción 6 1196250 199375 2.4268808 3.351
Error 36 2957500 82152.778
Total 47 11038125
De acuerdo a los resultados del análisis de varianza se puede concluir con 99% de
confiabilidad que el peso de los recién nacidos se ve afectado por el Estado Nutricional y
por el Grupo Etáreo de las madres, es decir, que ejercen efectos significativos (P < 0.01) en
el peso de los recién nacidos, no así las interacciones de los niveles estudiados ya que ésta
resultó ser no significativa. Esto indica que los factores estudiados ejercen efectos aditivos
o bien que actúan de forma independiente en la variable respuesta.
d. Separación de media de Tukey al 99% de confiabilidad
Cuando se dan este tipo de resultados hay que determinar el nivel o niveles de cada factor
que provocaron el rechazo de la hipótesis nula en el análisis de varianza. Para ello hay que
hacer los ajustes necesarios como se muestra en el Cuadro 34.
A ΣYi.. √
B ΣY.j. √
AB ΣYij. √
√ √
Ordenando los promedios de los niveles del factor Estado Nutricional y estableciendo las
comparaciones correspondiente se tiene lo siguiente:
En este caso se puede decir que de los niveles del factor Estado Nutricional, solo el nivel
Obesa ejerció un efecto distinto (P <0.01) en el peso de los recién nacidos.
Los ajustes para los niveles del factor Grupo Etáreo son los siguientes:
√ √
Ordenando los promedios de los niveles del factor Grupo Etáreo y estableciendo las
comparaciones correspondiente se tiene lo siguiente:
Comparaciones Diferencias
Mayor a 30 - 19 a 30 25 ns
Mayor a 30 - 15 a 18 125 ns
Mayor a 30 - Menor a 15 825*
19 a 30 - 15 a 18 100 ns
19 a 30 - Menor a 15 800 *
15 a 18 - Menor a 15 700 *
De acuerdo a los resultados de Tukey se puede concluir que de los niveles del factor Grupo
Etáreo, solamente uno de éstos ejerció un efecto distinto en el peso de los recién nacidos
como las madres menores de 15 años.