Está en la página 1de 16

FINAL BIOESTADISTICA

● Da sentido a la información numérica, masa de datos cualitativos o cuantitativos que resumen


comportamientos de una situación o variable.
● Se desarrolla bajo incertidumbre, ayuda a tomar decisiones en estas situaciones.

● Efectúa pronósticos.

● Analiza relaciones entre variables.

FENÓNEMOS: hechos con los que trabaja la estadística.

● Determinísticos o causales: siguen una relación causa / efecto que es inmutable, siempre se va
a dar de la misma forma.
● Aleatorios: sujetos al azar, bajo situaciones idénticas pueden obtenerse comportamientos
diferentes.
DATOS ESTADÍSTICOS: resultado de una observación efectuada sobre las características de los
elementos de una población. Sujetos a comparación, análisis e interpretación.
POBLACIÓN: conjunto de elementos con una característica determinada a que se refiere la
investigación. Puede ser:

● Finita: tiene un número determinado de elementos.

● Infinita: comprende un conjunto ni determinado, ni determinable de elementos.

MUESTRA: parte de una población, tiene que ser representativa de la población.

● Aleatoria: azar.

● Dirigida: criterio subjetivo.

ELEMENTO O UNIDAD ESTADÍSTICA: es cada uno de los individuos de una población sujeta a estudio,
en el que se van a analizar un rasgo o característica.
UNIDAD DE MUESTREO: grupo de elementos que se determina para facilitar la selección de la
muestra.
VARIABLE: característica de los elementos que es susceptible a cambios, a tomar diferentes valores.

● Cuantitativa: toma solo valores numéricos


o Continua: puede asumir cualquier valor numérico dentro de una amplitud o intervalo
específico.
o Discreta: toma solo ciertos valores (enteros)
● Cualitativas: cuando se habla de atributos.
o Geográfico
o Temporal
o Dicotómica: solo acepta 2 valores cualitativos
o Cualitativa propiamente dicha

CENSO: estudio estadístico realizado sobre toda la población. Requiere instrumentos legales que lo
regulan y normas técnicas que hagan la información uniforme.
PARÁMETROS: número que describe propiedades de una población. Media, desvío y proporción.
ESTIMADORES: permiten describir algunas propiedades de la población, se obtienen de la muestra.

CLASIFICACION DE ESTADISTICA:

● DESCRIPTIVA: describe, analiza y representa un grupo de datos usando métodos numéricos y


gráficos que resumen y presentan la información contenida en ellos.
● INDUCTIVA O INFERENCIAL: apoyándose en el cálculo de probabilidades y a partir de los datos
muestrales, efectúa estimaciones, descripciones, predicciones u otras generalizaciones sobre
un conjunto mayor de datos.
MÉTODO ESTADÍSTICO: técnicas o procedimientos que trabajan sobre una masa de datos estadísticos
transformándolos de modo de hacerlos más fácilmente entendibles para tomar decisiones razonables.

● De recopilación:
o De datos internos
o De datos externos publicados: fuentes primarias o secundarias
o Encuestas: recopilación de datos por nuestra parte
o Experimentos: controlamos un factor para ver cómo reaccionan los demás
o Cuestionarios
● De organización:
o Críticas y recopilación de datos
o Clasificación de datos
● Presentación:
o Textos: cuando hay poca información
o Tablas
o Gráficos: expresión plástica o artística de datos
● Análisis: según la complejidad del estudio hay análisis más básicos como el estadístico simple,
la medida de serie de tiempo hace ver la evolución a través de cierto período de tiempo donde
aparece el número índice que es la comparación de los valores en un momento temporal
respecto a uno anterior; y los análisis de relación, serie de regresión y correlación.
● Interpretación de datos

ETAPAS DE INVESTIGACIÓN ESTADÍSTICA:


1. Establecer objetivo
2. Población objetivo
3. Elección del marco muestral
4. Diseño de muestreo
5. Recopilación de datos
6. Determinación del método de medición
7. Organización y relación del trabajo a campo
8. Organización del manejo de datos
9. Presentación y análisis de datos
10. Redacción del informe
TIPOS DE CLASIFICACIÓN DE DATOS:

● Cronológicos

● Geográficos

● Cualitativos

● Cuantitativos

RECORRIDO: valores posibles de la variable.


FRECUENCIAS: cantidad de veces que se repite una observación.
FRECUENCIA ABSOLUTA (Fi): cantidad de veces que se repite cada uno de los valores posibles de la
variable.
FRECUENCIA ACUMULADA (Fa): suma de las frecuencias absolutas en el sentido creciente de la
variable.
INTERVALO DE CLASE: agrupación dentro de ciertos intervalos de la cantidad de frecuencias
observadas.
Cantidad de intervalos: √n n: número de observaciones
Marca de clase: (Xn+X0)/2
MEDIDAS DESCRIPTIVAS DE LA POBLACIÓN:
Ventajas:
o Permiten tener conocimiento de lo que ocurre en la población.
o Facilitan la comparación con otras distribuciones.
o Base fundamental para la estadística inferencial.

Desventajas:
o Dan visión parcial del fenómeno.
o Interpretación de datos en función de los más frecuentes.
o Se pierde información.

MEDIDAS DE TENDENCIA CENTRAL: llamadas promedio.

● Media: suma de todas las cantidades de una cierta variable y dividida por la cantidad de
observaciones.
o Poblacional: μ: Σx . Fi / N
o Muestral: ẋ: Σx . Fi / n
● Mediana: valor que divide al conjunto en 2 partes iguales. Orden de la mediana: n + 1 / 2

● Moda: valor de la variable que más veces se repite, que tiene mayor Fi. Puede ser unimodal,
bimodal, polimodal o no tener moda.
MEDIDAS DE ORDEN O POSICIÓN: dividen el conjunto en determinadas cantidades de partes iguales.

● Cuartiles: dividen el conjunto en 4 partes iguales.


Orden de cuartiles: q1: n+1/4 q2: n+1/2 q3: 3(n+1)/4
● Deciles: dividen al conjunto en 10 partes iguales.

● Percentiles: dividen al conjunto en 100 partes iguales.

MEDIDAD DE DISPERCIÓN O VARIABILIDAD: indican cuan dispersos se encuentran los datos


alrededor del valor central.

● Rango o amplitud: diferencia entre los valores extremos de una distribución de datos, nos da
una idea de cuan amplio es el conjunto. R: xn – x0
● Rango intercuartílico: es la diferencia entre el tercer cuartil y el primero, es decir, que contiene
el 50% de la distribución. RIC:q3-q1
● Varianza: suma de cada valor de la variable menos la media, elevado al cuadrado y dividido el
tamaño de la población. Es un valor cuadrático que mide el grado de dispersión respecto a la
media.
o Poblacional: σ²: Σ(x-μ)² . Fi / N
o Muestral: s²: Σ(x-ẋ)² . Fi / n-1
● Desvío estándar: es la raíz cuadrada de la varianza.
o Poblacional: σ: √Σ(x-μ)² . Fi / N
o Muestral: s: √Σ(x-ẋ)² . Fi /n-1
● Coeficiente de variación: cociente entre el desvío y la media por cien.
o Poblacional: (σ/μ) . 100
o Muestral: (s/ẋ) . 100

SIMETRÍA Y ASIMETRÍA: si la media, mediana y moda coinciden hablamos de un conjunto o


distribución simétrico.
Si la media < mediana < moda es una distribución asimétrica hacia la izquierda o negativa.
Si la moda < mediana < media la distribución es asimétrica hacia la derecha o positiva.
------------------------------------------------------------------------------------------------------
TEORÍA DE PROBABILIDADES: para determinar la factibilidad que ocurra un evento en ciertas
condiciones.
EXPERIMENTO ALEATORIO:

● No se conoce de antemano el resultado.


● Se conocen todos los resultados posibles.

● Es repetible bajo las mismas condiciones la cantidad de veces que lo deseemos.

● La probabilidad de resultado va a ser siempre la misma.

ESPACIO MUESTRAL (Ω): es todo el conjunto de los resultados posibles en un experimento aleatorio.
EVENTO: es un subconjunto del espacio muestral. Puede ser:

● Elemental o simple: un elemento único.

● Compuesto: más de un elemento.

● Seguro: todo el espacio muestral.

● Imposible: no contiene ningún elemento del espacio muestral.

PROBABILIDAD DE UN EVENTO “A”: es el cociente del número de casos favorables al evento A,


dividido el número de casos posibles. P(A): nA / n
PROPIEDADES DE UNA PROBABILIDAD:

● La probabilidad vale entre 0 y 1.

● Nunca los casos favorables van a ser mayores que los casos posibles.

● La probabilidad del espacio muestral es 1, ya que si se dividen los casos favorables por los
posibles siempre va a dar 1.
● La probabilidad de un evento imposible es siempre 0, ya que es un evento que no existe.

Tipos de probabilidades según las condiciones en que hagamos el ensayo:

● Empírica o experimental: frecuencia relativa que se observa cuando ocurre un evento.

● Teórica: surge de una gran repetición del experimento.

CASOS PARTICULARES DE PROBABILIDAD:

● Complemento de un evento: el complemento de A (Ᾱ) es que no suceda A. La probabilidad del


complemento es 1 (probabilidad del espacio muestral) menos la probabilidad de A. P(Ᾱ):1-P(A)
● Intersección de 2 eventos: cuando ocurren simultáneamente 2 eventos (AՈB)

● Eventos mutuamente excluyentes: cuando la ocurrencia de uno excluye la posibilidad de


ocurrencia del otro. P(AՈB):0
● Probabilidad condicional: probabilidad de que ocurra el evento A habiendo ocurrido
previamente el evento B. P(A/B)
● Eventos independientes: cuando la ocurrencia de uno no tiene ningún efecto sobre la
probabilidad de ocurrencia del otro y viceversa.
TEOREMAS DE PROBABILIDADES:

● De la probabilidad total o la regla de la suma: la probabilidad de unión de 2 eventos, es decir


que ocurre A o B (AUB). P(AUB):P(A)+P(B)-P(AՈB)
Si son mutuamente excluyentes P(AUB):P(A)+P(B)
● De la probabilidad compuesta o la regla de la multiplicación: expresión para calcular la
intersección de 2 eventos, que A y B ocurran simultáneamente.
La probabilidad de intersección de A y B es la probabilidad de uno de ellos por la probabilidad
del otro habiendo ocurrido el primero. P(AՈB):P(A) . P(B) / P(A) o P(AՈB):P(B) . P(A) / P(B)

Podemos despejar la expresión de la probabilidad condicional, la probabilidad de B habiendo


ocurrido A, es la intersección entre A y B dividido la probabilidad del que ocurra primero.
P(B/A):P(AՈB)/P(A) o P(A/B):P(AՈB)/P(B)

Si A y B son independientes, la probabilidad de A habiendo ocurrido previamente B es


P(B/A):P(B) o P(A/B):P(A) o P(AՈB):P(A) . P(B)
VARIABLES ALEATORIAS: función numérica definida como un evento del espacio muestral. Cuando el
resultado es numérico, tal resultado se llama variable aleatoria. Puede ser:

● Discreta: toma números enteros, recorrido finito

● Continua: toma valores reales, puede tomar todos los valores dentro de un intervalo.

DISTRIBUCION BINOMIAL: parte de los procesos de Bernushi.

● Primera condición: se repiten dos resultados posibles éxito (P) y fracaso (q).

● Segunda condición: no se va a conocer el resultado de antemano.

● Tercera condición: se puede repetir todas las veces que queramos.

Ambas probabilidades de éxito y fracaso son constantes, en cada ensayo tenemos la misma
probabilidad que ocurra éxito o fracaso.
NÚMERO FACTORIAL (n!): el factorial de un número es el producto de ese número por todos los
números decrecientes hasta el 1.
NÚMERO BINOMIAL (n/m): son todas las combinaciones posibles de números de n elementos
tomados de la muestra.
INSTRUCCIÓN PROBABILISTA DE LA DISTRIBUCIÓN BINOMIAL: tiene 2 propiedades, una es que la
esperanza o el valor esperado de la variable es el producto del tamaño de la muestra por los éxitos.
E(x):n . P; y la varianza es el producto del tamaño de la muestra por los éxitos por los fracasos. Va(x):n .
P . q.
Es la probabilidad de obtener una cierta cantidad de X de éxitos en un número de ensayos, es igual al
número binomial n de la cantidad de ensayos por los éxitos a la v por los fracasos a la n menos v.
P(x:v):(n/v) . Pᵛ . q ⁽ᶰ⁻ᵛ⁾
DISTRIBUCIÓN DE POISSON: es el límite de binomial cuando el número es grande, los éxitos se
aproximan a 0 pero el producto n por P permanece constante. Puede observar un cierto
comportamiento que tiene que ver con una constante de Poisson (K) que representa el promedio de
eventos de una cierta unidad.
P(X:V): e⁻ᵏ . Kᵛ / v! e:2.71 ᵛ: cantidad de éxitos
-------------------------------------------------------------------------------------------
DISTRIBUCIÓN NORMAL O DE GAUSS: es un modelo teórico para variables aleatorias y continuas,
representa la distribución de frecuencias en una población de valores.
La curva normal es una campana simétrica, cuya forma y posición depende de 2 parámetros:

● μ: se localiza en el centro del eje horizontal.

● σ: determina el ancho de la curva

X~N (μ,σ)
Si una distribución de datos tiene aproximadamente el perfil o forma de campana se cumple que:

● El intervalo 1 contendrá aproximadamente el 68% de los datos.

● El intervalo 2 contendrá aproximadamente el 95% de los datos.

● El intervalo 3 contendrá casi la totalidad de los datos.

El desvío estándar determinará la forma de la curva. Cuanto mayor sea el desvío, más se dispersan los
datos en torno a la media y la curva será más baja.
---------------------------------------------------------------------------------
o La probabilidad de un evento está siempre acotada entre 0 y 1.
o Si dos eventos son complementarios, la probabilidad de unión vale 1.
o Si dos eventos son independientes, entonces la P(A/B) es igual a la P(A).
o En una distribución binomial la probabilidad de éxito y fracaso son eventos complementarios.
o En una distribución binomial la probabilidad de éxitos y fracasos son constantes.
o Siendo A y B dos eventos excluyentes, la probabilidad de la intersección es 0.
o Dado un experimento, si el evento A tiene una mayor constante de casos favorables que el
evento B, entonces la probabilidad de A es mayor que la probabilidad de B.
o Una distribución normal nunca puede tener asimetría, siempre es simétrica.

-----------------------------------------------------------------------------------

DISTRBUCIÓN T-STUDENT: curva en forma de campana, centrada en 0.


Los parámetros que la definen son los grados de libertad (GL): n-1 y el nivel de significancia que es el
área debajo de la curva (1-α).
Es una distribución continua porque toma todos los valores de menos infinito a más infinito. Siempre
es simétrica.
DISTRIBUCIÓN CHI CUADRADO: curva que arranca en 0, es decir que no tiene valores negativos. Tiene
una mayor área hacia la derecha.
Los parámetros que la definen son los grados de libertad (n-1). Su distribución es asimétrica.
A la tabla se entra con el área a la derecha del punto.
Se usa para construir un intervalo de confianza para la varianza poblacional (σ²).
TEOREMA CENTRAL DEL LÍMITE: forma en que podemos seleccionar una cierta muestra trabajando
aleatoriamente.
Sirve de planteo respecto a la relación que hay entre una población y todas las muestras posibles de un
cierto tamaño.

1. La media poblacional es igual a la media de la distribución de medias muestrales. μ: μẋ


2. La varianza de la distribución de medias muestrales es la varianza poblacional dividida el
tamaño de la muestra. σ²ẋ: σ²/n o expresada como desvío estándar σẋ: σ/√n
3. Si la muestra es grande (n≥30) la distribución de medias muestrales puede considerarse que
sigue una distribución normal.
El teorema central del límite nos permite tener en cuenta las múltiples posibilidades de seleccionar
una muestra de tamaño n.

La variable normal establecida Z pasará a ser de la siguiente forma. Z: X-μẋ/σẋ : X-μ/σ/√n

ESTADÍSTICA INFERENCIAL: a través de la información que nos proporciona la muestra, la proyecta a la


población.
Los parámetros son medidas referidas a la población y los estimadores a la muestra. Los parámetros
son la media poblacional, proporción poblacional y desvío estándar poblacional; los estimadores son
las mismas medidas pero referidas a la muestra.
Cuanto más parecidos sea el estimador al parámetro, mejores características va a tener la muestra.
Las características del estimador son:

● Consistencia

● Ausencia de sesgo o inscesamiento

● Eficacia

● Suficiencia

La estimación de los parámetros puede ser puntual, esto significa que el valor del parámetro
poblacional es igual al valor del estimador, esto consiste en asignar un valor concreto al parámetro.

INTERVALO DE CONFIANZA: son dos valores entre los cuales tenemos cierta seguridad de encontrar el
verdadero valor del parámetro poblacional. P(A<Ɵ<B):(1-α).
1-α es el nivel de seguridad, elegido por el investigador. Cuanto mayor sea el nivel de seguridad, es
decir cuanto más nos acerquemos a 1, mayor va a tener que ser el tamaño de la muestra. ˃(1-α): ˃n

● Intervalo de confianza para la media poblacional


1. Desvío estándar poblacional conocido: NORMAL IC:ẋ +- Zc . (σ/√N)
2. Desvío estándar poblacional desconocido:
o n˃30 NORMAL IC: ẋ +- Zc . (s/√n)
o n<30 T-STUDENT IC: ẋ +- Tc . (s/√n)
● Intervalo de confianza para la varianza poblacional CHI CUADRADO
IC: (n-1) . s² / chi2 ; (n-1) . s² / chi1
-----------------------------------------------------------------------------------------------------
PRUEBA DE HIPÓTESIS: sirve para probar la validez de una afirmación acerca del valor de un
parámetro. Una afirmación cuantitativa respecto a un parámetro poblacional se llama hipótesis
estadística y los métodos usados para probar su validez son las pruebas de hipótesis.
La forma práctica de hacerlo es a través de una muestra mediante la cual aceptamos o rechazamos la
hipótesis propuesta y tomamos una decisión al respecto.
Llamamos hipótesis nula (H0) a aquella hipótesis referida a parámetros poblacionales que formulamos
con el propósito de rechazar o aceptar.
Cualquier hipótesis que difiera de H0 la vamos a llamar hipótesis alternativa (H1), puede tomar 3
formas: distinta a H0 y mayor o menor a H0, esto depende de las condiciones del problema.
Lo primero que se hace es probar la validez de H0, se fija el nivel de riesgo al momento de hacer la
prueba (α), es el error máximo admisible, cuanto menor sea alfa, más segura va a ser la prueba de
hipótesis.
Luego hay que determinar la zona crítica, es decir cuando aceptamos y cuando rechazamos H0.

H0 verdadera H0 falsa

Aceptar H0 Decisión correcta Error de tipo 2

Rechazar H0 Error de tipo 1 Decisión correcta

α: P(error de tipo 1): P(rechazar H0/H0 es verdadera)


β: P(error de tipo 2): P(aceptamos H0/H0 es falsa)
FUNCIÓN POTENCIA DE UNA PRUEBA: ɣ: P(rechazar H0/H0 es falsa): 1-β
Nos da una idea de la bondad de la prueba, es decir nos da idea de la calidad de la prueba, si es
eficiente o no. Un ɣ alto quiere decir que es buena.
ɣ y β son complementarios, es decir que la suma de ambas es igual a 1.
ESQUEMA PARA CONSTATAR HIPÓTESIS:
1. Formular H0 y H1.
2. Elegir α.
3. Seleccionar el estimador de contraste.
4. Elegir una muestra aleatoria y calcular el estimador.
5. Obtener conclusiones.
Prueba de hipótesis para la media poblacional:

● Desvío estándar poblacional conocido NORMAL

● Desvío estándar poblacional desconocido

● n˃30 NORMAL

● n<30 T-STUDENT

Prueba de hipótesis para la proporción poblacional NORMAL

Prueba de hipótesis para la varianza poblacional CHI CUADRADO


Prueba de hipótesis para diferencia de medias:

● Desvío poblacional conocido NORMAL

● Desvío poblacional desconocido

● n1 y n2 ˃30 NORMAL

● n1 y n2 <30 T-STUDENT

Prueba de hipótesis para razones de varianzas FISCHER

Prueba de hipótesis para observaciones apareadas

-----------------------------------------------------------------------------------------------
PRUEBA DE SIGNIFICACIÓN: vamos a probar si hay diferencia significativa entre la masa de valores
observados y los que esperamos. Usa chi cuadrado.
I: Σ(o-e)²/e e: total de fila . total de columna / total general GL: (N° filas-1) . (N° columnas-1)
o: valores observados e: valores esperados I: índice
La zona de rechazo siempre va a estar hacia la derecha.
PRUEBA DE HOMOGENEIDAD: chi cuadrado. Tenemos 2 variables y queremos saber si tienen idéntico
comportamiento entre sí, que actúan en la misma forma, que sean homogéneas.
PRUEBA DE INDEPENDENCIA: determina si 2 variables son independientes entre sí o no.

CORRELACION LINEAL SIMPLE: consiste en analizar la independencia o variabilidad conjunta de 2


variables aleatorias.
COVARIANZA: herramienta para analizar si existe alguna relación conjunta de las variables.
Indica si hay relación directa, indirecta o no hay; no indica que tan asociadas están.
Depende de las unidades en que se miden las variables.
Cov (X,Y): Σ X . Y /n - ẋ . ỹ
COEFICIENTE DE CORRELACIÓN:
R: Cov (X,Y)/Sx . Sy : Σ (X . Y) – n . ẋ . ỹ / √(ΣX²-n . ẋ²) . (ΣY²-n . ỹ²)

● Mide el grado de asociación de las variables.

● No depende de las unidades.

● Acotado entre -1 y 1.

● Entre -1 y 0 hay asociación negativa o indirecta.

● Entre 0 y 1 hay asociación positiva o directa.

● Igual a 0 no hay correlación.

● Más cerca de -1 o de 1 hay mayor asociación.

● Más cerca de 0 menor asociación.

TEST DE SIGNIFICANCIA PARA EL COEFICIENTE DE CORRELACIÓN: T-STUDENT


H0: p (coeficiente de correlación) =0 GL: n-2
H1: p ǂ0 Tobs: R . √n-2/√1-R²
REGRESIÓN LINEAL SIMPLE: una de las 2 variables es controlada por el investigador.
Análisis de causa (X) y efecto (Y). Y tiene error, X no tiene error.
Y: a+b . X a: ordenada al origen b: pendiente, recta o coeficiente de regresión X: variable, causa
b: ΣX . Y -n . ẋ . ỹ / ΣX²-n . ẋ² a: ỹ-b . ẋ
COEFICIENTE DE DETERMINACIÓN: nos dice si nuestra ecuación de la recta aproxima a nuestro
diagrama de dispersión. Valor entre 0 y 1.
R²:(ΣX . Y-n . ẋ . ỹ)²/ (ΣX²-n . ẋ²) . (Σ Y²-n . ỹ²)
Otra propuesta: Y:a+b . X + e e: término de error
------------------------------------------------------------------------------------

● e es una variable aleatoria con distribución normal

● e es una variable aleatoria con media: 0

● La varianza del error es igual para cada X

● Los valores de e son independientes para cada X

o El cálculo de la ecuación de la recta a través del método de mínimos cuadrados garantiza la


mejor aproximación.
o Los limites dentro de los cuales la ecuación de la recta son válidos no están definidos. FALSO
o La ecuación de la recta da valores estimados de las variables efecto

MÉTODO DE MÍNIMOS CUADRADOS: permite que el valor de Y con respeto al de la recta sea mínimo,
también garantiza el mínimo error y calcular b.
--------------------------------------------------------------------------------
ANÁLISIS DE VARIANZA (ANOVA – ANVA): usa chi cuadrado, el área de rechazo siempre estará a la
derecha.
Es una técnica que permite comparar más de 2 medias poblacionales. Se usa como base para el diseño
experimental.
Se analiza la variabilidad, la varianza dentro de la muestra.
Xi;j:μi+ξ Xi: tratamiento j: rata ξ: componente de error aleatorio
S²:Σ(Xi-ẋ)²/24-1 ẋ:Σẋ/cantidad de muestras
CUADRADO MEDIO:

● Dentro de los tratamientos: variabilidad dentro de los tratamientos/N-t


N: tamaño muestral total t: cantidad de tratamientos
● Entre los tratamientos: variabilidad entre los tratamientos/t-1

Estos cuadrados son los que compara ANOVA, es decir, compara un índice observado que es la
diferencia entre el cuadrado medio entre tratamientos dividido el cuadrado medio dentro de
tratamientos. ξ: CMet/CMdt

● Si es cercano a 1, no hay efecto entre los tratamientos, aceptamos Ho.

● Si es mayor a 1, rechazamos H0.

● Si es menor a 1, rechazamos H0 pero tenemos que volver a realizar la prueba.

Suma de cuadrados totales: ΣXi²-(X²/N)


Suma de cuadrados entre tratamientos: Σ(Xi²/ni - X²/N)
Suma de cuadrados dentro de trataientos: SCt-SCet
-----------------------------------------------------------------------------------------
o Muestras obtenidas aleatoria e independientemente.
o La variable en estudio debe ser normal.
o Las varianzas de las 3 poblaciones deben ser iguales.

---------------------------------------------------------------------------------
DISEÑO EXPERIMENTAL: para comparar más de 2 tratamientos.
DISEÑO: sucesión de pasos ordenados para poner a prueba hipótesis o cumplir objetivos. Pueden ser
de 2 tipos:

● Observacionales o mensurativos: el investigador NO manipula ninguna variable.

● Experimentales o manipulativos: el investigador manipula alguna variable. Los tratamientos


son condiciones impuestas por el investigador.
Tiene como objetivo probar el efecto de 1 o más variables o factores (tratamientos) sobre un objeto
dado.
VARIABLE RESPUESTA: constituye la variable aleatoria objeto del estudio, a la cual están apuntadas las
hipótesis. Debe ser cuantitativa.
FACTOR: es la variable que el operador considera que causa las diferencias posibles en la variable
dependiente. Es cualitativo nominal.
NIVELES DEL FACTOR: son cada una de las categorías en las que esta dividido el factor. El término
tratamiento en algunos casos es usado como sinónimo de niveles del factor en ciertos diseños
experimentales.
TRATAMIENTO: es un conjunto de acciones que se aplican a las unidades experimentales con la
finalidad de observar cómo responden a estas.
EXPERIMENTOS FACTORILAES: son aquellos donde los tratamientos son definidos a partir de la
combinación de factores. Si se combinan 2 factores se trata de un experimento bifactorial.
UNIDAD EXPERIMENTAL: fracción más pequeña de cada muestra o grupo experimental a la que se
aplica un tratamiento determinado, en ella se va a medir la variable respuesta que luego a través de un
análisis estadístico se puede rechazar o no cierta hipótesis planteada.
Debe ser representativa de la población sobre la que se han fijado los objetivos de estudio.
Es importante que generen información independiente.
ERROR EXPERIMENTAL: se refiere a la diferencia entre el valor observado de la variable respuesta
sobre una unidad experimental y su valor esperado de acuerdo a un modelo. Hay distintos tipos de
errores:

● De tratamiento: se introduce cuando se quiere reproducir o repetir el experimento sobre cada


una de las unidades experimentales.
● De medición: se introduce por el proceso de adquisición de datos. Variación que introduce el
instrumento o procedimiento de medición.
● De muestreo: ocurre por la respuesta diferencial de cada unidad experimental al tratamiento
que recibe y que depende de propiedades inherentes a la unidad.
Una vez realizado un experimento, las fuentes de error son indistinguibles y conforman un único error
que se llama error experimental. Para reducir el efecto no deseado de la presencia de los errores hay 2
recursos básicos que son:
o Repetición: conjunto de unidades que reciben un determinado tratamiento.
A medida que aumenta el número de repeticiones por tratamiento, aumenta la precisión con
que se evalúa el efecto de dicho tratamiento.
La cantidad de repeticiones varia de un experimento a otro en función de la variabilidad del
material experimental, el grado de sensibilidad de la variable a medir, etc. Mientras más
heterogéneas sean las unidades experimentales, se requerirán más repeticiones.
o Aleatorización: una vez seleccionados los tratamientos, el paso siguiente es asociarlos con el
material experimental.
Se debe designar las unidades a los tratamientos en forma aleatoria o bien designar los niveles
de factor a las unidades. De este modo, cualquier unidad tiene la oportunidad de entrar en
cualquier nivel.
TESTIGO O CONTROL: es el que representa el comportamiento de la población original, que no recibe
los tratamientos propuestos por el investigador.
DISEÑO COMPLETAMENTE ALEATORIZADO: para comparar 2 o más tratamientos, solo considera 2
fuentes de variabilidad, 2 tratamientos y el error aleatorio.
Se usa cuando las unidades experimentales son homogéneas; es decir, cuando la variación entre las
mismas es pequeña. Los tratamientos se asignan en forma aleatoria a las unidades experimentales. El
número de repeticiones puede variar de un tratamiento a otro.
Para analizar si hay diferencia entre los tratamientos se usa ANOVA siempre y cuando se cumpla la
normalidad, independencia y homogeneidad de varianzas; esto se comprueba mediante los residuos
por medio de pruebas de hipótesis e interpretaciones gráficas.
Entre tratamientos:
SCet: Σ(Xi)²/ni – Σ(X)²/N α: K-1 CMet: SCet/α
Dentro de tratamientos: (error experimental)
SCdt: SCt-SCET α: N-K CMdt: SCdt/α
K: cantidad de tratamientos N: cantidad de observaciones
SCt: SCet+SCdt : Σ(Xi)² - Σ(X)²/N α:N-1
PRUEBAS A POSTERIORI: se realizan después que el ANOVA ha rechazado H0. Existen varias pruebas,
entre ellas, Tukey, Duncan y Fischer.
La de Tukey busca una diferencia mínima significativa, es una distancia a partir de la cual 2 medias son
significativamente diferentes. Si la distancia entre medias no llega a esa distancia mínima significativa
se dice que las medias no son significativamente diferentes.
DISEÑO EN BLOQUE COMPLETAMENTE ALEATORIZADO (DBCA): se usa para anular el efecto de algún
factor.
Se define a un bloque como un grupo de unidades homogéneas entre sí y heterogéneas respecto a
unidades de otros bloques.
Se dice que es un DBCA porque cada bloque tiene tantas unidades experimentales como tratamientos
y todos los tratamientos están presentes en cada bloque, siendo asignados al azar.
Los bloques de unidades experimentales homogéneas permiten inferir que las diferencias observadas
se deban a los tratamientos.
El objetivo de este diseño es reducir, controlar las varianzas del error, con el fin de lograr una mayor
precisión.
Para comparar los tratamientos se usa ANOVA, además de la normalidad, independencia y
homogeneidad de varianza, se supone que los tratamientos no interactúen con los bloques.
BLOQUES: SCb: Σ(Yj²/nj) - (Y total)²/N α:b-1
ENTRE TRATAMIENTOS: SCet: Σ(Yj²/nj)- (Y total)²/N α: k-1 CMet: SCet/α F: CMet/CMdt
DENTRO DE TRATAMIENTOS: SMdt: SCt-SCet-SCb α: (K-1) . (b-1) CMdt: SCdt/α
TOTAL: SCt: SCet+SCdt+SCb α: N-1

DISEÑO EN CUADRADOS LATINOS: en algunas situaciones, las unidades experimentales pueden ser
agrupadas de acuerdo a más de un factor de bloqueo.
En el caso de los cuadrados latinos interviene el factor fila y el factor columna, cada tratamiento es
aplicado una vez en una fila y una vez en cada columna.
El numero total de unidades experimentales es igual al cuadrado del numero de tratamientos.
Los tratamientos no interactúan con los factores.

También podría gustarte