Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Probabilidades
Tipos de probabilidad
Probabilidad frecuencial
Probabilidad Binominal
Se enfoca en señalar las posibilidades de éxito o fracaso que tiene un evento, toda vez que
este sucede, o experimenta algún tipo de fenómeno dentro de él.
Probabilidad Poisson
Probabilidad Condicionada
Probabilidadmarginal
Es la probabilidad de que ocurra el evento sin tener en cuenta la ocurrencia de otros
eventos. Se calcula sumando las probabilidades condicionales del evento para todas las
posibles ocurrencias del otro evento.
Producto de probabilidades:
Suma de probabilidades:
P (A U B) = P(A) + P(B)
1 - P(A)
donde:
● P(A|B) es la probabilidad condicional: la probabilidad del evento A ocurriendo
dado que B es verdadero. También se le llama la probabilidad a posteriori de A
dado B.
El teorema de Bayes puede derivarse de la definición de probabilidad condicional. Dado que P(A|B) =
P(A ∩ B) / P(B) y P(B|A) = P(A ∩ B) / P(A), se puede resolver para P(A ∩ B) y sustituir en la
expresión de P(A|B) para obtener el teorema de Bayes.
2. Distribución normal
Métodos gráficos
Se caracteriza por:
Se puede evaluar a partir de datos analíticos, media mediana, moda, curtosis y asimetría.
Para asumir la normalidad de forma analítica la moda, media y moda de las variables tienen
que tener valores cercanos.
ASIMETRIA
Esta medida determina el grado de concetración que presentan los valores en la región
central de la distribución normal.
La hipótesis nula nos dice que los datos si provienen de una distribución normal, que se
cuantifican con un p valor mayor a 0,05. No habría evidencias para rechazar la hipótesis
nula y se podría asumir la normalidad
Hipótesis alterna nos dice que la distribución no proviene de una muestra normal y se
cuantifica con un valor p menor a 0,05. Existan dificultades para que pueda asumirse la
normalidad.
Distribución anormal
Asimetría
Se considera asimetría negativa cuando curva se inclina hacia la derecha, (SERÁ MENOR
QUE 0)
Se considera asimetría positiva cuando curva se inclina hacia la izquierda, (SERÁ MAYOR
QUE 0)
3. Pruebas paramétricas
Son un tipo de pruebas de connotación estadística, en supuestos de distribución que
cuantifican la asociación entre una variable cuantitativa y una categórica.
Se basan en medidas como la media, la desviación estándar, variación, etc., (parámetros), y
requieren el cumplimiento de unas condiciones de aplicación, ya que deben adoptar un
modelo matemático correspondiente a una distribución conocida de probabilidad, logrando
obtener más exactitud y conocer con mayor validez los resultados del rechazo o de
aceptación de la hipótesis.
● Normalidad
Los valores de la variable dependiente deben seguir una distribución normal, se caracteriza
por su forma de campana simétrica y por ser completamente descrita por dos parámetros:
su media y su desviación estándar.
4. Pruebas no paramétricas
Engloban una serie de pruebas estadísticas que tienen como denominador común la
ausencia de asunciones acerca de la ley de probabilidad que sigue la población de la que
ha sido extraída la muestra.
Estas técnicas se utilizan con frecuencia, ya que existen muchas variables que no siguen
las condiciones de parametricidad. Cuando estos requisitos previos no se cumplen, se usan
las pruebas no paramétricas o de distribución libre, reúnen las siguientes características:
Clasificación
Es una prueba muy utilizada para analizar la relación entre dos variables que son
cuantitativas. La idea de esta prueba es comparar los valores de los datos reales con los
que se obtendrían si la hipótesis fuera cierta, para evaluar en qué medida los datos
recogidos en una variable categórica se relacionan a una determinada distribución.
Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales, con muestras
de diferente tamaño y con pocas restricciones. Contiene las siguientes asunciones críticas:
- Como se dijo, que los datos sean tomados de una muestra al azar o bien de sujetos
considerados como propios controles.
- Que haya simetría en los resultados de las diferencias con la mediana verdadera
de la población.
- Se usa para incluir datos registrados en más de dos periodos de tiempo o grupos
de tres o más sujetos, con un sujeto de cada grupo que ha sido asignado aleatoriamente
a una de las tres o más condiciones.
Los datos deben tener ciertas características para poder ser analizados por esta prueba.
- No debe existir relación entre las observaciones de cada grupo o entre los propios
grupos.
Su aplicación asume:
5. Técnicas de muestreo
Una muestra puede ser obtenida de dos tipos: probabilística y no probabilística. Las
técnicas de muestreo probabilísticas, permiten conocer la probabilidad que cada individuo
a estudio tiene de ser incluido en la muestra a través de una selección al azar. En cambio,
en las técnicas de muestreo de tipo no probabilísticas, la selección de los sujetos a
estudio dependerá de ciertas características, criterios, etc. que los investigadores
consideren en ese momento; por lo que pueden ser poco válidos y confiables o
reproducibles; debido a que este tipo de muestras no se ajustan a un fundamento
probabilístico, es decir, no dan certeza que cada sujeto a estudio represente a la población
blanco.
1. Aleatorio simple: Esta garantiza que todos los individuos blancos de la población
tienen la misma oportunidad de salir en la muestra. Lo que significa que la probabilidad
de selección de un sujeto a estudio por x motivos es independiente de la probabilidad
que tiene el resto de sujetos de la población de blancos.
4. Aleatorio conglomerados
6. Correlaciones
Son herramientas de medidas estadísticas que indican el grado de asociación que tienen
dos variables, es decir si el cambio de una variable está acompañada por el cambio de otra.
Nos va entregar dos indicadores:
- La fuerza de correlación, que se mide por proporciones de 0 a 1.
- La dirección, que podría ser positiva o negativa.
Permite conocer la «intensidad» de la relación entre ellas y determinar si, al aumentar el
valor de una de las variables, aumenta o disminuye el valor de la otra.
Cuando se habla de correlación gráfica entre dos variables, hay que analizar tres tipos de
cosas:
FORMA:
★ Correlación lineal: Perpendicular, horizontal o inclinada con pendientes
(positiva o negativa).
★ Correlación NO lineal: Parábolas, hipérboles.
COEFICIENTE DE CORRELACIONES:
★ Correlación parcial: Para medir la relación entre dos variables mientras se controla el
efecto de una o más variables adicionales.
★ Correlación cruzada: Se utiliza para medir la relación entre dos series de datos en
diferentes momentos en el tiempo, útil para analizar patrones o tendencias temporales.
○ r > 0 (positivo): los puntos forman una línea perfecta recta y creciente, de izquierda a
derecha.
○ r = 0 no existe correlación
○ r < 0 (negativo): al aumentar una de las variables, disminuye la otra.
El coeficiente r será próximo a 1 (en valor absoluto) cuando las dos variables X e Y están
estrechamente relacionadas y esto se denomina COVARIANZA (es una medida de
variabilidad conjunta de dos variables).
Resultados de correlación
- Entre 1 a 0.5 o -1 a -0.5 asociación fuerte.
- Entre 0.49 a 0.3 o -0.49 a - 0.3 asociación moderada
- <0.29 o <-0.29 asociación débil
Prueba y resultado de Hipótesis
- H0 Hipótesis nula indicaría que los valores de correlación son iguales, p>0.05, se
rechaza la Hipótesis.
- Ha Hipótesis Alternativa, de las correlaciones que buscamos, p<0.05, se acepta la
Hipótesis.