Introduccion A La Probabilidad

También podría gustarte

Está en la página 1de 35

Tema:

INTRODUCCION ALA PROBABILIDAD Y LA ESTENOTICA


INDUCTIVA

Alumna:

Profesora:
BRENDA A. GUADARRAMA MEDINA
Contenido
Medida de probabilidad.....................................................................................................................3
Medida de probabilidad: definición, ejemplos...................................................................................3
Ejemplos de medidas de probabilidad......................................................................................3
Definición formal de medida de probabilidad............................................................................4
Qué es el método inductivo...............................................................................................................4
Características del método inductivo.........................................................................................5
Ejemplos de razonamientos inductivos en la vida cotidiana.......................................................6
Ejemplo de método inductivo en las ciencias.............................................................................7
Francis Bacon y el método inductivo..........................................................................................8
Método inductivo y deductivo....................................................................................................8
Conoce las principales distribuciones de probabilidad.....................................................................10
ESTADÍSTICA INDUCTIVA...................................................................................................................14
Estadística inferencial vs inductiva.........................................................................................14
Diferencia entre estadística descriptiva e inductiva..............................................................14
DISTRIBUCIÓN NORMAL...................................................................................................................16
Distribución normal estándar...........................................................................................................23
AREAS BAJO LA CURVA NORMAL......................................................................................................23
USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR.................................24
Intervalo de confianza (IC): Definición y propiedades......................................................................28
BIOGRAFIA........................................................................................................................................34
Medida de probabilidad

Una medida de probabilidad es una medida P que asigna a cada conjunto en el σ-


álgebra de un espacio muestral, un número en el intervalo [0, 1] y tiene las
siguientes propiedades: Sea E un espacio muestral y β un σ-álgebra de
subconjuntos de E. Decimos que P es una medida de probabilidad en el espacio
muestral E si satisface los siguientes axiomas:

Axioma 1. A cada suceso A que pertenece a β le corresponde un número real P(A),


tal que:

Axioma 2.

Axioma 3. Si A1, A2 ... son sucesos mutuamente excluyentes (incompatibles dos a


dos, disjuntos o de intersección vacía dos a dos),
entonces:

Medida de probabilidad: definición, ejemplos


Una medida de probabilidad da probabilidades a un conjunto de resultados
experimentales (eventos). Es una función sobre una colección de eventos que
asigna una probabilidad de 0 y 1 a cada evento, cumpliendo ciertas condiciones.
El papel de una medida de probabilidad es cuantificar la probabilidad de cada
resultado de cada evento en el álgebra σ (una colección de conjuntos que tienen
ciertas propiedades); En pocas palabras, el σ-álgebra asigna una probabilidad a
un evento (p. ej., “lloverá hoy”) y al complemento de ese evento (p. ej., “hoy no
lloverá”) y la unión (“lloverá hoy, o no lloverá hoy”). t”) [2].
Ejemplos de medidas de probabilidad

Para una tirada de un dado de seis caras , el espacio muestral (Ω) = {1, 2, 3, 4,


5, 6}. Si A = {1, 3, 5} es el evento de que la tirada es impar, entonces P (A) = ½.
Ejemplo continuo uniforme : supongamos que desea elegir un número aleatorio
entre 0 y 1, donde todos los números son igualmente probables. El espacio
muestral es el intervalo cerrado [0, 1]; La probabilidad para cualquier intervalo
dentro de [0, 1] es la longitud de I. En términos generales, la medida de
probabilidad uniforme en [a, b] se puede definir como [3]:
Definición formal de medida de probabilidad

Una medida de probabilidad P sobre F es una función de valor


real P sobre F con tres propiedades [2]:
1. P (A) ≥ 0, para A ∈ F
2. PAG (Ω) = 1, PAG (∅) = 0,
3. Para la secuencia disjunta de eventos (es decir, A i ∩ A j = ∅ para i ≠
j) entonces:

Donde:

1. ∅ = el conjunto vacío ,
2. ∩ = intersección ,
3. ∪ = unión ,
4. A c = complemento (el conjunto de resultados en Ω que no están en A),
5. ∈ = es un elemento de (está en el conjunto),
6. F = una colección de subconjuntos de Ω
7. σ-campo = Una colección de subconjuntos de Ω es un σ-campo si:
 Ω ∈ F
 UN ∈ F → UN C ∈ F
 UN norte ∈ F para norte = 1, 2, 3, … ∪ ( n = 1→∞) UN norte ∈ F

Qué es el método inductivo

El método inductivo es un tipo de razonamiento que consiste en obtener


conocimientos generalizables a partir de conocimientos específicos. Así, va de la
observación de fenómenos particulares a la formulación de conclusiones
generales.
Para llegar a una conclusión a través del método inductivo, en general, seguimos
una serie de pasos.

1. Observar hechos y registrarlos como premisas. Las premisas son las


proposiciones o conocimientos previos que sirven de fundamento al
razonamiento.
2. Examinar si estos hechos se repiten y si se pueden establecer
regularidades o patrones.
3. Por último, hacer inferencias, esto es, llegar a juicios y a conclusiones
desde los hechos anteriormente observados.
Por ejemplo, observamos que las plantas del patio necesitan de luz y agua para
crecer. Luego, que las plantas del vecino crecen al estar expuestas a la luz solar y
al agua de la lluvia. Finalmente, vemos que las plantas del jardín botánico crecen
mucho al recibir luz y agua.

Siguiendo un razonamiento inductivo, podemos establecer una generalización y


afirmar: "todas las plantas en el planeta necesitan de luz y de agua para crecer",
aunque no hayamos visto todas las plantas que existen en la Tierra.

En términos formales, este ejemplo se presenta así:

Premisa 1: Las plantas del patio crecen al recibir luz x1 crece al recibir A y
solar y agua. B.

Premisa 2: Las plantas del vecino crecen al recibir luz x2 crece al recibir A y
solar y agua. B.

Premisa 3: Las plantas del jardín botánico crecen al x3 crece al recibir A y


recibir luz solar y agua. B.

Conclusión: Todas las plantas crecen al recibir luz solar Todo x crece al recibir
y agua. A y B.

Características del método inductivo

 Parte de observaciones empíricas o de premisas particulares: se


advierte un hecho que aporta información; este rasgo es común al método
científico. En la filosofía, se pueden establecer premisas lógicas para dirigir
el razonamiento.
 Reconocimiento de patrones: se examinan las posibles reincidencias,
reproducciones o repeticiones del fenómeno observado.
 Planteamiento de la inferencia: esta es la proposición a la que se llega
con base en las evidencias obtenidas o en las premisas formuladas.
 Generalización: la inducción conlleva un razonamiento ampliativo. Así, el
método inductivo sirve para establecer conclusiones y plantear predicciones
sobre fenómenos similares a los estudiados.
 Falibilidad: las proposiciones y conclusiones que siguen estos
razonamientos se basan en probabilidades. Por tanto, el método inductivo
no es infalible, es decir, no siempre alcanza la verdad. Sólo un registro
constante en las observaciones y sus resultados le otorga mayor certeza.
Ejemplos de razonamientos inductivos en la vida cotidiana
Consciente o inconscientemente aplicamos razonamientos inductivos día a día. De
este modo, llegamos a conjeturas y a formularnos respuestas sobre las cosas que
suceden a nuestro alrededor.

Ejemplo 1: Inducción por generalización.

Las cebras
Premisa 1: las cebras del zoológico de la ciudad tiene rayas blancas y negras
que cubren todo su cuerpo.

Premisa 2: las cebras que veo en televisión tienen rayas blancas y negras en
todo el cuerpo.

Conclusión: cuando mi amigo Juan vaya de safari a África y vea cebras, estas
tendrán el cuerpo cubierto por rayas blancas y negras.
Ejemplo 2: Inducción por razonamiento causal.

El perro de al lado
Premisa 1: el perro del vecino siempre ladra cuando alguien camina por la
vereda frente a su portón.

Premisa 2: alguien está caminando por la vereda y se está aproximando al


portón de mi vecino.

Conclusión: el perro de mi vecino comenzará a ladrar en cualquier momento.


Ejemplo 3: Inducción a partir de datos estadísticos.

Los estudiantes de la escuela


Premisa 1: el 96 % de los estudiantes de primaria de la escuela "San Martín"
aprobaron el curso.

Premisa 2: Javier es estudiante de primaria en la escuela "San Martín".

Conclusión: es muy probable que Javier haya aprobado su curso.


Ejemplo de método inductivo en las ciencias

Charles Darwin usó razonamientos inductivos al proponer la teoría de la


evolución. En sus viajes por el mundo a bordo del Beagle tuvo la oportunidad de
observar la flora y la fauna de lugares interesantes.
Así, en 1835 examinó diversas especies de aves y reptiles que habitaban en las
Islas Galápagos. Él identificó patrones comunes a ciertas especies en una isla que
tenían variabilidad en otras. Un caso fue el de las tortugas gigantes.

Darwin vio que las tortugas en una isla tenían cuello corto y que comían plantas
cercanas al suelo. En otra, que las tortugas tenían cuello largo y un caparazón
curvado hacia arriba, lo que les permitía alimentarse de hojas de arbustos.

De este modo, se figuró que los organismos vivos con características adaptadas a
su medio ambiente tenían más oportunidades de sobrevivir y prosperar. Con el
tiempo, la mayoría de los individuos de cada especie de tortuga tendrían esas
características, adecuadas al entorno de la isla donde habitaban. Las que no, no
tendrían descendencia.

Darwin postuló la hipótesis general de la evolución por selección natural


basándose en estos razonamientos inductivos. Luego, otros científicos han
conseguido más datos y evidencias que corroboran sus observaciones, con lo que
"la evolución de las especies" logró el estatus de teoría científica.
Francis Bacon y el método inductivo

Paul Van Somer I (1617): Retrato de Sir Francis Bacon.


El gran impulsor del método inductivo fue el filósofo inglés Francis Bacon (1521-
1626). Bacon publicó en 1620 el libro Novum Organum, con el que buscó
sistematizar el uso de la inducción y su aplicación para alcanzar conocimientos
científicos.

Bacon criticó la filosofía aristotélica que había predominado a lo largo de la


historia. Los filósofos de la antigüedad, por regla general, desconfiaban del
método inductivo y lo consideraban engañoso.

En su lugar, los aristotélicos preferían aplicar la lógica deductiva. Aunque esta


tenía mayor rigor, era limitada, estaba aislada de contextos verdaderamente
prácticos y, por esa razón, no se prestaba a experimentaciones.

Bacon, por otro lado, propuso que el conocimiento debía partir de las experiencias.
Para esto se debían analizar los datos obtenidos mediante observaciones del
mundo natural. Así podríamos inferir respuestas generales conseguidas desde
datos específicos.

Hoy el método inductivo es muy utilizado en el ámbito científico porque es flexible


y permite generar nuevas ideas e hipótesis para responder a problemas
basándose en datos y en hechos observables.

Método inductivo y deductivo

Los métodos inductivo y deductivo suponen formas diferentes de pensar. El


método inductivo procura establecer conclusiones generales a partir de premisas
particulares. En cambio, el método deductivo parte de premisas generales ya
aclaradas para obtener conclusiones específicas.
Ejemplo de método deductivo:

Las gallinas del corral


Premisa 1: todas las gallinas del corral de José son negras.

Premisa 2: Pepina es una gallina que vive en el corral de José.


Conclusión: Pepina es una gallina negra.
Siempre que las premisas sean verdaderas, la conclusión del razonamiento
deductivo será verdadera. No obstante, el método deductivo proporciona poca
información novedosa, y no es extensible a otras investigaciones.
Conoce las principales distribuciones de probabilidad

Una distribución de probabilidad es aquella que permite establecer toda la gama


de resultados probables de ocurrir en un experimento determinado. Es decir,

describe la probabilidad de que un evento se realice en el futuro.


La distribución de probabilidad es una herramienta fundamental para la
prospectiva, puesto que con ella es posible diseñar un escenario de
acontecimientos futuros considerando las tendencias actuales de diversos
fenómenos.
Las características más importantes a considerar en una distribución de
probabilidad son:

 La probabilidad de un resultado específico está entre cero y uno.


 La suma de las probabilidades de todos los resultados mutuamente
excluyentes es 1.

Toda distribución de probabilidad se genera por una variable (debido a que puede
tomar diferentes valores) aleatoria x (porque el valor que se toma es
completamente al azar), y puede ser de dos tipos:
1. Variable aleatoria discreta (x)
Solo puede tomar valores representados por números enteros y un número finito
de ellos. Por ejemplo:
X variable que nos define el número de alumnos aprobados en el curso de historia
universal en un grupo de 30 alumnos (1, 2 ,3 y así sucesivamente ó los 30).
2. Propiedades de una variable aleatoria discreta (X)
Las probabilidades que se relacionan con cada uno de los valores que toma x
deben ser mayores o iguales a cero y menores o iguales a 1:
P (xi) < 1
La sumatoria de las probabilidades asociadas a cada uno de los valores que toma
x debe ser igual a 1:
E p (xi) = 1
Ejemplo de variable aleatoria discreta: Al lanzar una moneda se puede obtener
solo dos resultados: cara (50%) o sello (50%).
 
En la siguiente tabla vemos los posibles resultados de lanzar dos veces una
moneda:
Si realizamos la tabla de distribución del número posible de caras que se obtiene
al lanzar una moneda dos veces, obtendremos:

Variable aleatoria continua (x)


Esta puede tomar tanto valores expresados en números enteros como
fraccionarios y un número infinito de ellos dentro de un mismo intervalo. Por
ejemplo:
x es la variable que nos define la concentración en gramos de oro de algunas
muestras de mineral (7.4 gr, 6.1, 1.9, 23.3, 12.7, 8.1, 9.5, 11.8, ... n)
Propiedades de una variable aleatoria discreta (X)
Las probabilidades vinculadas a cada uno de los valores que toma x deben ser
mayores o iguales a cero. Dicho de otro modo: la función de densidad de
probabilidad deberá tomar solo valores mayores o iguales a cero.
El área definida bajo la función de densidad de probabilidad deberá ser de 1.
Esperanza matemática o valor esperado
El valor esperado de una variable aleatoria X es el promedio ponderado de todos
los valores posibles.
 
La esperanza matemática o valor esperado de una variable aleatoria se origina en
los juegos de azar, debido a que los apostadores deseaban saber su esperanza
de ganar repetidamente un juego. Por lo tanto, el valor esperado representa la
cantidad de dinero promedio que el jugador está dispuesto a ganar o perder
después de un número grande de apuestas. 
Los principales conceptos en estadística a partir de los cuales podemos
profundizar en ella son:

 Población; también conocido como universo o conjunto completo de


individuos que cumplen una serie de características y al que harán
referencia las conclusiones del estudio. A partir de la población de estudio
se elegirá una muestra representativa.

 Muestra; es un grupo acotado o reducido de todos los individuos de forman


la población. Se considera que una muestra es representativa cuando los
individuos de la misma son seleccionados al azar.

 Individuo; son las personas o elementos que contienen la información del


fenómeno que se pretende estudiar.
 Muestreo; es el procedimiento mediante el cual se obtiene una muestra. El
muestreo puede ser probabilístico o aleatorio y no probabilístico o no
aleatorio.

 Aleatoriedad de una muestra; es la característica mediante la cual todos los


miembros de una muestra tienen las mismas posibilidades de formar parte
de la misma.

 Homogeneidad de una muestra; es la característica mediante la cual las


variables de la muestra se presentan en la misma proporción que las de la
población.

 Independencia en la selección de una muestra; es la característica de la


muestra que determina que la selección de un individuo no influye en la
selección de otro individuo.

 Muestreo simple; es el muestreo de tipo probabilístico, mediante el cual


cualquier elemento de la población tiene la misma probabilidad de
pertenecer a la muestra.

 Muestreo sistemático; es el muestro de tipo probabilístico, en el que el


proceso de selección de la muestra se realiza mediante una regla
sistemática simple como es elegir un número determinado de individuos.

 Muestreo estratificado; es el muestreo de tipo probabilístico que divide la


población en subgrupos según algunas características para luego extraer
una muestra al azar de cada uno de los subgrupos.

 Muestreo por conglomerados; es el muestreo de tipo probabilístico en el


que se extrae una muestra al azar a partir de grupos naturales de individuos
dentro del universo o población.

 Muestreo de conveniencia; es el muestreo de tipo no probabilístico en el


que la muestra se selecciona por su facilidad o directamente se
autoselecciona.

 Muestreo por cuota; es el muestreo de tipo no probabilístico, en el que la


muestra se sustenta sobre el buen conocimiento de los grupos o estratos
de la población y en los individuos más representativos para sus fines.
También se denomina muestreo accidental.

 Muestreo por criterio; es el muestreo de tipo no probabilístico en el que el


investigador utiliza sus conocimientos sobre la población para elegir los
individuos de la muestra.

 Variables; son las características de la población que se representan en los


individuos que forman la muestra y que son susceptibles de ser medidas.
Las variables pueden ser cuantitativa o cualitativas.

 Parámetro; es un índice que resume una determinada característica de la


población, representándose por las letras griegas “μ” o mu y “σ” o ro. Un
parámetro es la función definida sobre los valores numéricos de
características medibles de una población.

 Estadístico; es un índice que resume una determinada característica de la


muestra, representándose por las letras del alfabeto latino “x” y “s”. Un
estadístico es la función definida sobre los valores numéricos de una
muestra.
ESTADÍSTICA INDUCTIVA

La estadística inductiva (o razonamiento inductivo) es una rama de la estadística


que se ocupa de tomar muestras de una población más grande y usar esos datos
para: sacar conclusiones, tomar decisiones, pronósticos y predecir el
comportamiento futuro.
Estadística inferencial vs inductiva
La estadística inductiva y la estadística inferencial son dos términos que se utilizan
indistintamente. Por ejemplo:
«La estadística inferencial … también se llama razonamiento inductivo o
estadística inductiva» (Jeneralczuk, 2011)
“En estadística inductiva se aplica la teoría de la probabilidad para hacer
inferencias sobre el proceso que generó los datos” (Braune, n.d.)
Sin embargo, existe una diferencia muy sutil entre los dos términos. La estadística
inductiva es el proceso lógico de sacar conclusiones generales basadas en piezas
específicas de información; es el proceso subyacente detrás de las estadísticas
inferenciales, a diferencia de los datos (estadísticas) producidos. En otras
palabras, la rama de la estadística inferencial (que incluye la estimación y la
prueba de hipótesis) utiliza el razonamiento inductivo (Steen, 2018).
Diferencia entre estadística descriptiva e inductiva
Tanto la estadística descriptiva como la inferencial ayudan a dar sentido a una fila
tras otra de datos. Utilice estadísticas descriptivas para resumir y representar
gráficamente los datos de un grupo que elija. Este proceso le permite comprender
ese conjunto específico de observaciones.
Las estadísticas descriptivas describen una muestra. Eso es bastante sencillo.
Simplemente tome un grupo que le interese, registre datos sobre los miembros del
grupo y luego use estadísticas de resumen y gráficos para presentar las
propiedades del grupo. Con las estadísticas descriptivas, no hay incertidumbre
porque está describiendo solo a las personas o elementos que realmente mide. No
está intentando inferir propiedades sobre una población más grande.
El proceso implica tomar una cantidad potencialmente grande de puntos de datos
en la muestra y reducirlos a unos pocos valores y gráficos de resumen
significativos. Este procedimiento nos permite obtener más información y visualizar
los datos que simplemente pasar fila tras fila de números sin procesar
Herramientas comunes de estadística descriptiva
Tendencia central: use la media o la mediana para ubicar el centro del conjunto de
datos. Esta medida le dice dónde caen la mayoría de los valores.
Dispersión: ¿Qué tan lejos del centro se extienden los datos? Puede utilizar el
rango o la desviación estándar para medir la dispersión. Una dispersión baja
indica que los valores se agrupan más estrechamente alrededor del centro. Una
mayor dispersión significa que los puntos de datos se alejan más del centro.
También podemos graficar la distribución de frecuencias.
Asimetría: la medida le indica si la distribución de valores es simétrica o sesgada.
Ejemplo de estadística descriptiva
Suponga que queremos describir los puntajes de las pruebas en una clase
específica de 30 estudiantes. Registramos todos los puntajes de las pruebas,
calculamos las estadísticas de resumen y producimos gráficos.
En conjunto, esta información nos da una imagen bastante buena de esta clase
específica. No hay incertidumbre en torno a estas estadísticas porque reunimos
las puntuaciones de todos en la clase. Sin embargo, no podemos tomar estos
resultados y extrapolarlos a una población mayor de estudiantes.
Estadística inferencial
La estadística inferencial toma datos de una muestra y hace inferencias sobre la
población más grande de la que se extrajo la muestra. Debido a que el objetivo de
la estadística inferencial es sacar conclusiones de una muestra y generalizarlas a
una población, debemos tener confianza en que nuestra muestra refleja con
precisión la población. Este requisito afecta nuestro proceso. A un nivel amplio,
debemos hacer lo siguiente:
Definir la población que estamos estudiando.
Saque una muestra representativa de esa población.
Utilice análisis que incorporen el error de muestreo.
No podemos elegir un grupo conveniente. En cambio, el muestreo aleatorio nos
permite tener la confianza de que la muestra representa a la población. El
muestreo aleatorio produce estadísticas, como la media, que no tienden a ser
demasiado altas o demasiado bajas. Usando una muestra aleatoria, podemos
generalizar de la muestra a la población más amplia. Desafortunadamente,
recolectar una muestra verdaderamente aleatoria puede ser un proceso
complicado.
Pros y contras de trabajar con muestras
Obtiene enormes beneficios al trabajar con una muestra aleatoria extraída de una
población. En la mayoría de los casos, es simplemente imposible medir toda la
población para comprender sus propiedades. La alternativa es recopilar una
muestra aleatoria y luego utilizar las metodologías de estadística inferencial para
analizar los datos de la muestra.
Por lo general, aprendemos sobre la población extrayendo una muestra
relativamente pequeña de ella. Estamos muy lejos de medir a todas las personas
u objetos de esa población. En consecuencia, cuando se estiman las propiedades
de una población a partir de una muestra, es poco probable que las estadísticas
de la muestra igualen exactamente el valor real de la población.
Por ejemplo, es poco probable que la media de la muestra sea exactamente igual
a la media de la población. La diferencia entre la estadística de la muestra y el
valor de la población es el error de muestreo. Las estadísticas inferenciales
incorporan estimaciones de este error en los resultados estadísticos.
Por el contrario, los valores de resumen en la estadística descriptiva son sencillos.
El puntaje promedio en una clase específica es un valor conocido porque medimos
a todos los individuos en esa clase. No hay incertidumbre.
DISTRIBUCIÓN NORMAL

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su


propio nombre indica su extendida utilización, justificada por la frecuencia o
normalidad con la que ciertos fenómenos tienden a parecerse en su
comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya
gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un
mismo valor de  p  y valores de  n  cada vez mayores, se ve que sus polígonos de
frecuencias se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que
hay muchas variables asociadas a fenómenos naturales que siguen el modelo de
la normal
 Caracteres morfológicos de individuos (personas, animales, plantas,...) de
una especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,...
 Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un
fármaco, o de una misma cantidad de abono.
 Caracteres sociológicos, por ejemplo: consumo de cierto producto por un
mismo grupo de individuos, puntuaciones de examen.
 Caracteres psicológicos, por ejemplo: cociente intelectual, grado de
adaptación a un medio,...
 Errores cometidos al medir ciertas magnitudes.
 Valores estadísticos muestrales, por ejemplo : la media.
 Otras distribuciones como la binomial o la de Poisson son aproximaciones
normales, ...
Y en general cualquier característica que se obtenga como suma de muchos
factores. 
FUNCIÓN DE DENSIDAD
Empleando cálculos bastante laboriosos, puede demostrarse que el modelo de
la función de densidad que corresponde a tales distribuciones viene dado por la
fórmula
Representación gráfica de esta función de densidad

La distribución normal queda definida por dos parámetros, su media y su


desviación típica y la representamos así 

 
FUNCIÓN DE DISTRIBUCIÓN
 Puede tomar cualquier valor (- ¥, + ¥)
 Son más probables los valores cercanos a uno central que llamamos
media  m
 Conforme nos separamos de ese valor m , la probabilidad va decreciendo
de igual forma a derecha e izquierda (es simétrica).
 Conforme nos separamos de ese valor m , la probabilidad va decreciendo
de forma más o menos rápida dependiendo de un parámetro s , que es la
desviación típica.
 
F(x) es el área sombreada de esta gráfica

 
TIPIFICACIÓN

Por tanto, su función de densidad es

y su función de distribución es

siendo la representación gráfica de esta función


a la variable Z se la denomina variable tipificada de X, y a la curva de su función
de densidad curva normal tipificada.
Característica de la distribución normal tipificada (reducida, estándar)
 No depende de ningún parámetro
 Su media es 0, su varianza es 1 y su desviación típica es 1.
 La curva  f(x)  es simétrica respecto del eje OY
 Tiene un máximo en este eje
 Tiene dos puntos de inflexión en  z =1 y  z = -1
Aproximación de la Binomial por la Normal (Teorema de De Moivre) :
Demostró que bajo determinadas condiciones (para n grande y tanto p como q no
estén próximos a cero) la distribución Binomial  B(n, p) se puede aproximar
mediante una distribución normal

Debemos tener en cuenta que cuanto mayor sea el valor de n, y cuanto más
próximo sea  p  a  0.5, tanto mejor será la aproximación realizada. Es decir, basta
con que se verifique
gracias a esta aproximación es fácil hallar probabilidades binomiales, que para
valores grandes de  n  resulten muy laboriosos de calcular.
Hay que tener en cuenta que para realizar correctamente esta transformación de
una variable discreta (binomial) en una variable continua (normal) es necesario
hacer una corrección de continuidad.
 

MANEJO DE TABLAS. CASOS MÁS FRECUENTES.


La distribución de la variable  Z  se encuentra tabulada

 
 

 
 

 
 
 
 

 
 

 
 
Distribución normal estándar

Esta curva "de campana" es la distribución normal estándar.


Puedes usar la tabla de abajo para saber el área bajo la curva desde la línea
central hasta cualquier línea vertical "a valor Z" hasta 3, en incrementos de 0.1
Esto te dice qué parte de la población está dentro de "Z" desviaciones estándar de
la media.
En lugar de una tabla LARGA, hemos puesto los incrementos de 0.1 hacia abajo, y
los de 0.01 de lado.
Por ejemplo, para saber el área debajo de la curva entre 0 y 0.45, ve a la fila de
0.4, y sigue de lado hasta 0.45, allí pone 0.1736
Como la curva es simétrica, la tabla vale para ir en las dos direcciones, así que
0.45 negativo también tiene un área de 0.1736

AREAS BAJO LA CURVA NORMAL

No importa cuáles sean los valores de la  para una distribución de probabilidad


normal, el área total bajo la curva es 1.00, de manera que podemos pensar en
áreas bajo la curva como si fueran probabilidades. Matemáticamente es verdad
que:
1.Aproximadamente 68% de todos los valores de una población normalmente
distribuida se encuentra dentro  de  desviación estándar de la media.

2. Aproximadamente 95.5 % de todos los valores de una población normalmente


distribuida se encuentra dentro de  desviación estándar de la media.

3. Aproximadamente 99.7 % de todos los valores de una población normalmente


distribuida se encuentra dentro  de desviación estándar de la media.

 USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD


NORMAL ESTÁNDAR

  DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR


Áreas bajo la distribución de probabilidad Normal Estándar entre la media y
valores positivos de Z m = 0 y s²=1

Z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0. 0.000 0.004 0.008 0.012 0.016 0.019 0.023 0.027 0.031 0.035
0 0 0 0 0 0 9 9 9 9 9
0. 0.039 0.043 0.047 0.051 0.055 0.059 0.063 0.067 0.071 0.075
1 8 8 8 7 7 6 6 5 4 3
0. 0.079 0.083 0.087 0.091 0.094 0.098 0.102 0.106 0.110 0.114
2 3 2 1 0 8 7 6 4 3 1
0. 0.117 0.121 0.125 0.129 0.133 0.136 0.140 0.144 0.148 0.151
3 9 7 5 3 1 8 6 3 0 7
0. 0.155 0.159 0.162 0.166 0.170 0.173 0.177 0.180 0.184 0.187
4 4 1 8 4 0 6 2 8 4 9
0. 0.191 0.195 0.198 0.201 0.205 0.208 0.212 0.215 0.219 0.222
5 5 0 5 9 4 8 3 7 0 4
0. 0.225 0.229 0.232 0.235 0.238 0.242 0.245 0.248 0.251 0.254
6 7 1 4 7 9 2 4 6 7 9
0. 0.258 0.261 0.264 0.267 0.270 0.273 0.276 0.279 0.282 0.285
7 0 1 2 3 4 4 4 4 3 2
0. 0.288 0.291 0.293 0.296 0.299 0.302 0.305 0.307 0.310 0.313
8 1 0 9 7 5 3 1 8 6 3
0. 0.315 0.318 0.321 0.323 0.326 0.328 0.331 0.334 0.336 0.338
9 9 6 2 8 4 9 5 0 5 9
1. 0.341 0.343 0.346 0.348 0.350 0.353 0.355 0.357 0.359 0.362
0 3 8 1 5 8 1 4 7 9 1
1. 0.364 0.366 0.368 0.370 0.372 0.374 0.377 0.379 0.381 0.383
1 3 5 6 8 9 9 0 0 0 0
1. 0.384 0.386 0.388 0.390 0.392 0.394 0.396 0.398 0.399 0.401
2 9 9 8 7 5 4 2 0 7 5
1. 0.403 0.404 0.406 0.408 0.409 0.411 0.413 0.414 0.416 0.417
3 2 9 6 2 9 5 1 7 2 7
1. 0.419 0.420 0.422 0.423 0.425 0.426 0.427 0.429 0.430 0.431
4 2 7 2 6 1 5 9 2 6 9
1. 0.433 0.434 0.435 0.437 0.438 0.439 0.440 0.441 0.442 0.444
5 2 5 7 0 2 4 6 8 9 1
1. 0.445 0.446 0.447 0.448 0.449 0.450 0.451 0.452 0.453 0.454
6 2 3 4 4 5 5 5 5 5 5
1. 0.455 0.456 0.457 0.458 0.459 0.459 0.460 0.461 0.462 0.463
7 4 4 3 2 1 9 8 6 5 3
1. 0.464 0.464 0.465 0.466 0.467 0.467 0.468 0.469 0.469 0.470
8 1 9 6 4 1 8 6 3 9 6
1. 0.471 0.471 0.472 0.473 0.473 0.474 0.475 0.475 0.476 0.476
9 3 9 6 2 8 4 0 6 1 7
2. 0.477 0.477 0.478 0.478 0.479 0.479 0.480 0.480 0.481 0.481
0 2 8 3 8 3 8 3 8 2 7
2. 0.482 0.482 0.483 0.483 0.483 0.484 0.484 0.485 0.485 0.485
1 1 6 0 4 8 2 6 0 4 7
2. 0.486 0.486 0.486 0.487 0.487 0.487 0.488 0.488 0.488 0.489
2 1 4 8 1 5 8 1 4 7 0
2. 0.489 0.489 0.489 0.490 0.490 0.490 0.490 0.491 0.491 0.491
3 3 6 8 1 4 6 9 1 3 6
2. 0.491 0.492 0.492 0.492 0.492 0.492 0.493 0.493 0.493 0.493
4 8 0 2 5 7 9 1 2 4 6
2. 0.493 0.494 0.494 0.494 0.494 0.494 0.494 0.494 0.495 0.495
5 8 0 1 3 5 6 8 9 1 2
2. 0.495 0.495 0.495 0.495 0.495 0.496 0.496 0.496 0.496 0.496
6 3 5 6 7 9 0 1 2 3 4
2. 0.496 0.496 0.496 0.496 0.496 0.497 0.497 0.497 0.497 0.497
7 5 6 7 8 9 0 1 2 3 4
2. 0.497 0.497 0.497 0.497 0.497 0.497 0.497 0.497 0.498 0.498
8 4 5 6 7 7 8 9 9 0 1
2. 0.498 0.498 0.498 0.498 0.498 0.498 0.498 0.498 0.498 0.498
9 1 2 2 3 4 4 5 5 6 6
3. 0.498 0.498 0.498 0.498 0.498 0.498 0.498 0.498 0.499 0.499
0 7 7 7 8 8 9 9 9 0 0

Observe en esta tabla la localización de la columna identificada con z. El valor de


z está derivado de la formula:

X =  valor de la variable aleatoria que nos preocupa


media de la distribución de la variable aleatoria
= desviación estándar de la distribución
 Z = número de desviaciones estándar que hay desde x a la media de la
distribución

Utilizamos Z en lugar del ‘ número de desviaciones estándar’ porque las variables


aleatorias normalmente distribuidas tienen muchas unidades diferentes de
medición: dólares, pulgadas, partes por millón, kilogramos, segundos. Como
vamos a utilizar una tabla, la tabla I, hablamos en términos de unidades estándar
(que en realidad significa desviaciones estándar), y denotamos a éstas con el
símbolo z.

X                    
-25    0    25    50    75    100    125
----------------------------------------- Z =   
-3     -2    -1     0      1       2        3

La tabla representa las probabilidades o áreas bajo la curva normal calculadas


desde la  hasta los valores particulares de interés X. Usando la ecuación de Z,
esto corresponde a las probabilidades o áreas bajo la curva normal estandarizada
desde la media ( = 0) hasta los valores transformados de interés Z.
Sólo se enumeran entradas positivas de Z en la tabla , puesto que para una
distribución simétrica  de este tipo con una media de cero, el área que va desde la
media hasta +Z (es decir, Z desviaciones estándar por encima de la media) debe
ser idéntica al área que va desde la media hasta –Z (es decir, Z desviaciones
estándar por debajo de la media).
También podemos  encontrar la tabla que indica el área bajo la curva normal
estándar que corresponde a P(Z < z) para valores de z que van de –3.49 a 3.49.
Al usar la tabla observamos que todos los valores Z deben registrarse con hasta
dos lugares decimales. Por tanto, nuestro valor de interés particular Z se registra
como +.2. para leer el área de probabilidad bajo la curva desde la media hasta Z =
+.20, podemos recorrer hacia abajo la columna Z de la tabla hasta que ubiquemos
el valor de interés Z. Así pues, nos detenemos en la fila Z = .2. A continuación,
leemos esta fila hasta que intersecamos la columna que contiene el lugar de
centésimas del valor Z. Por lo tanto, en la tabla, la probabilidad tabulada para Z =
0.20 corresponde a la intersección de la fila Z = .2 con la columna Z = .00 como se
muestra.

Z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0. 0.0000 0.0039 0.0079 0.0119 0.0159 0.0199 0.0239 0.0279 0.0318 0.0358
0 0 9 8 7 5 4 2 0 8 6
0. 0.0398 0.0438 0.0477 0.0517 0.0556 0.0596 0.0635 0.0674 0.0714 0.0753
1 3 0 6 2 7 2 6 9 2 5
0. 0.0792 0.0831 0.0870 0.0909 0.0948 0.0987 0.1025 0.1064 0.1102 0.1140
2 6 7 6 5 3 1 7 2 6 9
Intervalo de confianza (IC): Definición y propiedades

El intervalo de confianza describe la variabilidad entre la medida obtenida en un


estudio y la medida real de la población (el valor real). Corresponde a un rango de
valores, cuya distribución es normal y en el cual se encuentra, con alta
probabilidad, el valor real de una determinada variable. Esta «alta probabilidad»
se ha establecido por consenso en 95%. Así, un intervalo de confianza de 95%
nos indica que dentro del rango dado se encuentra el valor real de un parámetro
con 95% de certeza5-8.

Para comprender y hacer intuitivo el concepto de intervalo de confianza


utilizaremos un ejemplo clásico6:

Supongamos que tenemos una moneda, la cual puede o no estar balanceada. Así,
después de varios lanzamientos, la probabilidad que el resultado sea sello variará
desde 0 (todas las veces cara, es decir, una moneda balanceada) hasta 1 (todas
las veces sello, nuevamente balanceada), pasando por 0,5 (la mitad de las veces
sello y las otras cara, lo que equivale a una moneda no balanceada). Como no
conocemos la verdadera naturaleza de la moneda, vamos a experimentar con ella.

Iniciamos el experimento con 2 lanzamientos, uno es cara y el otro es sello. La


probabilidad de que el resultado sea sello fue 0,5, con lo que podríamos concluir
que la moneda no está balanceada, sin embargo, ¿con sólo 2 lanzamientos
podemos concluir con total certeza que esa es la naturaleza de la moneda? La
respuesta es no, por lo tanto ¿cuál es el rango de valores donde se encuentra el
valor real? Dado que el azar pudo influir en este resultado, uno acepta que el
rango de valores reales posibles es amplio, incluso desde uno tan bajo como 0 a
uno tan alto como 1, por lo tanto aún no estamos seguros de la naturaleza de
nuestra moneda.

Considerando lo anterior, ampliamos el experimento y realizamos 8 nuevos


lanzamientos (10 en total), resultando 5 caras y 5 sellos. Nuevamente el resultado
es 0,5, sin embargo, ahora intuitivamente nos percatamos que la verdadera
naturaleza de la moneda se encuentra en un rango menos amplio. Por ejemplo, es
poco probable que después de 10 lanzamientos 9 sean sello, menos aún que
todos lo sean, sin embargo, aún es factible que 8 ó 7 ó 6 sí lo sean. Así, nuestro
nuevo rango puede variar entre 0,2 y 0,8, pero con un alcance: todos advertimos
que si bien 0,8 y 0,2 son posibles, los valores centrales (0,4 y 0,6) lo son más aún,
siendo 0,5 el más probable.

Decidimos seguir experimentando, realizando 90 nuevos lanzamientos (100 en


total), resultando 50 caras y 50 sellos. Nuevamente el resultado es 0,5, advirtiendo
que cada vez es más probable que la verdadera naturaleza de nuestra moneda es
el de una no balanceada, pero aún con un rango de variabilidad que podríamos
estimar entre 0,4 y 0,6 (es decir, que después de 100 lanzamientos, el resultado
real varíe entre 40 y 60 sellos).

Realizamos 1.000 lanzamientos, resultando 500 sellos y 500 caras, con lo que
estamos aún más seguros que nuestra moneda no está balanceada (nuestro
rango puede ser 0,45 a 0,55 o menor).
El ejemplo anterior nos permite aclarar varios conceptos:

• La «verdadera naturaleza» de nuestra moneda (si está balanceada o no)


corresponde al valor real.

• El rango de valores reales posibles, es decir, el rango donde se encuentra la


verdadera naturaleza de nuestra moneda, corresponde al IC.

• El valor real más probable corresponde al estimador puntual del estudio, en este
caso 0,5.

• Finalmente, advertimos la relación inversa entre la amplitud del IC y el tamaño


muestral: si consideramos que el número de lanzamientos representa el n de la
muestra, observamos que mientras más pequeño es el n más amplio es el IC. A
mayor número de lanzamientos (mayor n) más certeza tenemos que el resultado
del experimento se acerca al valor real, por lo tanto el IC es más estrecho 5-8.

Para llevar a la práctica el concepto vamos a recurrir al ejemplo utilizado en el


artículo anterior: la comparación de una nueva droga A versus una droga B en la
prevención de AVE en pacientes con antecedente de accidente isquémico
transitorio (AIT) (Tabla 1)4.

Al analizar estos datos se obtiene una reducción absoluta del riesgo (RRA) de
4,2% con 95% de intervalo de confianza de 0,9% a 7,5%. Esto quiere decir que
el valor real, es decir, el resultante al aplicar la intervención a la población total de
pacientes con AIT, está con 95% de probabilidad entre un RRA de 0,9% a 7,5%,
siendo el valor más probable 4,2%. Si aumentamos el n de la muestra a 20.000
obtendríamos nuevamente un RRA de 4,2%, pero con un intervalo de confianza
más estrecho, de 3,5% a 4,9% (Fórmula en apéndice 1).
Apéndice 1. Fórmula de intervalo de confianza:

Donde:

p1 Tasa de eventos grupo 1


p2 Tasa de eventos grupo 2
n1 n grupo 1
n2 n grupo 2

Interpretación de un IC

El intervalo de confianza es una medida de precisión que permite al clínico evaluar


2 aspectos de un resultado (estimador puntual):

1. Si existe diferencia estadística significativa.

2. Si tal diferencia es relevante para recomendarla a mis pacientes (relevancia


clínica).

Para analizar si existe o no diferencia estadística significativa debemos observar


los extremos del IC. Independiente si el estimador puntual muestra beneficio o
daño, debemos verificar si alguno de los extremos del IC pasa sobre la línea del
no efecto. Si es así, existe la posibilidad de que el valor real corresponda al no
efecto o incluso tenga un efecto opuesto al esperado. En este caso no existiría
diferencia estadísticamente significativa entre aplicar o no la intervención (Figura
1)7,8.

Cuando un estudio demuestra un efecto con significación estadística (es decir el


extremo del IC no cruza ni toca la línea del no efecto), el clínico debe definir cuál
es el beneficio mínimo necesario para recomendar la terapia, lo que
llamaremos umbral. Así, nuestro estudio hipotético demuestra beneficio
estadístico significativo, siendo el beneficio mínimo probable un RRA de 0,9%. El
que este beneficio tenga relevancia clínica depende del tipo de evento prevenido o
favorecido, los efectos adversos de la droga A v/s la droga B, el costo, las
circunstancias clínicas, etc. Si el evento a prevenir es banal, o si la droga A tiene
muchos efectos adversos y es más cara que B, nuestro umbral va a ser alto, por lo
tanto el beneficio demostrado en nuestro estudio no sería relevante 7,8 (Figura 2).

Al contrario, si el evento a prevenir es relevante en sí mismo (por ej: mortalidad o


invalidez), o si la nueva droga es más barata y sin efectos adversos, tal vez con
demostrar un RRA de sólo 0,5% nos basta para recomendarla (umbral), por lo
tanto nuestro estudio no sólo demuestra diferencia estadísticamente significativa,
sino que también beneficio relevante para el paciente (Figura 3).

Figura 1. Estudio hipotético cuyo estimador puntual informa un RRA 2,8%, pero
cuyo IC sobrepasa la línea del no efecto, por lo tanto es posible que el valor real
sea daño. No existe diferencia estadística significativa en este estudio.

Figura 2. Estudio hipotético que informa beneficio estadístico significativo, sin


embargo, el IC pasa sobre el beneficio mínimo necesario para recomendar la
terapia (umbral, RRA 3%). El beneficio mínimo demostrado (RRA 0,9%) no es
suficiente para recomendar la terapia.

Figura 3. Estudio hipotético que informa beneficio estadístico significativo. El IC no


sobrepasa el beneficio mínimo necesario para recomendar la terapia (umbral, RRA
0,5%). El beneficio mínimo demostrado (RRA 0,9%) es suficiente para recomendar
la terapia.
 

Así, para evaluar beneficio clínico, primero debemos establecer un umbral mínimo
de beneficio, el que depende del tipo de evento a prevenir o favorecer los efectos
adversos, costos, etc. de la nueva droga, y luego observar el beneficio mínimo
probable que muestra el estudio, que corresponde al extremo del IC más cercano
a la línea del no efecto. Si el extremo del IC no sobrepasa el umbral se asume que
el beneficio mínimo probable es suficiente para recomendar la nueva terapia.

Existe la posibilidad que la nueva droga hiciese daño (RRA negativo). El proceso
es similar al anterior, estableciendo un umbral máximo de daño tolerable, y
observando el extremo del IC que más se acerca a la línea del no efecto. Si la
nueva droga genera más daño con una diferencia estadísticamente significativa,
debemos observar si el extremo del IC sobrepasa ese umbral. Si no lo hace se
asume que el daño mínimo probable es más alto que lo tolerable, por lo tanto se
está en condiciones de rechazar la nueva terapia 7,8 (Figura 4).

Al comparar dos grupos en un estudio podemos demostrar que no existe


diferencia entre ambos (hipótesis nula) o que sí la hay (hipótesis alternativa)9,10.
El valor P es un test de hipótesis que nos ayuda a afirmar con cierto nivel de
seguridad (por consenso se usa 95%, que se expresa como P <0,05) que una de
las hipótesis es la correcta. Para nuestro ejemplo, la hipótesis nula corresponde a
la igualdad de resultados al usar la droga A o B, mientras que la hipótesis
alternativa supone que una de ellas es mejor que la otra en prevenir la
enfermedad.

El valor P representa la probabilidad que una diferencia observada entre 2 grupos


sea sólo debida al azar, es decir, la probabilidad que la hipótesis nula sea
verdadera a pesar de observar diferencia en un estudio 7-9. Como toda
probabilidad, puede tener valores desde 0 a 1. Valores más cercanos a 1 indican
que existe una alta probabilidad que las diferencias observadas sean sólo por
azar, es decir, apoya la hipótesis nula. En cambio, valores más cercanos a 0
apoyan la hipótesis alternativa.

Apliquemos este concepto a nuestro ejemplo, en que se obtiene un RRA de 4,2%


con un valor P <0,05 (p=0,039). Si asumimos como valor real que la droga A es
igual a B (hipótesis nula) y pudiéramos repetir el estudio muchas veces, el P <0,05
nos dice que en menos de 5% de las ocasiones se observaría tal diferencia entre
ambas, sólo por azar. Dicho de otra forma, en la mayor parte de las ocasiones la
diferencia observada no se debe al azar, por lo tanto rechazamos la hipótesis nula
y establecemos que existe diferencia estadística significativa 9,10.

El valor P se correlaciona en forma muy estrecha con el intervalo de confianza, ya


que si uno muestra diferencia estadística significativa el otro también lo hace, y
viceversa. Sin embargo, el valor P, a diferencia del IC, no nos entrega información
respecto al rango en el que se encuentra la magnitud del efecto de un
determinado tratamiento (valor real), por lo que sólo nos habla de diferencias
estadísticas significativas, sin permitirnos evaluar si esta diferencia es relevante
para mi paciente. Por ejemplo, un resultado significativo (P <0,05) podría incluir
diferencias clínicamente irrelevantes, y resultados no significativos (P >0,05)
podrían esconder una diferencia clínicamente importante entre 2 tratamientos si el
estudio no incluye un tamaño muestral adecuado (un estudio con bajo poder
puede no mostrar una diferencia que realmente sí existe) 8.

De esta forma, aunque el valor P mide la fuerza de una asociación, siempre es útil
el intervalo de confianza para complementar la evaluación de la magnitud del
efecto de una intervención y poder realizar una interpretación adecuada de los
resultados de un estudio.
BIOGRAFIA.

https://statologos.com/ejemplos-de-definicion-de-medida-de-probabilidad/
https://www.significados.com/metodo-inductivo/
https://www.esan.edu.pe/conexion-esan/conoce-las-principales-distribuciones-de-
probabilidad#:~:text=Una%20distribuci%C3%B3n%20de%20probabilidad
%20es,se%20realice%20en%20el%20futuro.
https://www.matematicasonline.es/BachilleratoCCSS/segundo/archivos/
distribucion_normal/DISTRIBUCION%20NORMAL.htm
https://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0034-
98872005000900017

También podría gustarte