Está en la página 1de 17

Capítulo 1

Estadística: Definiciones básicas

Experimento o Encuesta: Se llama así a la observación planeada de un fenómeno de cualquier índole con
el objetivo de conocer su comportamiento, poder describirlo y/o tomar una decisión.

1. Se llama Unidad experimental a cada uno de los entes que son observados en el experimento.

Se llama Medición a la asignación, conforme a reglas preestablecidas, de valores (símbolos, numerales o


números), a cada una de las características que poseen las Unidades Experimentales.

Se llama Escala de medición a una regla preestablecida o instrumento de medición, que consiste en un
conjunto de valores que se asignaran a una característica especifica que poseen las Unidades de
Experimentales.

Se llama Dato estadístico al valor asignado a una de las características de una Unidad Experimental,
conforme a la Escala de Medición empleada.

2. Datos estadísticos cualitativos: Son aquellos valores correspondientes a los atributos o propiedades
categóricas que solo se pueden usar para identificar y describir a una Unidad Experimental.
3. Datos estadísticos cuantitativos: Son aquellos valores que, además de identificar y describir a una
Unidad Experimental, establecen las diferencias posibles entre los valores en cantidad y grado.
4.
Escalas de medición:
5. Escala nominal: Se usa únicamente para clasificar a los entes en distintas categorías. Esta escala se
utiliza cuando los datos son cualitativos
6. Escala Ordinal: Se usa para, además de clasificar a los entes en distintas categorías, clasificarlos de
acuerdo a su rango. Esta escala se utiliza cuando los datos son cualitativos.
7. Escala de Intervalo o Distancia: Se usa para, además de clasificar a los entes en distintas categorías y
clasificarlos de acuerdo a su rango, poder establecer una distancia entre dos cualquiera de ellos. Esta
escala se utiliza cuando los datos son cuantitativos.
8. Escala de Razón o proporción: Se usa para, además de clasificar a los entes en distintas categorías,
clasificarlos de acuerdo a su rango, y poder establecer una distancia entre dos cualquiera de ellos,
poder establecer una proporcionalidad entre dos cualquiera de ellos.

Información: Al resultado de la evaluación de los datos estadísticos cuando se los compara con una
adecuada referencia.

Estadística: Es la disciplina científica que crea, desarrolla y aplica los adecuados métodos de recopilación
de datos, y su evaluación, para transformarlos en informaciones con las cuales se describan objetivamente
las distintas situaciones investigadas, se analice el comportamiento de determinadas características que
poseen las unidades experimentales, y se tomen decisiones en condición de incertidumbre.

Universo: Es el conjunto de Unidades Experimentales que poseen características comunes observables


para obtener información sobre un hecho particular. Puede ser finito o infinito. Se va a determinar cuándo
se establezca el objetivo del trabajo a realizar.

Se llama variable a cualquier característica observable que tienen las unidades experimentales.

Se llama recorrido de una variable al conjunto de los posibles valores que ella puede asumir.
Puede ser:
9. Un conjunto infinito no numerable: recorrido infinito no numerable
10. Un conjunto Infinito numerable: recorrido infinito numerable
11. Un conjunto finito: recorrido finito

Variable cualitativa: Cuando los valores que puede asumir no constituyen un espacio métrico. Se miden en
escala nominal o en escala ordinal.

Variable cuantitativa: Cuando los valores que puede asumir si constituyen un espacio métrico. Se miden
en escala de Intervalo o de razón y los valores pueden ser únicamente números.

12. Variable cuantitativa continua: Dado un intervalo [a; b] de números reales, si cualquier número real
que pertenece a dicho intervalo puede ser un valor de la variable, entonces la variable es continua. El
recorrido de una continua es siempre infinito no numerable.

13. Variable cuantitativa discreta: Dado un intervalo [a; b] de números reales, si solo algunos números
reales que pertenecen a dicho intervalo pueden ser un valor de la variable, entonces la variable es
discreta. El recorrido de una discreta es siempre finito o infinito numerable.

Se llama Población a cada una de las variables particulares que se estudian en un universo.

Se llama Muestra a un subconjunto o parte de una población sobre la base de la cual se puede hacer un
juicio acerca de esta.

Etapas de la tarea estadística

1- Enunciación del problema, definición del Universo e identificación de las variables: Se realiza en
forma conjunta por el estadístico y por el especialista en disciplina que lleva a cabo la investigación.

2- Formulación de los instrumentos de medición: son aquellos con los cuales se obtienen y/o registran
los datos a medida que se los conoce o ellos se producen.

3- Recopilación de los datos: Forman la materia prima del proceso estadístico para la obtención de
información.

4- Presentación de los datos: Escrita, a través de un cuadro estadístico o un gráfico.

5- Análisis de los datos:


- Análisis estadístico descriptivo: Permite describir el comportamiento empírico de las variables,
mediante el cálculo de algunas medidas capaces de resumir la información que contienen los
datos.
- Análisis estadísticos inferencial: El análisis inferencial permite tener información acerca de una
población o tomar decisiones concernientes a ella, mediante los datos obtenidos con una
muestra.
- Análisis probabilístico: Permite cuantificar la incertidumbre que provocan los resultados de
ciertos experimentos

6- Interpretación de los resultados: Los resultados expresados en un lenguaje estadístico son


traducidos al lenguaje de la disciplina.

Se llama regularidad estadística a la información del comportamiento de una variable, que proporciona el
registro ordenado de sus valores observados.
Cantidades absolutas y relativas
 Cantidades absolutas: Son aquellos datos cuantitativos que, cuando son presentados y/o
analizados, están expresados en las unidades de medida correspondientes a la magnitud que se
está midiendo.

 Cantidades relativas: Son aquellos datos cuantitativos que surgen del cociente entre dos cantidades
absolutas correspondientes a la misma magnitud y unidad de medida.

Se llama Proporción estadística a la cantidad relativa que se obtiene haciendo el cociente entre una parte
y su correspondiente total.

Capítulo 2

Cuadro estadístico: se llama así a un arreglo de filas y columnas dispuestas metódicamente de modo tal
que se puedan presentar y organizar los datos para clasificarlos adecuadamente.

Estructura:

1. Título: debe describir el contenido del cuadro

2. Nota de encabezado: se incorpora al cuadro para explicar ciertos puntos relacionados con la tabla
completa que no han sido incluidos en el título.

3. Columna de matriz: es la primera columna, y se ubican las variables que se consideran más
significativas.

4. Encabezado de columnas: se colocan los valores de las otras variables que se quieren presentar
junto a la variable más significativa, o algunas características especiales de ésta.

5. Cuerpo: es el conjunto de celdas que se forman con la intersección de filas y columnas.

6. Nota al pie: para clarificar o explicitar algún dato o elemento en particular.

7. Fuente: origen y forma del relevamiento de datos.

Gráficos: dibujo metódicamente realizado para presentar los daros y expresarlos en forma plástica.

Estructura:

1. Título

2. Nota de encabezado

3. Diagrama: está formado por los distintos trazos que se utilizan para realizar los dibujos. Pueden ser
líneas, rectángulos, circunferencias, etc.

4. Nota al pie

5. Fuente
 Lineal: se utiliza para representar valores de dos variables cuantitativas presentadas conjuntamente o
mostrar la evolución de una variable cuantitativa a través del tiempo. Formado por líneas rectas que unen
los puntos del plano.

 De barras: se utilizan cuando una de las variables es cualitativa. Formado por rectángulos dibujados sobre
un sistema de ejes cartesianos.

 Circulares: se utilizan para comparar partes de un total y la evolución en el tiempo o espacio.

 Datos no agrupados: Conjuntos de datos dispuestos tal como se presentan.

Capítulo 3

Frecuencia absoluta: cantidad de datos o valores observados de una variable que pertenecen a una misma
clase de equivalencia.

Frecuencia relativa: cociente entre la frecuencia absoluta y la cantidad total de observaciones.

Distribución de frecuencia: se llama así a una relación de clasificación de los datos que asigna a cada valor,
o grupo de valores que formen una misma clase de equivalencia, de una o más variables, su
correspondiente frecuencia.
Según la cantidad de variables que se quieran clasificar puede ser:
 Univariada: cuando se clasifica solamente una variable

 Polivariada: cuando se clasifican conjuntamente dos o más variables.

 Bivariada: cuando se clasifican sólo dos variables.

Frecuencia absoluta simple para variables cualitativas: Cantidad de variables experimentales que
pertenecen a una determinada categoría

Frecuencia relativa simple: cociente entre la frecuencia absoluta simple y la cantidad de observaciones.

 Variable cuantitativas discretas:

Frecuencia absoluta simple: Se llama así a la cantidad de veces que se repite un valor de la variable.

Frecuencia absoluta acumulada: a la cantidad de unidades experimentales con un valor de la variable


menor o igual a un valor dado.

Frecuencia relativa simple: al cociente entre la frecuencia simple y la cantidad de observaciones.

Frecuencia relativa acumulada: al cociente entre la frecuencia absoluta acumulada y la cantidad de


observaciones.

 Variables cuantitativas continuas

Frecuencia absoluta simple: cantidad de unidades experimentales cuyos valores observados de la variable
pertenecen a un mismo intervalo de clase.
Frecuencia absoluta acumulada: cantidad de unidades experimentales que tienen un valor observado de
la variable menor al límite superior de un intervalo.

Frecuencia relativa simple: cociente entre la frecuencia absoluta simple y la cantidad de observaciones.

Frecuencia relativa acumulada: cociente entre la frecuencia absoluta acumulada y la cantidad de


observaciones.

 Medidas que resumen información

Se llaman parámetros estadísticos cuando se calculan con la totalidad de los valores de una o más
variables y cuando son calculadas usando algún modelo matemático que describa el comportamiento
probabilístico de las poblaciones.

 Medidas de concentración

Aquellas medidas con las cuales se pueden establecer el porcentaje de datos que está concentrado dentro
de un determinado intervalo o un intervalo que contenga una determinada concentración porcentual de
datos.

 Rango percentilar: a la frecuencia relativa porcentual que se acumula desde el mínimo valor del
recorrido, hasta un valor dado de la variable.

 Percentil: aquel valor hasta donde se acumula, a lo sumo el k% de los datos y desde donde se
acumula a lo sumo el (100-k) %.

 Medidas de posición o tendencia central

Se llaman medidas de posición de una variable, a aquellos valores destacados con los cuales es posible
representar a la totalidad de los valores observados de la variable.

 Modo o Moda: Se llama así al valor de la variable que se presenta con mayor frecuencia.

 Mediana: Se llama mediana de una variable al valor que supera y es superado por, a lo sumo, igual
cantidad de observaciones.

 Promedios simples: Se llaman promedios simple de una variable a ciertos valores que se obtienen
mediante la aplicación de operadores matemáticos, a la totalidad de los valores observados de
dicha variable.

 Media Aritmética: De una variable x es el número que resulta de sumar todos los valores
observados de la variable y dividir esta suma por la cantidad de unidades experimentales
que se tienen.
 Media Geométrica: De una variable x es el número resultante de multiplicar todos los
valores observados de la variable extrayendo a este producto la raíz de índice igual a la
cantidad de datos.
 Media Armónica: De la variable x es el número resultante de hacer el cociente entre la
cantidad de observaciones y la suma de las inversas de todos los valores observados de la
variable.
 Promedios ponderados:

Ponderación: Se llama ponderación a aquella cantidad que permite asignar a cada valor de la
variable en estudio una determinada importancia o peso relativo.

 Medidas de variabilidad

Son aquellas que permiten estudiar, cómo se desvían, los valores observados de una variable, con respecto
a alguna medida de tendencia central.

 Desvío medio: Es una medida de variabilidad que mide el promedio aritmético del módulo las
desviaciones de los valores observados de una variable con respecto a una medida de tendencia
central.

 Suma de cuadrados: Mide la variabilidad total de los valores observados de una variable con
respecto a su media aritmética.

 Varianza: Mide el promedio aritmético del cuadrado de los desvíos que se producen entre cada
valor de la variable y la media aritmética.

 Desvío estándar: De una variable es la raíz cuadrada positiva de la varianza.

 Coeficiente de variación: De una variable es el cociente entre el desvió estándar y la media


aritmética de dicha variable.

 Momentos empíricos: Son operadores matemáticos que se obtienen a partir de los valores
observados de la variable.

 Momento empírico absoluto: al promedio de la potencia k –enésima de los valores


observados de la variable.
 Momento empírico centrado: al promedio aritmético de la potencia k-enésima de los
desvíos, de cada uno de los valores individuales observados de la variable, con respecto a la
media aritmética.

 Medidas de forma

Una distribución de frecuencias es simétrica cuando, si la variable es discreta, las frecuencias simples
correspondientes a valores de la variable que equidistan de la media aritmética son iguales; o, si la variable
es continua, las frecuencias simples de los intervalos cuyos puntos medios equidisten de la media
aritmética, son iguales.

Se llama curtosis a una determinada relación entre la amplitud total y la máxima frecuencia, que presenta
una distribución de frecuencia.

 Coeficiente de asimetría: de una variable X, es el cociente entre el momento centrado de orden 3 y la


potencia tercera el desvío estándar.

As(x) = mc3 (x) / S3(X)


 Si AS(x) = 0 entonces es SIMETRICA
 Si AS(x) > 0 entonces es ASIMETRICA POSITIVA. La distribución es asimétrica a la derecha.
 Si AS(x) < 0 entonces es ASIMETRICA NEGATIVA. La distribución es asimétrica a la izquierda.

 Coeficiente de curtosis: de una variable X, es el valor que surge de restarle 3 al cociente entre, el mc4 y
la potencia cuarta del desvío estándar.

K(x) = [mc4 (x) / S4(X)] – 3

 Si K(x) = 0 entonces tiene una distribución MESOCURTICA


 Si K(x) > 0 entonces tiene una distribución LEPTOCURTICA
 Si K(x) < 0 entonces tiene una distribución PLATICURTICA

Capítulo 4

Modelos matemáticos

 Modelo determinístico: se llama así a aquel modelo matemático que describe el comportamiento de las
variables cuyos valores quedan inequívocamente determinados a partir de las condiciones en que se
llevará a cabo el experimento que las origina.

 Modelo estadístico: se llama así a aquel modelo matemático que describe el comportamiento de las
variables cuyos valores no quedan inequívocamente determinados a partir de las condiciones en que se
llevará a cabo el experimento que las origina.

Experimento aleatorio o estocástico – E: Aquel fenómeno empírico que admite dos o más resultados
posibles y no se tienen elementos de juicio suficientes como para poder predecir con exactitud cuál o
cuáles de ellos ocurrirán, aunque se los repita bajo las mismas condiciones.

Espacio muestral – U: Se llama espacio muestral correspondiente a un experimento aleatorio, al conjunto


de todos los resultados posibles que puede presentar dicho experimento.
Según la cantidad de elementos que contiene el conjunto puede ser:
 Finito
 Infinito numerable
 Infinito no numerable

Suceso aleatorio: Cualquier subconjunto del espacio muestral U correspondiente a un experimento


aleatorio E.

Sucesos especiales:
 Teniendo en cuenta que el conjunto vacío es un subconjunto de cualquier conjunto, el conjunto
vacío es un subconjunto del espacio muestral → el CONJUNTO VACIO es un suceso aleatorio. S = Ø

 Teniendo en cuenta que todo conjunto es subconjunto de sí mismo, el espacio muestral, es un


subconjunto del espacio muestral → el ESPACIO MUESTRAL es un suceso aleatorio. S = U

Operaciones con Sucesos


 Complemento de un suceso: aquel suceso que ocurre sí, y solo si no se presenta el suceso S.
 Suceso conjunto: aquel suceso que ocurre sí, y solo sí se presentan conjuntamente dos o más de
los sucesos que forman el espacio muestral.

 Suceso unión incluyente: aquel suceso que ocurre sí, y sólo si ocurre alguno de los sucesos que
forman el espacio muestral.

 Suceso unión excluyente: aquel suceso que ocurre sí, y sólo si ocurre sólo uno de los sucesos que
forman el espacio muestral.

 Sucesos compatibles: dos o más sucesos son compatibles sí, y sólo si es posible que se presenten
en forma conjunta.

 Sucesos mutuamente excluyentes o incompatibles: dos o más sucesos son sucesos mutuamente
excluyentes sí, y sólo si la presentación de uno de ellos impide, “excluye” la presentación del o
de los otros.

 Frecuencia relativa: se llama fr correspondiente a un suceso aleatorio S, al cociente entre la


cantidad de veces que ocurrió el suceso y a cantidad de veces que se repitió el experimento E.

Principio de estabilidad de la frecuencia relativa: Establece que la frecuencia relativa correspondiente a


un suceso aleatorio, oscila con una convergencia asintótica, alrededor de un número fijo, cuando la
cantidad de observaciones del experimento aleatorio crece indefinidamente.

Axiomas para el cálculo de la probabilidad


Sea un experimento aleatorio E y su correspondiente espacio muestral U, se llama probabilidad de
ocurrencia de un suceso aleatorio S a un número real, denotado por P(S), que cumpla:

 La probabilidad de ocurrencia de un suceso aleatorio es un número real no negativo.

P(S) ≥ 0

 Si el suceso aleatorio es el espacio muestral, a la probabilidad de ocurrencia del suceso se le asigna


el valor 1.

S=U → P(S) = 1

 Sean S1 y S2 dos sucesos mutuamente excluyentes pertenecientes a un mismo espacio muestral, la


probabilidad de que se presente alguno de los dos, suceso unión es igual a la probabilidad de que
se presente el suceso S1, más la probabilidad de que se presente el suceso S2.

(S1S2) = Ø → P(S1 S2) = P(S1) + P(S2)

 Sean S1; S2; … ; Sk sucesos mutuamente excluyentes de a pares, pertenecientes a un mismo


espacio muestral, la probabilidad de que se presente alguno de ellos, suceso unión, es igual a la
probabilidad de que se presente el suceso S1 más la probabilidad de que se presente el
suceso S2 más etc, más la probabilidad de que se presente el suceso Sk.

(Si Sj) = Ø e i ≠ j → P(S1 S2…Sk) = P(S1) + P(S2) + …. + P(Sk).


Teoremas
 Si el suceso aleatorio es un conjunto vacío, la probabilidad de ocurrencia del suceso aleatorio es 0.

S = Ø → P(S) = P(Ø) = 0

 La probabilidad de ocurrencia de un suceso más la probabilidad de ocurrencia de su complemento


es igual a

1. P(S) + P(S) = 1

 Si S1 y S2 sin sucesos de un mismo espacio muestral, la probabilidad de que se presente alguno de


los dos, suceso unión incluyente, es igual a la probabilidad de que se presente el suceso S1más la
probabilidad de que se presente el suceso S2 menos la probabilidad de que se presenten
conjuntamente.

P(S1 S2) = P(S1) + P(S2) – P(S1S2)

 Si S1 y S2 sin sucesos de un mismo espacio muestral, la probabilidad de que se presente sólo uno
de los dos, suceso unión excluyente, es igual a la probabilidad de que se presente el suceso S1más
la probabilidad de que se presente el suceso S2 menos el duplo de la probabilidad de que se
presenten conjuntamente.

P(S1 S2) = P(S1) + P(S2) – 2P(S1S2)

 La probabilidad de ocurrencia de un suceso es un número real comprendido entre 0 y 1.

0 P(S)

Probabilidad marginal: Se llama probabilidad marginal de un suceso S1 a la probabilidad de que se


presente un suceso aleatorio S1 incluido en el espacio muestral U asociado a un experimento aleatorio E.

P(S1) = Probabilidad marginal del suceso S1.

Probabilidad conjunta:

 Para dos sucesos: se llama probabilidad conjunta de dos sucesos S1 y S2 a la probabilidad de que se
presenten en el mismo experimento aleatorio dos sucesos aleatorios S1 y S2 incluidos en el espacio
muestral U asociado a dicho experimento E.

P(S1 S2) = Probabilidad conjunta S1 S2

 Para más de dos sucesos: se llama probabilidad conjunta de k sucesos S1, S2, Sk a la probabilidad
de que se presenten en el mismo experimento aleatorio los k sucesos aleatorios S1,S2, Sk incluidos
en el espacio muestral U asociado a dicho experimento E.

P(S1 S2 Sk) = Probabilidad conjunta S1 S2…. Sk

Probabilidad condicional: Se llama probabilidad condicional del suceso S1 tal que se haya presentado el
suceso S2 a la probabilidad de que se presente el suceso S1 con la condición de que previamente se
presente el suceso S2.

P(S1/S2) = Probabilidad condicional de de S1 dado S2


El suceso S1 se llama suceso condicionado y el suceso S2 se llama suceso condicionante.

Sistemas exhaustivos: k sucesos mutuamente excluyentes, S1, S2…Sk, incluidos en el espacio muestral U,
asociados a un experimento aleatorio E, forman un sistema exhaustivo sí, y sólo si la suma de las
probabilidades marginales correspondientes a cada una de ellos es igual a uno.

Teorema de la probabilidad total de un suceso: Sean S1, S2…Sk, k sucesos mutuamente excluyentes,
incluidos en el espacio muestral asociado a un experimento aleatorio E, que forman un sistema exhaustivo
y sea B un seceso aleatorio incluido en el mismo espacio muestral U compatible con cada uno de los
sucesos Si, entonces la probabilidad total del suceso B es P(B) = P(Si) . P(B/Si)

Teorema de Bayes: Sean S1, S2…Sk, k sucesos mutuamente excluyentes, incluidos en el espacio
muestral asociado a un experimento aleatorio E, que forman un sistema exhaustivo y sea B un seceso
aleatorio incluido en el mismo espacio muestral U compatible con cada uno de los sucesos Si, entonces la
probabilidad condicional de un suceso particular incluido en el espacio muestral U, el suceso Sh,
habiéndose presentado el suceso B es P(Sh/B) = / P(Si) . P(B/Si)

Sucesos probabilísticamente independientes: Dos o más sucesos son probabilisticamente independientes


cuando la presentación de uno de ellos no modifica el valor de probabilidad de presentación del otro o de
los otros sucesos.

P(S1 / S2) = P(S1) y P(S2 / S1) = P(S2)

Si S1 y S2 son dos sucesos probabilisticamente independientes, la probabilidad conjunta (S1 S2) es igual al
producto de las probabilidades marginales
P(S1 S2) = P(S1) . P(S2)

Definiciones de probabilidad

 Clásica: Se llama probabilidad clásica de ocurrencia del suceso aleatorio S incluido en el espacio
muestral U asociado a un experimento aleatorio E, al cociente entre los casos favorables al suceso
y los casos posibles del experimento.

 Frecuencial: Se llama probabilidad frecuencial de ocurrencia del suceso aleatorio S incluido en el


espacio muestral U asociado a un experimento aleatorio E, a la frecuencia relativa estabilizada
correspondiente a dicho suceso.

 Subjetiva: Se llama probabilidad subjetiva de ocurrencia del suceso aleatorio S incluido en el


espacio muestral U asociado a un experimento aleatorio E, a un valor personal que un sujeto asigna
a la ocurrencia del suceso S basado en su mejor saber y entendimiento, conforme a los axiomas y
teoremas del cálculo de probabilidad.

Capítulo 5

Variable aleatoria: Se llama variable aleatoria a una función, o regla bien definida, que asigna, a cada
elemento del espacio muestral, un vector perteneciente a un espacio vectorial.

Es unidimensional cuando, a cada elemento del espacio muestral, se asigna un escalar perteneciente al
conjunto de números reales.
Se llama recorrido de una variable aleatoria unidimensional al conjunto formado por los números reales
que se pueden asignar a dicha variable.

Variable Aleatoria Discreta Unidimensional: Se llama así a aquella variable aleatoria cuyo recorrido es
finito o infinito numerable.

 Función de Probabilidad Puntual:


Se llama función de probabilidad puntual de una variable aleatoria discreta a una función, o modelo
matemático, que asigna a cada valor del recorrido de dicha variable, un número real no negativo, llamado
probabilidad puntual, de modo tal que la suma de todos estos valores, a través del recorrido de la variable,
debe ser igual a la unidad.

Debe cumplir con dos condiciones:


 Condición de no negatividad: el número real asignado por la función de probabilidad puntual, al i-
ésimo valor de la variable discreta, debe ser no negativo.

 Condición de cierre: la suma de todos los números reales asignados por la función de probabilidad
puntual, a cada valor de la variable discreta, debe ser igual a uno.

 Función de Distribución:
Se llama función de distribución de una variable aleatoria discreta, a una función que asigna a cada valor
del recorrido, un número real que representa la suma de todas las probabilidades puntuales, desde el
primero hasta el valor en cuestión.

 Función de Distribución Complementaria


Se llama función de distribución complementaria de una variable aleatoria discreta, a una función que
asigna a cada valor del recorrido, un número real que representa la suma de todas las probabilidades
puntuales, desde el valor en cuestión hasta el último.

 Percentiles de Variables Aleatorias Discretas


Se llama percentil de orden k (0 k 100 ^ kϵR) de una variable aleatoria discreta a un valor xk tal que,
hasta el valor de variable inmediato anterior, se acumule, a lo sumo, una probabilidad igual a k/100 y,
desde el valor de variable inmediato posterior se acumule, a lo sumo, una probabilidad igual a (1-k/100).

Variable Aleatoria Continua Unidimensional: Una variable con recorrido infinito no numerable es una
Variable Aleatoria Continua en un determinado intervalo de números reales, si existe una función real que
en dicho intervalo, cumpla con las siguientes condiciones:
 sea no negativa
 cubra una superficie igual a uno

 Función de Densidad de Probabilidad


Se llama Función de Densidad de Probabilidad de una variable aleatoria continua a la función real que
cumpla con la condición de no negatividad y con la condición de cierre.

 Función de Distribución
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x) definida en el intervalo
de números reales [a;b]. Se llama Función de Distribución, F(x) a un modelo matemático o función no
decreciente, que asigna a cada valor de la variable aleatoria un valor de probabilidad acumulada desde el
límite inferior del recorrido, hasta ese valor.
 Función de Distribución Complementaria
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x) definida en el intervalo
de números reales [a;b]. Se llama Función de Distribución Complementaria, G(x) a un modelo matemático
o función no creciente, que asigna a cada valor de la variable aleatoria un valor de probabilidad acumulada
desde un valor de la variable hasta el límite superior del recorrido.

 Percentiles de Variables Aleatorias Continuas


Se llama percentil de orden k (0 k 100 ^ kϵR) de una variable aleatoria continua al valor de la
variable xk donde se acumule, una probabilidad igual a k/100.

Momentos teóricos: Se llama momento de una variable aleatoria al valor esperado o esperanza
matemática de una función de la variable.

 Se llama momento o esperanza matemática de una función generada con una variable aleatoria
discreta, a la suma del producto de cada valor numérico de la función por el correspondiente valor de
probabilidad puntual, a través del recorrido de la variable.

 Se llama esperanza matemática de una función generada con una variable aleatoria continua, a la
integral a través del recorrido de la variable, del producto de la función dada por la función de densidad
de probabilidad de la variable.

Momentos Particulares

 Momentos Absolutos: Se llama momento absoluto de orden k a la esperanza matemática de la


potencia k-ésima de la variable aleatoria.

 Momentos Centrados: Se llama momento centrado teórico de orden k a la esperanza matemática de


la potencia k-ésima

Otras medidas que resumen la información:

 Desvío Estándar: Se llama Desvío Estándar de una variable aleatoria a la raíz cuadrada positiva de la
varianza esperada.

 Coeficiente de Variación: Se llama Coeficiente de Variación de una variable aleatoria discreta, al


cociente entre el desvío estándar y el promedio esperado.

 Mediana

 Mediana de una variable aleatoria discreta: Se llama mediana de una variable aleatoria discreta a
un valor tal que, hasta el valor de variable inmediato anterior, se acumule, a lo sumo, una
probabilidad de 0.50 y desde el valor de variable inmediato posterior se acumule, a lo sumo, una
probabilidad de 0.50

 Mediana de una variable aleatoria continua: Se llama mediana de una variable aleatoria
continua al valor de la variable hasta donde se acumula una probabilidad exactamente igual a 0.50

 Modo

 Modo de una variable aleatoria discreta: Se llama modo, moda o valor modal de una variable
aleatoria discreta a valor de la variable más probable, o de máxima probabilidad, dentro de un entorno
de dicho valor.
 Modo de una variable aleatoria continua: Se llama modo, moda o valor modal de una variable
aleatoria continua a valor de la variable con el que la función de densidad de probabilidad alcanza un
máximo relativo.

Teorema de Tchebycheff: Sean X una variable aleatoria, discreta o continua, con Esperanza Matemática
finita y Varianza finita, y sea k un número real positivo mayor a uno. Cualquiera sea la distribución de
probabilidad de la variable aleatoria X, siempre se cumple que:
La probabilidad de que, el módulo de la desviación entre un valor de la variable y el promedio esperado,
sea mayor o igual a k veces el desvío estándar (k>1), es a lo sumo 1/k2

Variable Estandarizada: Se llama variable estandarizada de una variable aleatoria, discreta o continua, a
la variable que se genera haciendo el cociente entre, la diferencia entre la variable original y su esperanza
matemática y la raíz cuadrada positiva de la varianza.

Capítulo 6

 Variable aleatoria discretas

Experimento Aleatorio Dicotómico: Se llama así, a aquel experimento aleatorio cuyo espacio muestra l
tiene solo dos resultados posibles mutuamente excluyentes.

Permutaciones: Dado un conjunto formado por n elementos, se llama permutación de n a cualquier


arreglo ordenado de los n elementos.

Espacio Continuo: Se llama así, a un recinto de infinitos puntos donde en cualquiera ellos es posible
encontrar un elemento.

 Distribución de Bernoulli

La cantidad de elementos con un determinado atributo que se presenta en una observación de un


experimento aleatorio dicotómico, es una variable aleatoria discreta, ȓ, llamada Distribución de Bernoulli.

 Distribución Hipergeométrica

La cantidad de elementos con un determinado atributo que se presentan en n observaciones dependientes


de un experimento aleatorio dicotómico, es una variable aleatoria discreta, ȓ cuya función de probabilidad
es
(𝑅𝑟). (𝑁−𝑅
𝑛−𝑟
)
( )
𝑝 𝑟 = 𝑁
(𝑛 )

Llamada Distribución Hipergeométrica.

Características:
- Dicotómica (probabilidad de ocurrencia de un hecho y su contrario)
- Universo finito (probabilidad del hecho dependiente
- Sin reposición
- Parámetros matemáticos:
o 𝒓 = 𝒂𝒕𝒓𝒊𝒃𝒖𝒕𝒐 𝒅𝒆 𝒍𝒂 𝒎𝒖𝒆𝒔𝒕𝒓𝒂
o 𝑹 = 𝒂𝒕𝒓𝒊𝒃𝒖𝒕𝒐 𝒅𝒆𝒍 𝒖𝒏𝒊𝒗𝒆𝒓𝒔𝒐
o 𝒏 = 𝒎𝒖𝒆𝒔𝒕𝒓𝒂
o 𝑵 = 𝒖𝒏𝒊𝒗𝒆𝒓𝒔𝒐
o 𝒑 = 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒅𝒂𝒅
Parámetros estadísticos:
𝑅
 𝐸 (𝑥 ) = 𝑛. 𝑝 = 𝑛. 𝑁

𝑅 𝑁−𝑅 𝑁−𝑛
 𝑉(𝑥 ) = 𝑛. . .
𝑁 𝑁 𝑁−1

 Distribución Binomial

La cantidad de elementos con un determinado atributo que se presentan en n observaciones


independientes de un experimento aleatorio dicotómico, es una variable aleatoria discreta, ȓ cuya función
de probabilidad es

𝑛
𝑝(𝑟) = ( ) . 𝑝𝑟 . 𝑞(𝑛−𝑟)
𝑟

Llamada Distribución Binomial.

Características:
- El universo es infinito
- Las variables son independientes
- Es dicotómico
- El tamaño de la muestra y la probabilidad de ocurrencia están fijas
Parámetros estadísticos:

 𝐸 (𝑥 ) = 𝑛. 𝑝

 𝑉 (𝑥 ) = 𝑛. 𝑝. 𝑞

 𝑆(𝑥 ) = √𝑛. 𝑝. 𝑞

 Distribución Pascal

La cantidad de observaciones independientes de un experimento aleatorio dicotómico necesarias para


encontrar r elementos con un determinado atributo, es una variable aleatoria discreta ñ cuya función de
probabilidad es:

𝑛−1
𝑝 (𝑛 ) = ( ) . 𝑝𝑟 . 𝑞 (𝑛−𝑟) = 1
𝑟−1

Llamada Distribución Pascal.

Características:
- Universo infinito
- Es dicotómica
- Variables independientes
- Con reposición
- Parámetros matemáticos: r, p
Parámetros estadísticos
𝒓
 𝑬(𝒙) = 𝒑

𝒓.𝒒
 𝑽( 𝒙 ) = 𝒑𝟐

 Distribución Poisson

La cantidad de elementos que se presentan al azar en un continuo de extensión t, y con un promedio de


presentación en el continuo igual a λ, es una variable aleatoria discreta ȓ cuya función de probabilidad

𝑒 −𝜆 . 𝜆𝑟
𝑝 (𝑟 ) =
𝑟!

Llamada Distribución de Poisson.

Características:
- No dicotómico
- El universo es infinito
- parámetros matemáticos:
o 𝑏 = 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑑𝑒 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑎𝑐𝑖𝑜𝑛 (𝐹𝐼𝐽𝑂)
o 𝑡 = 𝑢𝑛𝑖𝑑𝑎𝑑 𝑜 𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑡𝑒𝑚𝑝𝑜𝑟𝑎𝑙 (𝑉𝐴𝑅𝐼𝐴)
o
Parámetros estadísticos:

 𝐸 (𝑥 ) = λ = 𝑉(𝑥)

 Variable aleatorias continuas

 Distribución Uniforme

Una variable continua X definida en el intervalo de números reales [a;b] tiene distribución uniforme si su
función de densidad de probabilidad es

1
𝑓 (𝑥 ) = { 𝑏−𝑎 𝑠𝑖 𝑎 ≤ 𝑋 ≤ 𝑏 ∀𝑎∀𝑏 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎 < 𝑏 𝑦 𝑎 ∈ 𝑅
𝑂 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Parámetros estadísticos:

𝑎+𝑏
 𝐸 (𝑥 ) = 𝜇𝑥 = 2

(𝑏−𝑎)2
 𝑉(𝑥 ) = 𝐸 (𝑥 − 𝜇 )2 = 𝜎𝑥2 = 12
 Distribución Exponencial

Una variable aleatoria continua X definida para todo número real positivo, tiene distribución exponencial si
su función de densidad de probabilidad es:

1 −𝛽𝑥
𝑓 (𝑥 ) = .𝑒 𝑥>0 𝑦 𝑥∈𝑅
𝛽
𝑓 (𝑥 ) = 0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Parámetros estadísticos:

 𝐸 ( 𝑥 ) = 𝜇𝑥 = 𝛽

 𝑉(𝑥 ) = 𝐸(𝑥 − 𝜇)2 = 𝜎𝑥2 = 𝛽2

 Distribución Normal

Una variable aleatoria continúa X definida para todos los números reales, tiene distribución normal, si su
función de densidad de probabilidad es:

1 1 𝑥−𝜇 2
𝑓 (𝑥 ) = .𝑒 2 𝜎 )
− .(
−∞<𝑥 <∞
√2. 𝜋. 𝜎

Parámetros estadísticos:
 𝐸 ( 𝑥 ) = 𝜇𝑥

 𝑉(𝑥 ) = 𝐸(𝑥 − 𝜇)2 = 𝜎𝑥2

 Teorema central del límite

Sean n variables aleatorias independientes, cada una de ellas con esperanza matemática finita y varianza
finita X1;X2:….;Xn entonces la variable suma estandarizada

∑𝑛𝑖=1 𝑐𝑖 . 𝑥𝑖 − ∑𝑛𝑖=1 𝑐𝑖 . 𝜇𝑥𝑖


𝑍=
√∑𝑛𝑖=1 𝑐𝑥2 . 𝜎𝑥𝑖
2

Bajo condiciones muy generales, se distribuye asintóticamente normal estandarizada, cuando el número
de variables que se suman crece indefinidamente, cualesquiera sean las distribuciones de las variables
aleatorias.
Si todos los promedios son iguales y todas las varianzas son iguales, entonces la variable suma
estandarizada es

∑𝑛𝑖=1 𝑥𝑖 − 𝑛. 𝜇𝑥
𝑍=
√𝑛. 𝜎𝑥
Y también tiene distribución asintóticamente normal estandarizada cuando la cantidad de variables que se
suman tiende a infinito.

Cuando hay que calcular una probabilidad referida a la suma de variables independientes y no se específica
cual es la distribución, se puede utilizar la distribución normal siempre y cuando n sea suficientemente
grande. N>30

También podría gustarte