Está en la página 1de 30

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Universitaria

Ciencia y Tecnología

Universidad Nacional Experimental Rafael María Baralt

“UNERMB”

Trabajo De Estadística
Unidades II, III, IV y V

Adrian Ferrer

29.999.489
Esquema

Introducción

Unidad II “Análisis descriptivo de una Variable

1. Esquema de las Tablas de Distribuciones de Frecuencia


2. Descripción de las diferentes gráficas de distribuciones de
Frecuencia
3. Medidas de Tendencia Central
3.1 Definición
3.2 Formulas de Cálculo
3.3 Ventajas y Desventajas
3.4 ¿Cuál es la más Confiable?

Unidad III “Fundamentos de Probabilidad”

1. Probabilidad
1.1 Definición Teórica
1.2 Definición Funcional
2. Azar y teoría de Probabilidad
2.1 Los axiomas de Probabilidad
3. Probabilidad Condicional
4. ¿Qué es un Teorema?
4.1 Teorema de Bayes

Unidad IV y V “Distribución discreta de probabilidad” y “Distribución de


probabilidad para variables continuas”

1. Distribución de probabilidad discreta


1.1 Aplicaciones de la distribución discreta en el Área
Administrativa
2. Distribución de probabilidad continua
2.1 Aplicaciones de la distribución continua en el Área
Administrativa
3. Distribución binomial y distribución de Poisson
4. Distribución Normal y Normal Estándar.
Introducción
En este trabajo se verán resumidas las unidades restantes
De la materia de Estadística (Unidad II, III, IV, V) donde
entre lo más resaltante del contenido se tiene:

*Tablas de Distribuciones de Frecuencia.


*Medidas de tendencia central.
*Definición de Probabilidad.
*La Teoría de la Probabilidad y el Azar.
*Definición de teorema.
*Distintos tipos de distribución de Probabilidad.
Desarrollo
Unidad II
1. Esquema de las Tablas de Distribuciones de Frecuencia

En estadística, se le llama distribución de frecuencias a la


agrupación de datos en categorías mutuamente
excluyentes que indican el número de observaciones en
cada categoría. Esto proporciona un valor añadido a la
agrupación de datos

F. Absoluta F. Relativa F. % F. Acumulada F. Acumulada %


↓ ↓ ↓ ↓ ↓
X fa fr f% FA FA%
1 3 0.06 6 3 0.06
2 9 0.18 18 12 0.24
4 13 0.26 26 25 0.5
6 8 0.16 16 33 0.66
7 8 0.16 16 41 0.82
8 4 0.08 8 45 0.9
10 5 0.1 10 50 1

Total 50 1 100

2. Descripción de las diferentes gráficas de distribuciones de


Frecuencia

Entre las diferentes graficas podemos encontrar:

 Columnas:
5

4.5

3.5

Frecuancia Absoluta
3

2.5

1.5

0.5

0
Categoría 1 Categoría 2 Categoría 3

Peso en kg
Frecuencia Absoluta

60 64 68 72 76 80 84 88 92 96 100

 Circulares:
Ventas

1er trim.
2º trim.
3er trim.
4º trim.

 Líneas:
6

Serie 1
3
Serie 2
Serie 3
2

0
Categoría 1 Categoría 2 Categoría 3 Categoría 4

3. Medidas de Tendencia Central

Es un numero situada hacia el centro de la distribución de


los valores de una serie de observaciones (medidas),
computado para resumir la información. Cuando se hace
referencia únicamente a la posición de estos parámetros
dentro de la distribución, independientemente de que este
mas o menos centrada, se habla de estas medidas como
medidas de posición. En este caso se incluyen también los
cuantiles entre estas medidas

 La media aritmética: es el valor obtenido por la suma


de todos sus valores dividida entre el número de
sumadores. Es también conocido como Promedio
Ejemplo:

Niño Nota
1 6.0
2 5.4
3 3.1
4 7.0
5 6.1

Total 27.6
Media 5.52

 La moda: Es el dato más repetido de la encuesta, el


valor variable con mayor frecuencia absoluta.
Ejemplo:

El número de personas en distintos vehículos en una


carretera: 5-7-4-6-9-5-6-1-5-3-7. El número que más
se repite es 5, entonces la moda es 5.
 La mediana: Es un valor variable que deja por debajo
de sí a la mitad de los datos, una vez que estos están
ordenados de menor a mayor.
Ejemplo

La mediana del número de hijos de un conjunto de


trece familias cuyos respectivos hijos son: 3, 4, 2, 3, 2,
1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez
ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4,
el que ocupa la posición central es 2:

1, 1 , 1, 1 , 1 , 1, 2 2, 2, 2, 3, 3,

Mitad inferior Mediana Mitad superior

En caso de un número par de datos, la mediana no


correspondería a ningún valor de la variable, por lo
que se conviene en tomar como mediana el valor
intermedio entre los dos valores centrales. Por
ejemplo, en el caso de doce datos como los
siguientes:

1, 1, 1, 1, 1, 1, 2, 2, 2, 3,

valores inferiores Intermedios Superiores

Se toma como mediana 1 ½ = (1+2)/2

3.3 Ventajas y desventajas:


Cada una tiene sus ventajas y desventajas, pero,
La Moda es la que se corona entre las 3 debido a
ser la más popular y la más fácil de entender
(Ventaja).

3.4 ¿Cuál es la más confiable?


Mi opinión es que la más confiable es el
promedio, debido a la facilidad de uso y que los
resultados son más confiables.

Unidad III

1. Probabilidad
1.1 Definición Teórica

Es la razón del número de maneras en que un evento


puede ocurrir al número de resultados posibles
1.2 Definición Funcional

Una función de probabilidad (también denominada


función de masa de probabilidad) es una función que
asocia a cada punto de su espacio muestral X la
probabilidad de que esta lo asuma.

En concreto, si el espacio muestral, E de la variable


aleatoria X consta de los puntos X1, X2, …, Xk, la
función de probabilidad P asociada a X es

P(xi) = Pi

Donde pi es la probabilidad del suceso X = xi .


Por definición de probabilidad,

∑ P( xi ¿ )=1 ¿
i=1

Distribución de la probabilidad

2. Azar y Teoría de Probabilidad

La teoría de la probabilidad es una rama de las


matemáticas que estudia los fenómenos aleatorios. Los
fenómenos aleatorios, son aquellos que se obtienen de
experimentos realizados, bajo condiciones determinadas
pero como resultado posible poseen un conjunto de
alternativas, por ejemplo, el lanzamiento de un dado o de
una moneda

La teoría de probabilidades se ocupa de asignar un cierto


número a cada posible resultado que pueda ocurrir en un
experimento aleatorio, con el fin de cuantificar dichos
resultados y saber si un suceso es más probable que otro.
En 1933, el matemático soviético Andréi Kolmogórov
propuso un sistema de axiomas para la teoría de la
probabilidad, basado en la teoría de conjuntos y en la
teoría de la medida.

Esta aproximación axiomática que generaliza el marco


clásico de la probabilidad, la cual obedece a la regla de
cálculo de casos favorables sobre casos posibles, permitió la
rigorización de muchos argumentos ya utilizados, así como
el estudio de problemas fuera de los marcos clásicos.

2.1 Los axiomas de probabilidad


I. Axioma (No negatividad)
La probabilidad de que ocurra cualquier suceso
α siempre es positiva o cero, P(α )≥ 0. Cuando la

probabilidad de un suceso es 0, se le llama


suceso imposible.
II. Axioma (Certidumbre)
Siempre que algún evento que pertenece a E, su
probabilidad de ocurrencia es 1, lo cual
podemos expresar como P(E) = 1. Es lo que se
conoce como un suceso seguro, ya que al
realizar un experimento, con toda certeza hay
un resultado.
III. Axioma (Adición)
En el caso de dos o más eventos incompatibles
dos a dos, llamados A1, A2, A3…, la probabilidad
de que ocurra el suceso A1 más el A2 más el A3 y
así sucesivamente, es la suma de las
probabilidades de que suceda cada uno
separadamente.

Esto se expresa como: P(


A1 ∪ A 2 ∪ A 3 ∪… ¿=P ( A 1 ) + P ( A 2 ) + P ( A 3 ) +…

3. Probabilidad Condicional

Es la probabilidad de que ocurra un evento A, sabiendo que


también sucede otro evento B. La probabilidad condicional
se escribe P(A/B), y se lee “la probabilidad de A dado B”. Un
ejemplo clásico es el lanzamiento de una moneda para
luego lanzar un dado.

4. ¿Qué es un Teorema?

Es una proposición matemática demostrable a partir de


axiomas o de proposiciones ya demostradas.

4.1 Teorema de Bayes


En la teoría de la probabilidad, es una proposición
planteada por el matemático inglés Thomas Bayes
(1702-1761) y publicada póstumamente en 1763, que
expresa la probabilidad condicional de un evento
aleatorio A dado B en términos de la distribución de
probabilidad marginal de sola A.

P ( B| A ) ∙ P ( A )
P ( A|B )=
P( B)
A, B = eventos
P(A|B) =la probabilidad de A dado B
P(B|A) = la probabilidad de B dado A
P(A), P(B) = las probabilidades independientes de A y
B.

Unidad IV & V

1. Distribución de probabilidad discreta

La distribución de probabilidad de una variable aleatoria es


una función que asigna a cada suceso definido sobre la
variable la probabilidad de que dicho suceso ocurra.
La variable aleatoria discreta es aquella que solo toma
ciertos valores (frecuentemente enteros) y que resulta
principalmente del conteo realizado.

F(x) ≡P(X≤x) = ∑
x ≤x
p ( x i¿ ) ¿
i

1.1 Aplicaciones

En el siguiente ejemplo se ve ilustrado el número de x


(siendo x algún capital) solicitadas en renta a una
agencia de alquiler en un período de 50 dias:

2. Distribucion de Variables Continuas


En el caso continuo, la probabilidad de que una variable
aleatoria X tome un valor específico x es cero.

La distribución de probabilidad de una variable aleatoria


continua X está caracterizada por una función f(x) que
recibe el nombre de función de densidad de probabilidad.
Esta función f(x) no es la misma función de probabilidad
que para el caso discreto. Como la probabilidad de que X
tome el valor específico x es cero, la función de densidad
de probabilidad no representa la probabilidad de que X = x.
Más bien, ésta proporciona un medio para determinar la
probabilidad de un intervalo a ≤ X ≤ b .

La función de densidad de probabilidad de una variable


aleatoria continua X se define formalmente de la siguiente
manera:
Si existe una función f(x) tal que

1. f ( x ) ≥0 ,−∞< x <∞

2. ∫ f ( x ) dx=1 , y
−∞
b

3. P ( a ≤ X ≤ b )=∫ f ( x ) dx
a

Para cualesquiera a y b, entonces f(x) es la funcion de


densidad de probabilidad de la variable aleatoria
continua X.

2.1 Aplicaciones
Sus áreas de aplicación incluyen inspeccion de
calidad, ventas mercadotecnia, medicina,
investigacion de opiniones y otras.
3. Distribución Binomial y Distribucion de Poisson

La distribución binomial es un modelo aplicable para


situaciones de toma de decisiones en las que puede
suponerse que un proceso de muestreo responde a un
proceso Bernoulli. Un proceso Bernoulli es un proceso de
muestreo en el que:

1. En cada ensayo u observación sólo son posibles dos


resultados mutuamente excluyentes. Por convención éstos
resultados se llaman éxito y fracaso.
2. Los resultados de la serie de ensayos, u observaciones,
constituyen eventos independientes.
3. La probabilidad de éxito de cada ensayo, indicada por p,
es constante de un ensayo a otro. Esto es, el proceso es
estacionario

La distribución binomial puede servir para determinar la


probabilidad de obtener un número establecido de éxitos
en un proceso Bernoulli. Se requiere de tres valores: el
número establecido de éxitos (x); el número de ensayos, u
observaciones (n), y la probabilidad de éxito en cada
ensayo (p).
Para resolver problemas que satisfacen las condiciones
enunciadas en el párrafo anterior, se utilizará una fórmula
que se obtendrá de la siguiente forma: si p y 1-p son
probabilidades de éxito y fracaso en cada ensayo, entonces
la probabilidad de obtener x éxitos y n-x fracasos en algún
orden específico es p x ( 1− p )n− x ; claramente, en este producto
de las p y de las (1-p) hay un factor p para cada éxito, un
factor 1-p para cada fracaso, y los x factores p y los n−x
factores 1-p son multiplicados todos a la vez. En vista de
que esta probabilidad se aplica a cualquier punto del
espacio muestral que representa x éxitos y n-x fracasos (en
cualquier orden específico), sólo tenemos que contar
cuántos puntos de esta clase existen, y multiplicar entonces
x
p ( 1− p )
n− x
por este número. Evidentemente, el número de
formas en que podemos obtener x exitos en n ensayos es el
numero de combinaciones de x objetos seleccionados en
un conjunto de n objetos ( nx )asi llegamos al siguiente
resultado:
La distribución de Poisson puede utilizarse para determinar
la probabilidad de ocurrencia de un número establecido de
eventos cuando éstos ocurren en un continuum temporal o
espacial. Este proceso se llama proceso de Poisson; aunque
semejante al proceso Bernoulli, se distingue de él en que
los eventos ocurren a lo largo de un continuum (durante un
intervalo temporal, por ejemplo) y en que no se dan
ensayos propiamente dichos. Un ejemplo de un proceso de
este tipo sería el número de personas que llegan a una
tienda de autoservicio en un tiempo determinado, el
número de bacterias en un cultivo, etcétera. Como en el
caso del proceso Bernoulli, se supone que los eventos son
independientes y el proceso es estacionario.
Para determinar la probabilidad de ocurrencia de un
número establecido de eventos en un proceso de Poisson
sólo se requiere de un valor: el número medio de eventos a
largo plazo en la dimensión temporal o espacial específica
de interés. Por lo general esta media se representa como
λ , o en ocasiones como μ . La fórmula para determinar la
probabilidad de un número establecido de éxitos x en una
distribución de Poisson es:
4. Distribución Normal y Normal Estandar
La distribución normal de probabilidad es una distribución
de probabilidad continua. La curva de probabilidad que
representa a la distribución normal de probabilidad tiene
forma de campana, como lo ejemplifican las curvas de
probabilidad de la siguiente figura.

La distribución normal de probabilidad es importante para


la inferencia estadística por tres razones:
1. Se sabe que las medidas obtenidas por muchos procesos
aleatorios siguen esta distribución.
2. Las probabilidades normales suelen servir para
aproximar otras distribuciones de probabilidad, como las
distribuciones binomial y Poisson.
3. Las distribuciones estadísticas como la media muestral y
la proporción muestral tiene distribución normal cuando el
tamaño de muestra es grande, independientemente de la
población origen.

Como sucede en todas las distribuciones continuas de


probabilidad, un valor de probabilidad de una variable
aleatoria continua sólo puede determinarse para un
intervalo de valores. Se dice que una variable aleatoria X se
encuentra normalmente distribuida si su función de
densidad de probabilidad está dada por:

Puesto que toda diferente combinación de


μ y σ generaría una distribución normal de probabilidad
diferente, las tablas de probabilidad normales se basan en
una distribución en particular: la distribución normal
estándar. Ésta es la distribución normal de probabilidad con
0= μ y 1 = σ . Todo valor de x precedente de una población
con distribución normal puede convertirse en el
equivalente valor estándar de z mediante la fórmula:

x−μ
z=
σ
Un valor de z reformula el valor x original en términos del
número de unidades de la desviación estándar por las
cuales el valor original difiere de la media de la distribución.
Un valor negativo z indicaría que el valor x original estaba
por debajo de la media.
Conclusión
En este trabajo se desarrollaron las unidades II, III, IV y V de
la materia Estadistica I, entre lo que se vio podemos notar:

I. Medidas de Tendencia Central

 La media aritmética: es el valor obtenido por la suma


de todos sus valores dividida entre el número de
sumadores. Es también conocido como Promedio
 Es el dato más repetido de la encuesta, el valor
variable con mayor frecuencia absoluta.
 La mediana: Es un valor variable que deja por debajo
de sí a la mitad de los datos, una vez que estos están
ordenados de menor a mayor.

II. Teorema de Bayes

P ( B| A ) ∙ P ( A )
P ( A|B )=
P( B)
A, B = eventos
P(A|B) =la probabilidad de A dado B
P(B|A) = la probabilidad de B dado A
P(A), P(B) = las probabilidades independientes de A y B.

Y las diferentes tablas de distribución, como anexo


correspondiente.

También podría gustarte