Está en la página 1de 10

RESUMEN

FINAL DE
PROBLEMÁTICAS DE
LA PROBABILIDAD Y
ESTADÍSTICA I
ESTADÍSTICA
¿Qué es la estadística?
La palabra estadística posee dos significados:

*Como recolección de datos numéricos: es una información numérica cuyos datos


deben ser un conjunto coherente, establecido de forma sistemática según un criterio
de ordenación.

*Como ciencia: La estadística como ciencia estudia los fenómenos de masa para hallar
en ellos las regularidades del comportamiento colectivo, regularidades que sirven para
describir un fenómeno y para efectuar predicciones. “La estadística nunca estudia un
caso aislado, siempre estudia grupos o conjuntos de casos”. Es decir, a partir de la
observación de un hecho particular, comenzamos a analizar una cantidad de casos
similares en busca de alguna generalidad que caracterice a todos los objetos.

SIGNIFICADO FIN
Como recolección de datos numéricos Descripción
Como ciencia Búsqueda de regularidades

Ramas o tipos de estadística


-Estadística descriptiva: obtiene, resume y transforma datos para poder interpretar la
información. Es decir, es la ciencia dedicada a descubrir las regularidades o
características existentes en un conjunto de datos. “Si la información parte de una
muestra con la finalidad de conocer mediante ella las características de la población,
nos encontramos ante un proceso de inducción”. La estadística descriptiva es la parte
más clásica, más conocida y más elemental de la ciencia estadística.

-Estadística inferencial: su función es facilitar la comprensión de los resultados de la


muestra para estimar las características de la población. El conjunto de datos u
observaciones de una muestra puede utilizarse en un doble sentido: primero, para
describir el propio conjunto de observaciones y, segundo, para inferir o predecir lo
que ocurre en la población.

Conceptos básicos de la estadística


Unidad de análisis: es el objeto del cual se desea obtener la información. La unidad de
análisis puede ser algo con existencia real (casa, auto, etc) o algo más abstracto
(temperatura, tiempo, etc).
Población o universo: es el conjunto de unidades de análisis que poseen una definición
común y en las que interesan analizar una o varias características. La población debe
estar perfectamente definida en el tiempo y en el espacio.

Muestra aleatoria: es una parte o subconjunto de las unidades de análisis de una


población dada, destinado a suministrar información sobre la población. Las causas por
la cual se realizan muestras suelen ser por un tamaño infinito de la población o un
tiempo muy extenso para recolectar la información.

Parámetros y estadísticos: se llama parámetros a los valores característicos de una


“población” y se llama estadísticos a los valores característicos de una “muestra”.

Variable: es la cualidad o cantidad medible que se estudia de las unidades de análisis, y


que varían de una unidad a otra. Ej: edad, sexo, cantidad de lluvia caída, etc.

TIPOS DE VARIABLES
Formas de presentación de datos
Texto: es una combinación de cifras y textos. Solo puede utilizarse cuando los datos a
presentar son pocos.

Cuadros: permiten volcar un gran número de datos en forma resumida, haciendo fácil
y clara su lectura. Facilita las comparaciones de los datos.

Gráficos: tienen como finalidad ofrecer una visión de conjunto del fenómeno sometido
a investigación y son más fáciles de entender que la observación directa de los datos
numéricos.

TIPOS DE GRÁFICOS ESTADÍSTICOS


Gráfico de línea: se muestra la variación de una variable a través del tiempo, haciendo
énfasis en los cambios y tendencias.

Gráfico de barras: cada barra representa un valor de la variable. Se tienen de barras


simples, de barras compuestas (para representar datos clasificados por más de una
variable) y de barras subdivididas.
Gráfico de sectores: se representan sobre un círculo que representa a la población
total o universo, se divide en sectores que representan la partición relativa de un valor
de la variable sobre el total de la población.

Histograma, polígono de frecuencias y ojiva


Histograma: es la representación, en un sistema de coordenadas cartesianas
ortogonales, de la distribución de frecuencias (absolutas o relativas) de una variable
agrupada en intervalos, mediante un gráfico de superficies.

Polígono de frecuencias: es una línea poligonal obtenida en un histograma uniendo los


puntos medios de los lados superiores de los rectángulos.
Ojiva: es la representación gráfica de las frecuencias acumuladas (relativas o
absolutas) de una variable agrupada en intervalos, mediante una línea poligonal
obtenida uniendo los puntos que tienen por abscisas, los límites superiores del
intervalo y, por ordenadas las respectivas frecuencias acumuladas.

MEDIDAS DE CENTRALIZACIÓN
Es el número que se obtiene al dividir la suma de
todas las observaciones por la cantidad de observaciones sumadas. Calcular el
promedio con datos agrupados:

. Xi: marca de clase i

.Fi: frecuencia absoluta i

.n: total de datos

Mediana ( ): si todos los valores observados de la variable se ordenan en sentido


creciente o decreciente, la mediana es el valor de la variable que ocupa el lugar central,
es decir, el que deja a un lado y al otro el mismo número de observaciones. Calcular la
mediana con datos agrupados:

.Li: límite inferior de la clase donde se encuentra el valor central del total de datos.
.N/2: total de datos sobre dos.

.Fi: es la frecuencia absoluta de la clase de la mediana.

.Fi-1: frecuencia acumulada anterior a la clase donde está la mediana.

.A: es la amplitud de la clase.

Moda ( ): es el valor de la variable que más veces se repite. O sea, el valor que
presenta mayor frecuencia. Si hay dos valores distintos que se repiten la misma
cantidad de veces es “bimodal” y si son más de dos es “polimodal”. Calcular la moda
con datos agrupados:

.Li: es el límite inferior de la clase modal (para hallarlo se busca la frecuencia


acumulada más alta).

.Fi: es la frecuencia absoluta de la clase modal.

.Fi-1: es la frecuencia absoluta anterior a la clase modal.

.Fi+1: es la frecuencia absoluta siguiente a la clase modal.

.A: es la amplitud de la clase.

MEDIDAS DE DISPERSIÓN O DE VARIACIÓN


Las medidas de tendencia central no son suficientes para la descripción de un conjunto
de datos. Es importante, además, analizar cuán dispersos están los datos en torno a la
medida de tendencia central.

Conceptos principales:

Desviación media: es el promedio de los valores absolutos de los desvíos. “el principal
inconveniente es que el promedio nos da 0”.

Varianza: “para evitar que de 0”, es el promedio de los valores absolutos de los desvíos
al cuadrado. Es una desventaja que este al cuadrado ya que no es la misma unidad que
tiene la variable en estudio.
Desviación estándar: se utiliza para solucionar el inconveniente de que la varianza no
esté en la misma unidad que la variable en estudio. Se define como la raíz cuadrada de
la varianza.

Coeficiente de variación: se define como el cociente entre la varianza y el promedio de


los datos de la variable. Nos permite determinar si los datos se encuentran dispersos o
no. Si es menor al 10% se encuentran cerca y si es mayor al 10% se encuentran
dispersos.

PROBABILIDAD
¿Qué es la probabilidad?
La probabilidad es un método por el cual se obtiene la frecuencia de un
acontecimiento determinado mediante la realización de un experimento aleatorio, del
que se conocen todos los resultados posibles, bajo condiciones suficientemente
estables.

Conceptos básicos:
-Experimento aleatorio (E): es una prueba que consiste en repetir un fenómeno
aleatorio con el objetivo de analizarlo y extraer conclusiones sobre su comportamiento.

-Espacio muestral (S): es el conjunto de todos los posibles resultados del experimento
aleatorio. Puede ser finito o infinito, según la cantidad de elementos que contenga, y si
es infinito puede ser numerable o no numerable.

-Su s s v n s A, B, C, … son subconjuntos del espacio muestral, es decir, cada


uno de los posibles resultados que se puede obtener de un experimento.

Distintos enfoques de la probabilidad


Enfoque clásico o de Laplace (a priori): “se piensa en la probabilidad antes de realizar
el experimento”. Se basa en el razonamiento lógico. Se define como el cociente entre
la cantidad de resultados favorables al evento sobre el total de resultados posibles
Enfoque experimental o de frecuencia relativa (a posteriori): “se piensa en la
probabilidad luego de realizar el experimento”. Este método utiliza como
probabilidades, las frecuencias relativas de ocurrencias pasadas: determinamos la
frecuencia con que algo sucedió en el pasado y mediante esa cifra predecimos la
probabilidad de que vuelva a ocurrir en el futuro.

Enfoque axiomático: se define la probabilidad como una función que asocia a cada
suceso “A” una determinada probabilidad P(A) que cumple las siguientes propiedades
o axiomas:

1) La probabilidad de cualquier suceso se encuentra entre 0 y 1. ( 0 ≤ P ≤ 1)


2) La probabilidad del suceso seguro es 1. ( P(Ω)=1 )
3) La probabilidad de la unión de un conjunto cualquiera de sucesos
incompatibles dos a dos es la suma de las probabilidades de los sucesos. Si (A, B,
C) son incompatibles, entonces, P(A U B U C)= P(A)+P(B)+P(C).

Enfoque subjetivo: define la probabilidad de un evento a base del rado de confianza


que una persona tiene de que el evento ocurra, teniendo en cuenta todos los
conocimientos que tiene disponible.

SUCESOS MUTUAMENTE EXCLUYENTES Y COMPATIBLES

Eventos mutuamente excluyentes: dos eventos son mutuamente excluyentes si no


pueden ocurrir al mismo tiempo. Ej: “si se arroja un dado”, dos suceso mutuamente
excluyentes pueden ser: 1)”Que salga un número par”, 2)”Que salga un número
impar”.
Eventos no mutuamente excluyentes o compatibles: dos eventos no son mutuamente
excluyentes cuando tienen uno o más resultados e común. Ej: “si arrojamos un dado”,
dos sucesos compatibles pueden ser, 1) “Que salga un múltiplo de 3”, 2)”Que salga un
número mayor que 4”.

También podría gustarte