Está en la página 1de 6

Clasificación clásica de la estadística

El estudio de la estadística se divide clásicamente en dos, la estadística descriptiva y la estadística inferencial.

La estadística inferencial o inductiva sirve extrapolar los resultados obtenidos en el análisis de los datos y a partir de
ello predecir acerca de la población, con un margen de confianza conocido.

La estadística descriptiva o deductiva se construye a partir de los datos y la inferencia sobre la población no se puede
realizar, al menos con una confianza determinada, la representación de la información obtenida de los datos se representa
mediante el uso de unos cuantos parámetros y algunas graficas planteadas de tal forma que den importancia los mismos
datos.

Clasificación de la estadística
La estadística se puede clasificar en dos grandes ramas:
* Estadística descriptiva o deductiva.
* Estadística inferencial o inductiva.
La primera se emplea simplemente para resumir de forma numérica o gráfica un conjunto de datos. Se
restringe a describir los datos que se analizan. Si aplicamos las herramientas ofrecidas por la estadística
descriptiva a una muestra, solo nos limitaremos a describir los datos encontrados en dicha muestra, no se
podrá generalizar la información hacia la población. La estadística inferencial permite realizar conclusiones o
inferencias, basándose en los datos simplificados y analizados de una muestra hacia la población o universo.
Por ejemplo, a partir de una muestra representativa tomada a los habitantes de una ciudad, se podrá inferir la
votación de todos los ciudadanos que cumplan los requisitos con un error de aproximación.
Aplicación de la estadística en la ingenieria

La estadística aplicada en la Ingeniría se hace mediante la rama de la estadística que busca implementar los
procesos probabilísticos y estadísticos de análisis e interpretación de datos o características de un conjunto
de elementos al entorno industrial, a efectos de ayudar en la toma de decisiones y en el control de los
procesos industriales y organizacionales.

Pueden distinguirse tres partes:

* el estudio de las series temporales y las técnicas de previsión, y la descripción de los pasos necesarios para
el establecimiento de un sistema de previsión operativo y duradero en una empresa;
* el análisis multivariante, necesario para la extracción de información de grandes cantidades de datos, una de
las necesidades más apremiantes;
* el control de calidad y la fiabilidad.

Las aplicaciones de la estadística en la ingeniería actualmente han tomado un rápido y sostenido incremento,
debido al poder de cálculo de la computación desde la segunda mitad del siglo XX.

Para comprender el desarrollo de las aplicaciones de la estadística en la ingeniería hay que citar que los
Viejos Modelos Estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos
computadores junto con apropiados algoritmos numéricos, estan utilizando modelos no lineales
(especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos
lineales generalizados y modelos multinivel.

El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos


intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap,
mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles.

En el futuro inmediato la estadística aplicada en la ingenieria, tendrá un nuevo énfasis en estadísticas


"experimentales" y "empíricas". Un gran numero de paquetes estadísticos está ahora disponible para los
ingenieros. Los Sistemas dinámicos y teoría del caos, desde hace una década empezó a ser utilizada por la
comunidad hispana de ingenieria, pues en la comunidad de ingenieria anglosajona de Estados Unidos estaba
ya establecida la conducta caótica en sistemas dinámicos no lineales.

Algunos campos de investigación en la Ingeniería usan la estadística tan extensamente que tienen
terminología especializada. Estas aplicaciones incluyen:

* Ciencias actuariales
* Física estadística
* Estadística industrial
* Estadística Espacial
* Estadística en Agronomía
* Estadística en Planificación
* Estadística en Investigación de Mercados.
* Estadística en Planeación de Obras Civiles - megaproyectos.
* Estadística en Restauración de Obras
* Geoestadística
* Bioestadística
* Estadísticas de negocios y mercadeo.
* Estadística Computacional
* Investigación de Operaciones
* Estadísticas de Consultoría
* Estadística en la comercialización o mercadotecnia
* Cienciometría
* Estadística del Medio Ambiente
* Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos)
* Estadística económica (Econometría)
* Estadística en procesos de ingeniería
* Estadística en Psicometría y Ergonomia Laboral.
* Controles Estadísticos en Calidad y Productividad
* Estadística en Técnicas de Muestreo y Control.
* Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería química)
* Confiabilidad estadística aplicada al Diseño de Plantas Industriales.
* Procesamiento de imágenes e Interpretación Binarias para Equipos de Diagnóstico de Fallas y
Mantenimiento Predictivo.

Teorema de chebyshev

Teorema de Chebyshev.
Si una variable aleatoria tiene una varianza o desviación estándar pequeña,
esperaríamos que la mayoría de los valores se agrupan alrededor de la media. Por
lo tanto, la probabilidad de que una variable aleatoria tome un valor dentro de
cierto intervalo alrededor de la media es mayor que para una variable aleatoria
similar con una desviación estándar mayor si pensamos en la probabilidad en
términos de una área, esperaríamos una distribución continua con un valor grande
de  que indique una variabilidad mayor y, por lo tanto, esperaríamos que el área
este extendida. Sin embargo, una desviación estándar pequeña debería tener la
mayor parte de su área cercana a µ.
Podemos argumentar lo mismo para una distribución discreta. En el histograma de
probabilidad. El área se extiende mucho más que. Lo cual indica una distribución
mas variable de mediciones o resultados el matemático ruso P. L. Chebyschev
(1821±1894) descubrió que la fracción de área entre cualesquiera dos valores
simétricos alrededor de la media esta relacionada con la desviación estándar.
Como el área bajo una curva de distribución de probabilidad, o de un histograma
de probabilidad, suma 1, el área entre cualesquiera dos números es la
probabilidad de que la variable aleatoria tome un valor entre estos números.
El siguiente teorema, debido a Chebyshev da una estimación conservadora de la
probabi8lidad de que una variable aleatoria tome un valor dentro de 
desviaciones estándar de su media para cualquier numero real 
proporcionaremos la demostración solo para el caso continuo y se deja el caso
discreto como ejercicio.
Teorema de Chebyshev: La probabilidad de que cualquier variable aleatoria X,
tome un valor dentro de la  desviaciones estándar de la media es al menos 1 ± 1 /
2. Es decir
P (µ -   < X < µ +  ) • 1 ± 1±2.
1.- Una variable aleatoria X tiene una media µ = 8 una varianza  2 = 9, y

distribución de probabilidad desconocida. Encuentre

a) P (í 4 < X < 20).

b) P (| X - 8 | • 6).

Solución

a) P (í 4 < X < 20) = P[ 8 ± (4) (3) < X < 8 + (4) (3) ] • 15/14

b) P (| X - 8 | • 6) = 1 ± P (| X - 8 | < 6) = 1 ± P (- 6 < X - 8 < 6)

=1±P[8±(2)(3)<X<8+(2)(3)]8<6)”¼.¶
Distintos Tipos de Frecuencia:
Una de los primeros pasos que se realizan en cualquier estudio estadístico es la tabulación de resultados, es decir, recoger la
información de la muestra resumida en una tabla en la que a cada valor de la variable se le asocian determinados números que
representan el número de veces que ha aparecido, su proporción con respecto a otros valores de la variable, etc. Estos números se
denominan frecuencias: Así tenemos los siguientes tipos de frecuencia:

1. Frecuencia absoluta
2. Frecuencia relativa
3. Porcentaje
4. Frecuencia absoluta acumulada
5. Frecuencia relativa acumulada
6. Porcentaje acumulado

Frecuencia absoluta:

La frecuencia absoluta de una variable estadística es el número de veces que aparece en la muestra dicho valor de la variable, la
representaremos por ni

Frecuencia relativa:

La frecuencia absoluta, es una medida que está influida por el tamaño de la muestra, al aumentar el tamaño de la muestra aumentará
también el tamaño de la frecuencia absoluta. Esto hace que no sea una medida útil para poder comparar. Para esto es necesario
introducir el concepto de frecuencia relativa, que es el cociente entre la frecuencia absoluta y el tamaño de la muestra. La
denotaremos por fi

Donde N = Tamaño de la muestra

Porcentaje:

La frecuencia relativa es un tanto por uno, sin embargo, hoy día es bastante frecuente hablar siempre en términos de tantos por ciento
o porcentajes, por lo que esta medida resulta de multiplicar la frecuencia relativa por 100. La denotaremos por pi.

Frecuencia Absoluta Acunulada:

Para poder calcular este tipo de frecuencias hay que tener en cuenta que la variable estadística ha de ser cuantitativa o cualitativa
ordenable. En otro caso no tiene mucho sentido el cálculo de esta frecuencia. La frecuencia absoluta acumulada de un valor de la
variable, es el número de veces que ha aparecido en la muestra un valor menor o igual que el de la variable y lo representaremos
por Ni.

&NBSP;

&NBSP;

Frecuencia Relativa Acunulada:

Al igual que en el caso anterior la frecuencia relativa acumulada es la frecuencia absoluta acumulada dividido por el tamaño de la
muestra, y la denotaremos por Fi
Porcentaje Acumulado:

Análogamente se define el Porcentaje Acumulado y lo vamos a denotar por Pi como la frecuencia relativa acumulada por 100.

Se llama frecuencia a la cantidad de veces que se repite un determinado valor de la variable.

Se suelen representar con histogramas y con diagramas de Pareto.

Tipos de frecuencia

Fig.1 Ejemplo: variables de A en una muestra estadística de un conjunto B de tamaño 50 (N).

En estadística se pueden distinguir hasta cuatro tipos de frecuencias (véasefig.1), estas son:

 Frecuencia absoluta (ni) de una variable estadística Xi, es el número de veces que aparece en el estudio este valor .
A mayor tamaño de la muestra, aumentará el tamaño de la frecuencia absoluta; es decir, la suma total de todas las
frecuencias absolutas debe dar el total de la muestra estudiada (N).

 Frecuencia relativa (fi), es el cociente entre la frecuencia absoluta y el tamaño de la muestra (N). Es decir,

siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en una distribución de
frecuencias (ver fig.1 y (fig.2).

Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por ciento (pi) que presentan esta
característica respecto al total de N, es decir el 100% del conjunto.

 Frecuencia absoluta acumulada (Ni), es el número de veces ni en la muestra N con un valor igual o menor al de
la variable. La última frecuencia absoluta acumulada deberá ser igual a N.

 Frecuencia relativa acumulada (Fi), es el cociente entre la frecuencia absoluta acumulada y el número total de
datos, N. Es decir,
Con la frecuencia relativa acumulada por 100 se obtiene el porcentaje acumulado (Pi)), que al igual
que Fi deberá de resultar al final el 100% de N.

Ejemplos
Estos son las notas de un alumno de 2do grado de secundaria:

18, 13, 12, 14, 11, 08, 12, 15, 05, 20, 18, 14, 15, 11, 10, 10, 11, 13

Frecuencia Absoluta de 11 es 3. (11 aparece 3 veces)

Frecuencia Relativa de 11 es 0.17 . (Frecuencia absoluta/cantidad de datos) (en este caso es 3/18)

También podría gustarte