Está en la página 1de 13

Universidad Nacional Experimental de Guayana

Coordinación General de Pregrado


Coordinación de Carreras: Banca y Finanzas
Área Curricular: Estadística Aplicada

ESTADÍSTICA APLICADA

Profesor: Bachiller:
Lic. Martínez, Milagros Basanta, José – C.I: 28.699.790

Ciudad Bolívar, 20 de octubre del 2020


TEMA II (Distribución muestral)

En estadística, la distribución muestral es lo que resulta de considerar todas las


muestras posibles que pueden ser tomadas de una población. Su estudio permite calcular la
probabilidad que se tiene, dada una sola muestra, de acercarse al parámetro de la población.
Mediante la distribución muestral se puede estimar el error para un tamaño de muestra
dado.

La distribución de muestreo de una estadística es la distribución de esa estadística,


considerada como una variable aleatoria, cuando se deriva de una muestra aleatoria de
tamaño n. Se puede considerar como la distribución de la estadística para todas las muestras
posibles de la misma población de un tamaño de muestra dado. La distribución del
muestreo depende de la distribución subyacente de la población, la estadística que se
considera, el procedimiento de muestreo empleado y el tamaño de muestra utilizado. A
menudo existe un considerable interés en si la distribución muestral puede aproximarse
mediante una distribución asintótica, que corresponde al caso límite ya que el número de
muestras aleatorias de tamaño finito, tomadas de una población infinita y utilizadas para
producir la distribución, tiende a infinito.

Un concepto manejado en la distribución muestral es el error estándar, el cual, es la


desviación estándar de la distribución muestral de un estadístico muestral.1 El término se
refiere también a una estimación de la desviación estándar, derivada de una muestra
particular usada para computar la estimación. La media muestral es el estimador usual de
una media poblacional. Sin embargo, diferentes muestras escogidas de la misma población
tienden en general a dar distintos valores de medias muestrales. El error estándar de la
media (es decir, el error debido a la estimación de la media poblacional a partir de las
medias muestrales) es la desviación estándar de todas las posibles muestras (de un tamaño
dado) escogidos de esa población. Además, el error estándar de la media puede referirse a
una estimación de la desviación estándar, calculada desde una muestra de datos que está
siendo analizada al mismo tiempo.

Otro concepto o base lógica es la ley de los grandes números que engloban varios
teoremas que describen el comportamiento del promedio de una sucesión de variables
aleatorias conforme aumenta su número de ensayos. Estos teoremas prescriben condiciones
suficientes para garantizar que dicho promedio converja (en los sentidos explicados abajo)
al promedio de las esperanzas de las variables aleatorias involucradas. Las distintas
formulaciones de la ley de los grandes números (y sus condiciones asociadas) especifican la
convergencia de formas distintas.
Las leyes de los grandes números explican por qué el promedio de una muestra al
azar de una población de gran tamaño tenderá a estar cerca de la media de la población
completa. A esto se le añade el teorema del límite central el cual indica que, en condiciones
muy generales, si Sn es la suma de n variables aleatorias independientes y de varianza no
nula pero finita, entonces la función de distribución de Sn «se aproxima bien» a una
distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de
Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables
aleatorias e independientes es lo suficientemente grande.

En cuanto a los tipos de distribuciones muestrales según su enfoque, tenemos la


distribución muestral de la media en el cual cada muestra de tamaño n que podemos extraer
de una población proporciona una media. Si consideramos cada una de estas medias como
valores de una variable aleatoria podemos estudiar su distribución que llamaremos
distribución muestral de medias.

Otra es la distribución t de student, el cual, en probabilidad y estadística, la


distribución t (de Student) es una distribución de probabilidad que surge del problema de
estimar la media de una población normalmente distribuida cuando el tamaño de la muestra
es pequeño. Aparece de manera natural al realizar la prueba t de Student para la
determinación de las diferencias entre dos varianzas muestrales y para la construcción del
intervalo de confianza para la diferencia entre las partes de dos poblaciones cuando se
desconoce la desviación típica de una población y esta debe ser estimada a partir de los
datos de una muestra. Fue desarrollada por William Sealy Gosset, bajo el seudónimo
Student.

Continuamos con la distribución muestral de la proporción, donde se aplica cuando


se requiere investigar la proporción de algún atributo en una muestra (variables
cualitativas), la distribución muestral de proporciones es la adecuada para dar respuesta a
dichas situaciones. Esta distribución se genera de igual manera que la distribución muestral
de medias, a excepción de que, al extraer las muestras de la población, se calcula el
estadístico proporción (p=x/n en donde "x" es el número de éxitos u observaciones de
interés y "n" el tamaño de la muestra), en lugar del estadístico promedio. La fórmula que se
utilizará para el cálculo de probabilidad en una distribución muestral de proporciones, está
basada en la aproximación de la distribución normal a la binomial.
Ahora sería el turno de la distribución muestral de la varianza, la cual, se vuelve
relevante si se extrae una muestra aleatoria de tamaño n de una población normal con
media y varianza, y se calcula la varianza muestral, se obtiene el valor del estadístico s2
que se utilizará para conocer la σ2, mediante una variable aleatoria chi cuadrada con “n-1”
grados de libertad. Formalizando con el siguiente teorema: sis2es la varianza de una
muestra aleatoria de tamaño “n” que se toma de una población normal que tiene varianza.
TEMA III (Estimación de parámetros)

Son técnicas que permiten dar un valor aproximado de un parámetro de una


población a partir de los datos proporcionados por una muestra. Por ejemplo, una
estimación de la media de una determinada característica de una población de tamaño N
podría ser la media de esa misma característica para una muestra de tamaño n.

- Existen dos tipos de estimadores:


 Estimación puntual. Aquí obtendremos un punto, un valor, como estimación
del parámetro.
 Estimación por intervalos. Aquí obtendremos un intervalo dentro del cual
estimamos (bajo cierta probabilidad) estará el parámetro.

La estimación puntual consiste en la estimación del valor del parámetro mediante un


solo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la
talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer
como estimación puntual la talla media de los individuos. Lo más importante de un
estimador, es que sea un estimador eficiente. Es decir, que sea insesgado (ausencia de
sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación puntual.

La estimación por intervalos consiste en la obtención de un intervalo dentro del cual


estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por
intervalos se usan los siguientes conceptos:

- Intervalo de confianza: Es una expresión del tipo [θ1, θ2] o θ1 ≤ θ ≤ θ2, donde θ
es el parámetro a estimar. Este intervalo contiene al parámetro estimado con un
determinado nivel de confianza. Pero a veces puede cambiar este intervalo cuando
la muestra no garantiza un axioma o un equivalente circunstancial.
- Nivel de confianza y Significación: Representa el porcentaje de intervalos que
tomados de 100 muestras independientes distintas contienen en realidad el valor
desconocido. En estas circunstancias, α es el llamado error aleatorio o nivel de
significación, esto es, el número de intervalos sobre 100 que no contienen el valor.
Pasando de los conceptos, hablemos de la estimación de proporción poblacional, el
cual, es un parámetro que describe un valor porcentual asociado con una población. Por
ejemplo, el censo de los Estados Unidos de 2010 mostró que el 83,7% de la población
estadounidense se identificó como no hispana o latina. El valor de .837 es una proporción
de población. En general, se desconocen las proporciones de la población y otros
parámetros de la misma.

Se puede realizar un censo para determinar el valor real de un parámetro de la


población, pero a menudo un censo no es práctico debido a sus costos y consumo de
tiempo. En la planificación de un estudio para estimar diferencias entre las proporciones de
las poblaciones a las que pertenecen dos grupos, tenemos que estimar el tamaño de muestra
necesario en función de los valores de las proporciones de los grupos en estudio, el nivel de
confianza y la potencia. Normalmente el valor utilizado para el nivel de confianza es 95%,
mientras que generalmente se usan valores del 80% para la potencia.

En cuanto a la selección de tamaño de muestras, se toman en cuenta varios factores


como estimar un parámetro determinado con el nivel de confianza deseado, detectar una
determinada diferencia, si realmente existe, entre los grupos de estudio con un mínimo de
garantía y reducir costes o aumentar la rapidez del estudio.

El uso de herramientas tecnológicas para el estudio y aplicación de estadística ha sido


siempre una constante desde la llegada de las computadoras, ofreciendo una forma de
extender y simplificar el procedimiento estadístico. Las herramientas tecnológicas
utilizadas en la estadística, abarcan otras aplicaciones que pueden utilizarse conjuntamente
con el software. En general, los proveedores de software de este tipo ofrecen plataformas de
ayuda en línea, que en ocasiones resulta una muy buena opción para pensar en la didáctica
de la estadística. Sin embargo, hay que diferenciar entre un software didáctico y uno de uso
común.
TEMA IV (Prueba de Hipótesis)

Las hipótesis estadísticas son la transformación de las hipótesis de investigación,


nulas y alternativas en símbolos estadísticos. Se pueden formular solamente cuando los
datos del estudio que se van a recolectar y analizar para aprobar o desaprobar las hipótesis
son cuantitativos (números, porcentajes, promedios). Es decir, el investigador traduce su
hipótesis de investigación y su hipótesis nula (y cuando se formulan hipótesis alternativas,
también éstas) en términos estadísticos. Básicamente hay tres tipos de hipótesis estadística,
que corresponden a clasificaciones de las hipótesis de investigación y nula: 1) hipótesis de
estimación, 2) hipótesis de correlación y 3) hipótesis de diferencias de medias.

Su procedimiento consiste en analizar cuál es la estadística a que su hipótesis hace


referencia. El segundo paso consiste en encontrar cómo se simboliza esa estadística
(promedio se simboliza como X). El tercer paso es traducir la hipótesis de investigación en
hipótesis estadística:
Hi: X > 200 (promedio mensual de casos atendidos)
La hipótesis estadística nula sería la negación de la hipótesis anterior:
Ho: X = 200 (“el promedio mensual de casos... es igual a 200”)
y la hipótesis alternativa sería:
Ha: X < 200 (“el promedio mensual de casos ... es menor que 200”)
Posteriormente, el investigador comparará el promedio estimado por la hipótesis
con el promedio actual de la muestra que él seleccionó. La exactitud de su estimación es
evaluada por esta comparación. Y como señalan Blacky Champion (1976), algunos
investigadores consideran las hipótesis estadísticas de estimación como hipótesis de
diferencia, debido a que en última instancia lo que se evalúa es la diferencia entre un valor
hipotetizado y un valor observado en una sola muestra.
Desde luego, la estimación de estas hipótesis no se limita a promedios; puede
incluirse cualquier estadística (v.g., porcentajes, medianas, modas, etc.). Para ello es
conveniente ver las estadísticas descriptivas.
- Existen diferentes tipos de pruebas de hipótesis las cuales son:
 Prueba de hipótesis de la media: Se utiliza una prueba de una muestra para
probar una afirmación con respecto a una media de una población única.
 Prueba de hipótesis de proporción: as pruebas de proporciones son
adecuadas cuando los datos que se están analizando constan de cuentas o
frecuencias de elementos de dos o más clases. El objetivo de estas pruebas
es evaluar las afirmaciones con respecto a una proporción (o Porcentaje) de
población.

Pasamos a explicar el análisis de varianza, el cual, es una colección de modelos


estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en
ciertos casos para evaluar el efecto de tratamientos en la variabilidad de la variable
respuesta. Desarrollada por el genetista R. A. Fisher en los años 1920 y 1930 y es algunas
veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso
de la distribución F de Fisher como parte del contraste de hipótesis. El análisis de la
varianza parte del concepto de regresión lineal, cuya funcionalidad amplía. Así, un análisis
de la varianza permite determinar, por ejemplo, si diferentes tratamientos médicos (es decir,
un grupo de más de dos tratamientos) muestran diferencias significativas en sus resultados
o si por el contrario puede suponerse que sus medias poblacionales no difieren. De este
modo el análisis de la varianza permite superar las limitaciones de hacer contrastes
bilaterales por parejas entre todos los tratamientos posibles, lo que sería un mal método
para determinar si un conjunto de variables con n > 2 difieren entre sí.

- El Anova será requerido en situación que cumplan ciertas condiciones como, por
ejemplo:
 Situación 1: Cuando tenemos un grupo de individuos divididos
aleatoriamente en grupos más pequeños bajo distinto tratamiento. Por
ejemplo, usted podría estar estudiando los efectos del té en la pérdida de
peso y formar tres grupos: el té verde, té negro, y sin té.
 Situación 2: Similar a la situación 1, pero en este caso los individuos se
dividen en grupos basados en un atributo que poseen. Por ejemplo, usted
podría estar estudiando la fuerza de las piernas de las personas de acuerdo al
peso. Podría dividir a los participantes en categorías de peso (obesidad,
sobrepeso y normal) y medir la fuerza de sus piernas en una máquina de
peso.

Otro concepto a explicar sería la Distribución F, la cual, es una distribución


continua de muestreo de la relación de dos variables aleatorias independientes con
distribuciones de chi-cuadrada, cada una dividida entre sus grados de libertad.
La distribución F surge de la estadística inferencial en relación con las variaciones
de población. Más concretamente, utilizamos un F-distribución cuando estamos estudiando
la relación de las varianzas de dos poblaciones distribuidas normalmente.

El F-distribución no se utiliza únicamente para construir intervalos de confianza y


probar hipótesis acerca de la población varianzas. Este tipo de distribución también se
utiliza en una de un factor de análisis de varianza (ANOVA) . ANOVA se ocupa de la
comparación de la variación entre varios grupos y variación dentro de cada grupo. Para
lograr esto, utilizamos una relación de varianzas. Esta relación de varianzas tiene el F-
distribución. Una fórmula algo complicado nos permite calcular un F-estadística como una
estadística de prueba.

- Algunas de las características más importantes de esta distribución se enumeran a


continuación:
 El F-distribución es una familia de distribuciones. Esto significa que hay un
número infinito de diferentes F-distribuciones. El particular, F-distribución
que usamos para una aplicación depende del número de grados de libertad
que nuestra muestra tiene. Esta característica de la F-distribución es similar
tanto a la t -Distribución y la distribución chi-cuadrado.
 El F-distribución es cero o positivo, lo que no hay valores negativos para F .
Esta característica de la F-distribución es similar a la distribución chi-
cuadrado.
 El F-distribución está sesgada hacia la derecha. Así, esta distribución de
probabilidad es no simétrica. Esta característica de la F-distribución es
similar a la distribución chi-cuadrado.
TEMA V (Series cronológicas)

Una serie temporal o cronológica es una sucesión de datos medidos en determinados


momentos y ordenados cronológicamente. Los datos pueden estar espaciados a intervalos
iguales (como la temperatura en un observatorio meteorológico en días sucesivos al
mediodía) o desiguales (como el peso de una persona en sucesivas mediciones en el
consultorio médico, la farmacia, etc.). Para el análisis de las series temporales se usan
métodos que ayudan a interpretarlas y que permiten extraer información representativa
sobre las relaciones subyacentes entre los datos de la serie o de diversas series y que
permiten en diferente medida y con distinta confianza extrapolar o interpolar los datos y así
predecir el comportamiento de la serie en momentos no observados, sean en el futuro
(extrapolación pronóstica), en el pasado (extrapolación retrógrada) o en momentos
intermedios (interpolación)..

Uno de los usos más habituales de las series de datos temporales es su análisis para
predicción y pronóstico (así se hace por ejemplo con los datos climáticos, las acciones de
bolsa, o las series de datos demográficos). Resulta difícil imaginar una rama de las ciencias
en la que no aparezcan datos que puedan ser considerados como series temporales. Las
series temporales se estudian en estadística, procesamiento de señales, econometría y
muchas otras áreas. Son en esencia variables, específicamente, Una variable estadística
cuyos valores varían a lo largo del tiempo. El estudio de las series temporales es diferente
al del resto de las variables estadísticas porque el interés reside habitualmente en la
evaluación de sus cambios a lo largo del tiempo.

Un concepto manejado en las series cronológicas son las tendencias y su respectivo


análisis, el cual, es un método para analizar los datos estadísticos y el comportamiento del
mercado registrado durante un periodo de tiempo definido y generar información valiosa.
Haciendo un análisis de tendencias de mercado se pueden realizar estrategias y proyectar
planes futuros para el negocio. Esto ayuda a identificar los rasgos dominantes del mercado
y a los consumidores asociados con estos.

Existen varias formas para llevar a cabo un análisis de tendencias de mercado.


Algunos de los métodos de investigación de mercados más populares son las encuestas,
entrevistas, y la observación del comportamiento del consumidor contando con datos de
apoyo. Esta es una herramienta de estrategia muy común para entender el comportamiento
del mercado. También ayuda a realizar predicciones a futuro y entender la relevancia de
crear un producto en particular y un mejor pronóstico para las organizaciones.
Esto implica recolectar datos relevantes para las respectivas métricas predefinidas y
analizarlos para obtener una clara imagen del desempeño del comportamiento sobre un
período definido. La autenticidad de los datos determina la exactitud de la proyección.
Mientras más exactitud, mejor la predicción.

Para concluir, explicaré las predicciones con el análisis de las series cronológicas, lo
cual, significa que extendemos los valores históricos al futuro, donde aún no hay
mediciones disponibles. El pronóstico se realiza generalmente para optimizar áreas como
los niveles de inventario, la capacidad de producción o los niveles de personal.

- Existen dos variables estructurales principales que definen un pronóstico de serie de


tiempo:
 El período, que representa el nivel de agregación. Los períodos más
comunes son meses, semanas y días en la cadena de suministro (para la
optimización del inventario). Los centros de atención telefónica utilizan
períodos de cuartos de hora (para la optimización del personal).
 El horizonte, que representa la cantidad de períodos por adelantado que
deben ser pronosticados. En la cadena de suministro, el horizonte es
generalmente igual o mayor que el tiempo de entrega.

Luego, existen algunas sutilezas relacionadas con la definición del período mismo,
principalmente debido a irregularidades del calendario. Por ejemplo, uno puede decidir que
la agregación mensual comienza el día N de cada mes (en lugar del 1.º), pero si N es mayor
que 28, causa problemas porque no todos los meses tienen más de 28 días.
Bibliografía.

Wackerly, Dennis D; Mendenhall, William; Scheaffer, Richard L. (2002). «8. Estimación».


Estadística matemática con aplicaciones (6ª edición). Cengage Learning Editores. p. 364.
ISBN 9706861947.
Calderón C., Bernardo A. «Métodos de estimación». Estadística Matemática I. Universidad
de Antioquia. Consultado el 21 de abril de 2009.
'Introducción a la Estadística Económica y Empresarial. Teoría y Práctica.' de Fco. Javier
Martín-Pliego López, Editorial Thomson, 2007 (Madrid).
'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero, María
Eleftheriou, Luana Gava y Eva Romero. Editorial Delta Publicaciones. 2008 (Madrid).
Fisher, R. A. (1956). Statistical Methods and Scientific Inference. Oliver and Boyd,
Edinburgh (p. 32).
Freund, J. E. (1962). Mathematical Statistics. Prentice Hall, Englewood Cliffs, NJ (pp. 227-
228).
Hacking, I. (1965) Logic of Statistical Inference. Cambridge University Press, Cambridge.
Keeping, E. S. (1962). Introduction to Statistical Inference. D. Van Nostrand, Princeton,
NJ.
Kiefer, J. (1977). Journal of the American Statistical Association, 72, 789-827.
Neyman, J. (1937). Philosophical Transactions of the Royal Society of London A, 236,
333-380.
Robinson, G. K. (1975). Biometrika, 62, 151-161.
Zar, J. H. (1984). Biostatistical Analysis. Prentice Hall International, New Jersey. pp. 43-
45.
"List of Probability and Statistics Symbols". Math Vault. 2020-04-26. Retrieved 2020-08-
22.
Introduction to Statistical Investigations. Wiley. ISBN 978-1-118-95667-0.
Ott, R. Lyman. An Introduction to Statistical Methods and Data Analysis. ISBN 0-534-
93150-2.
Weisstein, Eric W. "Sample Proportion". mathworld.wolfram.com. Retrieved 2020-08-22.
"6.3: The Sample Proportion". Statistics LibreTexts. 2014-04-16. Retrieved 2020-08-22.
Weisstein, Eric. CRC Concise Encyclopedia of Mathematics. Chapman & Hall/CRC.
Hinders, Duane. Annotated Teacher's Edition The Practice of Statistics. ISBN 0-7167-
7703-7.
SUÁREZ, Mario, (2012), Interaprendizaje de Probabilidades y Estadística Inferencial con
Excel, Winstats y Graph, Primera Edición. Imprenta M & V, Ibarra, Ecuador.

A First Course on Time Series Analysis - un libro de fuente abierta sobre análisis de series
temporales con SAS (Statistical Analysis System)
Online Tutorial 'Recurrence Plot'(animación Flash); bastantes ejemplos (enlace roto
disponible en Internet Archive; véase el historial y la última versión).
Mooney, Christopher Z. (1999). Monte Carlo simulation. Thousand Oaks, Calif.: Sage

También podría gustarte