Está en la página 1de 7

Análisis de las herramientas estadísticas utilizadas en clases

Resumen

Las estadísticas son fundamentales para el desarrollo de análisis de datos


recopilados, importantes en el análisis de un tema de interés. Las estadísticas son basadas
en las matemáticas y consistes en recolectar, agrupar y clasificar los datos para un objetivo
específico. Las estadísticas se conforman por varios elementos importantes para su
composición como son el intervalo de confianza, la prueba de hipótesis, coeficiente de
correlación, Anova y análisis de la varianza. El siguiente trabajo de investigación tiene
como objetivo explicar que es la estadística y cuáles son sus principales herramientas que
las componen.

Palabras clave: estadísticas, intervalos de confianza, prueba de hipótesis, Anova,


análisis de varianza.

Abstract

Statistics are fundamental for the development of data analysis collected, important
in the analysis of a topic of interest. The statistics were based in mathematics and consist in
collecting, grouping and classifying the data for a specific objective. The statistics are made
up of several important elements for its composition, such as the confidence interval,
hypothesis testing, correlation coefficient, ANOVA and analysis of variance. The following
research work aims to explain what statistics are and what their main tools are.

Keywords: statistics, confidence intervals, hypothesis testing, ANOVA, analysis of


variance.
Desarrollo

La estadística es el término utilizado para definir a la ciencia relacionada con la


aplicación de métodos para recopilar, analizar, interpretar y presentar datos de manera
empírica. La estadística es un campo altamente interdisciplinario. La investigación en
estadística encuentra aplicabilidad en prácticamente todos los campos científicos y las
preguntas de investigación en los diversos campos científicos motivan el desarrollo de
nuevos métodos y teorías estadísticas. Al desarrollar métodos y estudiar la teoría que
subyace a los métodos, los estadísticos se basan en una variedad de herramientas
matemáticas y computacionales.

Dos ideas fundamentales en el campo de las estadísticas son la incertidumbre y la


variación. Hay muchas situaciones que se encuentra en la ciencia en las que el resultado es
incierto. En algunos casos, la incertidumbre se debe a que el resultado en cuestión aún no
está determinado, mientras que en otros casos la incertidumbre se debe a que, aunque el
resultado ya se ha determinado.

La probabilidad es un lenguaje matemático usado para discutir eventos inciertos y la


probabilidad juega un papel clave en las estadísticas. Cualquier medición o esfuerzo de
recopilación de datos está sujeto a una serie de fuentes de variación. Con esto queremos
decir que, si se repitiera la misma medida, la respuesta probablemente cambiaría. Los
estadísticos intentan comprender y controlar las fuentes de variación en cualquier situación
(Espejo, y otros, 2009 ).

Intervalo de confianza

Los intervalos de confianza corresponden a un tipo de estimación de intervalo,


calculada a partir de las estadísticas de los datos observados, que pueden contener el valor
verdadero de un parámetro de población. El intervalo tiene un nivel de confianza asociado
que, en términos generales, cuantifica el nivel de confianza de que el parámetro se
encuentra en el intervalo.

En términos más estrictos, el nivel de confianza representa la frecuencia de los


posibles intervalos de confianza que contienen el valor verdadero del parámetro de
población desconocido. En otras palabras, si los intervalos de confianza se construyen
utilizando un nivel de confianza dado a partir de un número infinito de estadísticas de
muestras independientes, la proporción de esos intervalos que contienen el valor verdadero
del parámetro será igual al nivel de confianza.

Los intervalos de confianza consisten en un rango de valores potenciales del


parámetro de población desconocida. Sin embargo, el intervalo calculado a partir de una
muestra particular no incluye necesariamente el valor verdadero del parámetro. Sobre la
base de la suposición de que los datos observados son muestras aleatorias de una población
real, el intervalo de confianza obtenido de los datos también es aleatorio.

El nivel de confianza se designa antes de examinar los datos. Más comúnmente, se


usa el nivel de confianza del 95%. Sin embargo, se pueden utilizar otros niveles de
confianza, por ejemplo, 90% y 99%. Los factores que afectan el ancho del intervalo de
confianza incluyen el tamaño de la muestra, el nivel de confianza y la variabilidad en la
muestra. Una muestra más grande tenderá a producir una mejor estimación del parámetro
de población, cuando todos los demás factores son iguales. Un nivel de confianza más alto
tenderá a producir un intervalo de confianza más amplio (Canavos, 2012).

Prueba de hipótesis

Un intervalo de confianza es un intervalo que contendrá un parámetro de población


en una proporción específica del tiempo. El intervalo de confianza puede tomar cualquier
número de probabilidades, con el más común de 95% o 99%. Un intervalo de confianza es
la probabilidad de que un valor caiga entre un límite superior e inferior de una distribución
de probabilidad. Por ejemplo, dado un intervalo de confianza del 99%, el rendimiento del
stock XYZ caerá entre -6.7% y + 8.3% durante el próximo año. En términos sencillos, tiene
una confianza del 99% en que los rendimientos de mantener las acciones de XYZ durante
el próximo año caerán entre -6.7% y + 8.3%.

Los estadísticos usan intervalos de confianza para medir la incertidumbre. Una


mayor probabilidad asociada con el intervalo de confianza significa que hay un mayor
grado de certeza de que el parámetro se encuentra dentro de los límites del intervalo. Por lo
tanto, un nivel de confianza más alto indica que los parámetros deben ser más amplios para
garantizar ese nivel de confianza.
Por ejemplo, supongamos que un grupo de investigadores está estudiando las alturas
de los jugadores de baloncesto de la escuela secundaria. Los investigadores toman una
muestra aleatoria de la población y establecen una altura media de 74 pulgadas. La media
de 74 es una estimación puntual de la media de la población. Una estimación puntual por sí
misma es de utilidad limitada porque no revela la incertidumbre asociada con la estimación;
no tiene una idea clara de cuán lejos puede estar esta media de la muestra de la media de la
población. Lo que faltan en este punto es el grado de incertidumbre en esta muestra única.

Los intervalos de confianza proporcionan más información que las estimaciones


puntuales. Al establecer un intervalo de confianza del 95% utilizando la media y la
desviación estándar de la muestra, y al asumir una distribución normal representada por la
curva de campana, los investigadores llegan a un límite superior e inferior que contiene la
media real del 95% del tiempo. Supongamos que el intervalo es de 72 pulgadas a 76
pulgadas. Si los investigadores toman 100 muestras aleatorias de la población de jugadores
de baloncesto de la escuela secundaria en su conjunto, la media debería caer entre 72 y 76
pulgadas en 95 de esas muestras.

Si los investigadores desean una confianza aún mayor, pueden ampliar el intervalo
hasta un 99% de confianza. Hacerlo invariablemente crea un rango más amplio, ya que deja
espacio para un mayor número de medios de muestra. Si establecen que el intervalo de
confianza del 99% es de 70 a 78 pulgadas, pueden esperar que 99 de las 100 muestras
evaluadas contengan un valor medio entre estos números (Martinez, Estadistica basica
aplicada, 2017).

Coeficiente de correlación

Un coeficiente de correlación es una medida numérica de algún tipo de correlación,


lo que significa una relación estadística entre dos variables. Las variables pueden ser dos
columnas de un conjunto determinado de datos de observaciones, a menudo llamadas
muestra, o dos componentes de una variable aleatoria multi-variable con una distribución
conocida.

Existen varios tipos de coeficientes de correlación, cada uno con su propia


definición y rango de usabilidad y características. Todos asumen valores en el rango de −1
a +1, donde +1 indica el acuerdo más fuerte posible y −1 el desacuerdo más fuerte posible.
Como herramientas de análisis, los coeficientes de correlación presentan ciertos problemas,
incluida la propensión de algunos tipos a distorsionarse por valores atípicos y la posibilidad
de que se utilice incorrectamente para inferir una relación causal entre las variables
(Martinez, Estadisticas y muestreo, 2014)

Anova

El análisis de varianza es una herramienta de análisis utilizada en las estadísticas


que divide la variabilidad agregada encontrada dentro de un conjunto de datos en dos
partes: factores sistemáticos y factores aleatorios. Los factores sistemáticos se basan
estadísticamente en el conjunto de datos que recopilan o les otorgan. Sin embargo, otros
factores aleatorios no. Por ende, al momento de desarrollar el análisis de la prueba de
varianza, se busca determinar el resultado que las variables independientes tienen sobre la
variable dependiente en medio de un estudio de regresión (Vicens, Herrarte, & Medina,
2005).

Análisis de varianza

En contabilidad, una variación es la diferencia entre una cantidad esperada o


planificada y una cantidad real. Por ejemplo, puede producirse una variación para los
artículos contenidos en el informe de gastos de un departamento. El análisis de variación
intenta identificar y explicar las razones de la diferencia entre una cantidad presupuestada y
una cantidad real.

El análisis de varianza generalmente se asocia con los costos de los productos del
fabricante. En esta configuración, el análisis de varianza intenta identificar las causas de las
diferencias entre el costo estándar de los insumos de un fabricante que deberían haber
ocurrido para los productos reales que fabricó, y los costos reales de los insumos utilizados
para los productos reales fabricados .

Ejemplo:

Una empresa fabrica 10,000 unidades de producto (salida). Los estándares de la


compañía indican que debería haber usado $ 40,000 de materiales (una entrada), pero en
realidad usó $ 48,000 de materiales. Esta variación desfavorable necesita ser analizada. Un
análisis de variación común dividirá los $ 8,000 en una variación de precio y una variación
de cantidad.

La variación del precio identifica si la compañía pagó demasiado por cada unidad
de entrada. La variación de la cantidad identifica si la compañía usó demasiado de la
entrada. El análisis de varianza para los costos generales de fabricación es más complicado
que el análisis de varianza para materiales. Sin embargo, el análisis de la variación de los
costos generales de fabricación es muy importante, ya que los costos generales de
fabricación se han convertido en un porcentaje muy grande de los costos de un producto
(Universidad Autonoma de Madrid, 2018).

Conclusión

Como se pudo analizar en el trabajo de investigación las estadísticas son


importantes en los análisis para recopilar, clasificar y posteriormente analizar los datos
recopilados. Las estadísticas están compuestas por otros elementos con son el intervalo de
confianza, la prueba de hipótesis, coeficiente de correlación, Anova y análisis de la
varianza.

Los intervalos de confianza se encargan de describir una variable que se encuentra


en la medida obtenida en el estudio y la medida que se encuentra en el valor real. La prueba
de hipótesis corresponde a la forma de aceptar o rechazar una afirmación que se genere en
la población analizada relacionada con la muestra de datos. El coeficiente de correlación es
una medida lineal que existen entre dos variables aleatorias cuantitativas. El Anova es un
tipo de prueba de hipótesis existentes entre dos o más poblaciones iguales. Finalmente, el
análisis de la varianza es un método usado para comprar dos medias.

Bibliografía
Canavos, G. (2012). Probabilidad y estadisticas. Washington: MCGrawHill.

Espejo, Fernandez, Lopez, Muñoz, Rodriguez, Sanchez, & Valero. (2009 ). Estadisticas descriptivas
y probabilidad. Cadiz: UCA.

Martinez, C. (2014). Estadisticas y muestreo. Madrid: Ecoe Ediciones.

Martinez, C. (2017). Estadistica basica aplicada. Madrid: Ecoe Ediciones.


Universidad Autonoma de Madrid. (22 de Noviembre de 2018). Analisis de la varianza. Obtenido
de http://www.estadistica.net/ECONOMETRIA/ANALISIS-VARIANZA/analisis-varianza.pdf

Vicens, J., Herrarte, A., & Medina, E. (1 de Enero de 2005). Analisis de la varianza. Obtenido de
https://www.uam.es/personal_pdi/economicas/eva/pdf/anova.pdf

También podría gustarte