Está en la página 1de 16

Bolivariana de Venezuela

Ministerio del Poder Popular Para la Educación


Universidad Nacional Experimental Politécnica de la Fuerza Armada
Cátedra: Probabilidad y Estadística
Profesor: José Plata
Carrera: Ing. Petroquímica 3er semestre

PROBABILIDAD Y ESTADÍSTICA

Alumno:
Abraham Pirela
C.I: 30.299.716
Sección:
03S1726D1

Maracaibo, 28 de Mayo del 2021


1- Medidas de tendencia central.

Según el autor Fernando Ricardi las medidas de tendencia central son medidas
estadísticas que pretenden resumir en un solo valor a un conjunto de valores.
Representan un centro en torno al cual se encuentra ubicado el conjunto de los
datos. Las medidas de tendencia central más utilizadas
son: media, mediana y moda. Las medidas de dispersión en cambio miden el
grado de dispersión de los valores de la variable. Dicho en otros términos las
medidas de dispersión pretenden evaluar en qué medida los datos difieren
entre sí. De esta forma, ambos tipos de medidas usadas en conjunto permiten
describir un conjunto de datos entregando información acerca de su posición y
su dispersión.

Los procedimientos para obtener las medidas estadísticas difieren levemente


dependiendo de la forma en que se encuentren los datos. Si los datos se
encuentran ordenados en una tabla estadística diremos que se encuentran
“agrupados” y si los datos no están en una tabla hablaremos de datos “no
agrupados”.

 Medida de tendencia central promedia: La medida de tendencia central más


conocida y utilizada es la media aritmética o promedio aritmético. Se
representa por la letra griega µ cuando se trata del promedio del universo o
población y por Ȳ (léase Y barra) cuando se trata del promedio de la
muestra. Es importante destacar que µ es una cantidad fija mientras que el
promedio de la muestra es variable puesto que diferentes muestras
extraídas de la misma población tienden a tener diferentes medias. La
media se expresa en la misma unidad que los datos originales: centímetros,
horas, gramos, etc.

Si una muestra tiene cuatro observaciones: 3, 5, 2 y 2, por definición el


estadígrafo será:
Éstos cálculos se pueden simbolizar:

Donde Y1 es el valor de la variable en la primera observación, Y2 es el valor de


la segunda observación y así sucesivamente. En general, con “n”
observaciones, Yi representa el valor de la i-ésima observación. En este caso
el promedio está dado por:

De aquí se desprende la fórmula definitiva del promedio:

 Medidas de tendencia central mediana: Otra medida de tendencia central es


la mediana. La mediana es el valor de la variable que ocupa la posición
central, cuando los datos se disponen en orden de magnitud. Es decir, el
50% de las observaciones tiene valores iguales o inferiores a la mediana y
el otro 50% tiene valores iguales o superiores a la mediana.

Si el número de observaciones es par, la mediana corresponde al promedio


de los dos valores centrales. Por ejemplo, en la muestra 3, 9, 11, 15, la
mediana es (9+11)/2=10.

 Medidas de tendencia central moda: La moda de una distribución se define


como el valor de la variable que más se repite. En un polígono de
frecuencia la moda corresponde al valor de la variable que está bajo el
punto más alto del gráfico. Una muestra puede tener más de una moda.

Las medidas de tendencia central, dan una idea de un número alrededor del
cual tienden a concentrarse todo un conjunto de datos y se utilizan con
bastante frecuencia para resumir un conjunto de cantidades o datos
numéricos a fin de describir los datos cuantitativos que los forman.

Ejemplo:

Ejemplos de ello, pueden ser: la edad promedio o la estatura promedio


de los estudiantes de la universidad o el peso promedio de las bolsas de
cereal que son llenadas por una determinada máquina en un proceso de
producción o las ventas de un negocio, el Coeficiente Intelectual, las medidas
de circunferencia craneal de un conjunto de personas observadas u hasta las
calificaciones de los estudiantes de bachilleratos se estudian aplicando
medidas de tendencia central.

Las medidas de tendencia central son también frecuentemente usadas


para comparar un grupo de datos con otro, por ejemplo: el promedio de ventas
obtenido por un grupo de vendedores de una zona comparado con el promedio
de ventas otro grupo de vendedores de otra zona, el promedio de reclamos de
clientes de una sucursal, comparado con el promedio de reclamos de otra
sucursal.

Consideremos como ejemplo una distribución de frecuencia de madres que


asisten a un programa de lactancia materna, clasificadas según el número de
partos. Por tratarse de una variable en escala discreta, las clases o categorías
asumen sólo ciertos valores: 1, 2, 3, 4, 5.
Entonces las 42 madres han tenido, en promedio, 2,78 partos.

2- Media Geométrica.

De acuerdo al autor José López la media geométrica es un tipo de media que


se calcula como la raíz del producto de un conjunto de números estrictamente
positivos.

La media geométrica se calcula como un producto conjunto. Es decir, que


todos los valores se multiplican entre sí. De modo que si uno de ellos fuera
cero, el producto total sería cero. Por ello, debemos siempre tener en cuenta
que a la hora de calcular la media geométrica necesitamos números que sean
únicamente positivos.

Uno de sus principales usos es para calcular medias sobre porcentajes, pues
su cálculo ofrece unos resultados más adaptados a la realidad. Veremos
ejemplos de esto más tarde, pero antes debemos conocer su fórmula.

La fórmula de la media geométrica es la siguiente:

Dónde:
 N: Se trata del número total de observaciones. Por ejemplo, si tenemos el
crecimiento de los beneficios de una empresa durante 4 periodos, N será 4.

 x: La variable X es sobre la que calculamos la media geométrica. Siguiendo


el ejemplo anterior, el crecimiento de los beneficios estará expresado en
porcentaje y será la variable X.

 i: Representa la posición de cada observación. En este ejemplo, podríamos


ponerle un número cada periodo. Un 1, al periodo 1, un 2 al periodo 2, etc.
De manera que x1 es el crecimiento de los beneficios en el periodo 1, x 2 el
crecimiento de los beneficios en el periodo 2, x 3 el crecimiento de los
beneficios en el periodo 3 y x4 el crecimiento de los beneficios en el periodo
4.

Como ya hemos indicado este tipo de media es adecuada para calcular


variables en porcentaje o índices. Una de sus principales ventajas es que es
menos sensible a valores extremos (muy grandes o muy pequeños) que
podrían alterar la media de una muestra estadística. Por el contrario, su
principal desventaja es que no puede utilizarse con números negativos.

Ejemplo:

Supongamos los resultados de una empresa. La empresa ha generado un 20%


de rentabilidad el primer año, un 15% el segundo año, un 33% el tercer año y
un 25% el cuarto año. Lo fácil, en este caso sería sumar las cantidades y dividir
entre cuatro. Sin embargo esto no es correcto.

Para calcular la media de varios porcentajes debemos hacer uso de la media


geométrica. Aplicado al caso anterior, tendríamos lo siguiente:
El resultado es 1,23, que expresado en porcentaje es un 23%. Lo que quiere
decir que en promedio, cada año la empresa ha ganado un 23%. Dicho de otra
forma, si cada año hubiese ganado un 23%, hubiera ganado lo mismo que
ganando un 20% el primer año, un 15% el segundo, un 33% el tercero y un
25% el último año.

NOTA: Si las rentabilidades fueran negativas, no se pondrían números


negativos. Si la rentabilidad es del -20%, el número a multiplicar sería 0,80. Si
la rentabilidad es del -5%, el número a multiplicar sería 0,95. En conclusión si
las rentabilidades son positivas, a uno le sumamos el porcentaje en tanto por
uno. Mientras que, si las rentabilidades o porcentajes son negativos, a 1 le
restamos el porcentaje en tanto por uno.

3- Análisis de Regresión Lineal (ARL).

El autor Javier Galán considera que el análisis de regresión lineal es una


herramienta de frecuente uso en estadística. La cual permite investigar las
relaciones entre diferentes variables cuantitativas. Esto, mediante la
formulación de ecuaciones matemáticas.

Visto de otro modo, dicho análisis es un proceso o modelo que analiza el


vínculo entre una variable dependiente y una o varias variables independientes.
Así, a partir de dicho estudio, se halla una relación matemática.
Gracias a los procesos de regresión, es posible entender el modo en que la
variable dependiente es afectada por cambios en los demás factores.

Una de las principales aplicaciones del análisis de regresión lineal es la


proyección con diferentes escenarios. Esto, teniendo en cuenta el grado de
influencia (en estadística se conoce a esto como correlación) sobre la variable
dependiente.

Es decir, el objetivo del análisis es construir una función que permita estimar el
valor futuro de la variable de estudio.

Desde otro punto de vista, la regresión lineal permite calcular una esperanza
(promedio) condicional. Para ese fin, se toman como dados los valores de las
variables independientes.

Cabe precisar que cuando se tiene en cuenta solo una variable independiente
hablamos de regresión lineal simple. En cambio, si se incluyen más factores, se
trataría de una regresión lineal múltiple.

El análisis de regresión tiene aplicaciones para la vida cotidiana. Esto, desde el


estudio de accidentes de tráfico en una determinada zona geográfica hasta
comprobar si un plan de estudios es recomendable según la tasa de abandono
escolar, por ejemplo.

Una crítica común a este tipo de modelo de predicción matemática es que no


es óptimo, pues suele confundir correlación con causalidad.

Lo anterior quiere decir que se puede establecer, por ejemplo, una relación
matemática entre el crecimiento económico y la frecuencia de lluvias en un
país. Sin embargo, si no hay un fundamento teórico que vincule esas variables,
el estudio carece de relevancia porque se trata de una relación espuria.

Los modelos de regresión lineal se utilizan para mostrar o predecir la relación


entre dos variables o factores. El factor que se predice (el factor que resuelve la
ecuación ) se llama variable dependiente. Los factores que se utilizan para
predecir el valor de la variable dependiente se denominan variables
independientes.

Los buenos datos no siempre cuentan la historia completa. El análisis de


regresión se usa comúnmente en la investigación, ya que establece que existe
una correlación entre las variables. Pero la correlación no es lo mismo que la
causalidad. Incluso una línea en una regresión lineal simple que se ajusta bien
a los puntos de datos, puede no decir algo definitivo sobre una relación de
causa y efecto.

En regresión lineal simple, cada observación consta de dos valores. Un valor


es para la variable dependiente y un valor es para la variable independiente.

 Análisis de regresión lineal simple: la forma más simple de análisis de


regresión se utiliza en una variable dependiente y una variable
independiente. En este modelo simple, una línea recta aproxima la relación
entre la variable dependiente y la variable independiente.

 Análisis de regresión múltiple: cuando se usan dos o más variables


independientes en el análisis de regresión, el modelo ya no es lineal simple.

La ecuación de regresión lineal simple se representa así: Ε ( y ) = ( β 0


+ β 1 x ).

La ecuación de regresión lineal simple se representa gráficamente como una


línea recta.

( β 0 es la intersección y de la línea de regresión.


Β 1 es la pendiente.

Ε ( y ) es el valor medio o esperado de y para un valor dado de x .

Ejemplo 1:
Supongamos que una empresa quiere calcular la demanda por una
determinada mercancía.

Como variable independiente, tomaremos el precio del producto. Entonces, la


compañía, en base a sus datos históricos, construye una ecuación como la
siguiente:

Así, el análisis de regresión tiene como objetivo hallar los valores de a


(coeficiente de correlación lineal) y b.

Ejemplo 2:

Hemos usado una regresión lineal para encontrar los parámetros de la línea
que minimiza el error de los datos que tenemos. El proceso de aprendizaje
consiste en estimar los parámetros w y b. Así nos queda que para estos datos,
los mejores valores son:

w=0.0918
b=1.2859
así que nos queda:

y = 0.0918x + 1.2859

Podemos usar este modelo de regresión lineal para estimar cuáles serán los
resultados para otros valores de x. Por ejemplo, si queremos saber el resultado
para x = 5, usaremos el modelo anterior y veremos que el resultado es 1.7449:

y= 0.0918⋅5+1.2859 =1.7449

4- Coeficiente de correlación del método de Karl-Pearson.

La autora Cristina Ortega plantea que el coeficiente de correlación de Pearson


es una prueba que mide la relación estadística entre dos variables continuas. Si
la asociación entre los elementos no es lineal, entonces el coeficiente no se
encuentra representado adecuadamente.

El coeficiente de correlación puede tomar un rango de valores de +1 a -1. Un


valor de 0 indica que no hay asociación entre las dos variables. Un valor mayor
que 0 indica una asociación positiva. Es decir, a medida que aumenta el valor
de una variable, también lo hace el valor de la otra. Un valor menor que 0
indica una asociación negativa; es decir, a medida que aumenta el valor de una
variable, el valor de la otra disminuye.

Para llevar a cabo la correlación de Pearson es necesario cumplir lo siguiente:

 La escala de medida debe ser una escala de intervalo o relación.

 Las variables deben estar distribuida de forma aproximada.

 La asociación debe ser lineal.


 No debe haber valores atípicos en los datos.

La fórmula del coeficiente de correlación de Pearson es la siguiente:

Donde:

“x” es igual a la variable número uno, “y” pertenece a la variable número dos,
“zx” es la desviación estándar de la variable uno, “zy” es la desviación estándar
de la variable dos y “N” es es número de datos.

El coeficiente de correlación de Pearson tiene el objetivo de indicar cuán


asociadas se encuentran dos variables entre sí por lo que:

 Correlación menor a cero: Si la correlación es menor a cero, significa que es


negativa, es decir, que las variables se relacionan inversamente.

Cuando el valor de alguna variable es alto, el valor de la otra variable es bajo.


Mientras más próximo se encuentre a -1, más clara será la covariación
extrema. Si el coeficiente es igual a -1, nos referimos a una correlación
negativa perfecta.

 Correlación mayor a cero: Si la correlación es igual a +1 significa que es


positiva perfecta. En este caso significa que la correlación es positiva, es
decir, que las variables se correlacionan directamente.

Cuando el valor de una variable es alto, el valor de la otra también lo es,


sucede lo mismo cuando son bajos. Si es cercano a +1, el coeficiente será la
covariación.
 Correlación igual a cero: Cuando la correlación es igual a cero significa que
no es posible determinar algún sentido de covariación. Sin embargo, no
significa que no exista una relación no lineal entre las variables.

Cuando las variables son independientes significa que estas se encuentra


correlacionadas, pero esto nos significa que el resultado sea verdadero.

Ejemplo 1: (máxima covariación positiva).

Observa que los datos tipificados (expresados como puntuaciones z) en las dos
columnas de la derecha tienen los mismos valores en ambas variables, dado
que las posiciones relativas son las mismas en las variables X e Y.

Si obtenemos los productos de los valores tipificados para cada caso, el


resultado es:

El cociente de dividir la suma de productos (5) por N (hay que tener en cuenta
que N es el número de casos, NO el número de datos) es igual a 1:

Ejemplo 2: (máxima covariación negativa).


El valor de la correlación es igual a 1 o -1 si la covariación es de intensidad
máxima, y se va acercando hacia el 0 cuanto más pequeña sea la intensidad
de la covariación. Además, el índice tiene signo positivo cuando la covariación
es directa y negativo cuando es inversa.

Otros ejemplos: (gran correlación positiva).

La figura anterior muestra una correlación de casi +1.

Los gráficos de dispersión están casi trazados en línea recta.

La pendiente es positiva, lo que significa que si una variable aumenta, la otra


variable también aumenta, mostrando una línea lineal positiva.

Esto denota que un cambio en una variable es directamente proporcional al


cambio en la otra variable.
Un ejemplo de una gran correlación positiva sería: A medida que los niños
crecen, también lo hacen sus tallas de ropa y zapatos.

Veamos algunos ejemplos del coeficiente de correlación de Pearson para que


puedas apreciar de manera más visual.

(Correlación positiva media).

La figura anterior muestra una correlación positiva.

La correlación es superior a +0,8 pero inferior a 1+.

Muestra un patrón lineal ascendente bastante fuerte.

Un ejemplo de una correlación positiva media sería: A medida que el número


de automóviles aumenta, también aumenta la demanda en la variable
combustible.
Bibliografía.

Ricardi, Fernando. 2011. Medwave.


https://www.medwave.cl/link.cgi/Medwave/Series/MBE04/4934?
ver=sindiseno#:~:text=Las%20medidas%20de%20tendencia%20central,%3A
%20media%2C%20mediana%20y%20moda.

Pérez, José. 2014. Blogger.


http://estadistica-jpleal.blogspot.com/2014/07/medidas-de-tendencia-
central.html?m=1

López, José. 2020. Economipedia.com.


https://economipedia.com/definiciones/media-geometrica.html

Galán, Javier. 2016. Economipedia.com.


https://economipedia.com/definiciones/analisis-de-regresion.html

Ricardo, Rodrigo. 2010. Exonegocios.


https://exonegocios.com/que-es-la-regresion-lineal-simple-y-como-funciona/#

Martínez, José. 2020. Python.


https://www.iartificial.net/regresion-lineal-con-ejemplos-en-python/

Ortega, Cristina. 2020. QuestionPro.


https://www.questionpro.com/blog/es/coeficiente-de-correlacion-de-pearson/
amp/

QuestionPro LATAM. 2020. Era Group.


https://eragroup.eu/ejemplos-del-coeficiente-de-correlacion-de-pearson/
#:~:text=En%20palabras%20sencillas%2C%20el%20coeficiente,medida
%20que%20su%20edad%20aumente.

https://www.uv.es/webgid/Descriptiva/31_coeficiente_de_pearson.html

También podría gustarte