Está en la página 1de 20

COLEGIO DE BACHILLERES DEL ESTADO DE OAXACA

PL. 20 NILTEPEC

MATERIA: LABORATORIO DE INVESTIGACION

DOCENTE: FLORA MARTIN REGALADO

TEMA: INMIGRACION EN MEXICO

GRUPO: 102

EQUIPO:

MONTSERRAT GUADALUPE ORDAZ RAMOS


NAHOMI CUEVAS GOMEZ
UXUNE RAMOS RÍOS
MARIAMNE SANTIAGO RÍOS
IVANA XHUNASHI SOLORZANO GUERRA
INDICE
INTRODUCCIÓN……………………………………………………………3

MEDIDAS DE DISPERCIÓN……………………………………………....4

VARIANZA Y DESVIACIÓN ESTÁNDAR…………………………………


6

INTERVALO DE CONFIANZA……………………………………………11
INTRODUCIÓN
Las matemáticas son como el lenguaje secreto del universo, son a herramienta
que nos permite descifrar patrones, entender estructuras y resolver problemas de
manera lógica. El pensamiento matemático es esa capacidad de ver el mundo a
través de la lente de las ecuaciones y los números, encontrando orden en el caos
aparente.

Piensa en la lógica como el hilo conductor que une todas las piezas del
rompecabezas matemático. Es la disciplina que nos guía a través de pasos
racionales, nos ayuda a tomar decisiones informadas y a resolver problemas de
manera eficiente. La logística, por su parte, es como la aplicación práctica de ese
pensamiento matemático y lógico en el mundo real.

Imagina un almacén gigante lleno de productos. Para gestionarlo eficientemente,


necesitas entender las cantidades, los tiempos y los flujos de manera matemática.
La logística se encarga de optimizar procesos, minimizar costos y maximizar la
eficiencia, y todo eso se traduce en ecuaciones y cálculos.

En resumen, las matemáticas son el idioma que nos permite comprender el


universo, el pensamiento matemático es la habilidad de hablar ese idioma con
fluidez, y la logística es la aplicación práctica de ese conocimiento para hacer que
las cosas funcionen de manera suave y eficiente.
MEDIDAS DE DISPERSIÓN:
Las medidas de dispersión son un conjunto de variables que se utilizan en la
estadística para calcular de qué manera se comporta la distribución de los datos
en las fórmulas de análisis y sus grados de variabilidad en función de un valor de
referencia.
Definición y alcance del término
Las medidas de dispersión son valores que intervienen en la calibración de
variables en estudios estadísticos. Se trata de ciertos valores que representan
relaciones entre variables, datos y otras variables. Suponen una descripción
matemática de un sistema de datos indefinidos que se organizan en variables y
que buscan descubrir patrones y esquemas.
A través de diferentes fórmulas y modelos, la estadística permite conocer los
valores numéricos que representan tendencias y fluctuaciones en todo tipo de
sistemas de datos. Su cálculo se utiliza en distintas disciplinas para conocer hasta
qué punto son confiables los datos recolectados una vez volcados sobre una
variable que será, a su vez, utilizada en un modelo.
Por lo tanto, las medidas de dispersión no sirven al propósito particular del análisis
estadístico, sino que sirven para producir ensayos y calibrar la implementación de
un modelo estadístico genérico para conocer hasta qué punto la relación entre los
datos ingresados en él pueden ser considerados confiables: la llamada dispersión
estadística representa un grado de distribución de datos que oscilan en referencia
a un valor absoluto que se utiliza como la media aritmética.
La variabilidad o dispersión de los datos se configura respecto a la distancia entre
los valores de una variable y la media establecida para dicha variable; si se
reconoce una diferencia muy alta entre la media y el valor medido, se puede decir
que la variable dispone de un grado de dispersión muy alto.

Análisis estadístico y medidas de dispersión


La fiabilidad de este tipo de procedimientos es fundamental para muchas
disciplinas, ya que permite conocer ciertos conjuntos ordenados como son la
oferta o la demanda, por nombrar solo algunos, y conocer su comportamiento. En
la administración de empresas y el marketing, el estudio estadístico brinda la
capacidad de elaborar estrategias comerciales y asistir a la toma de decisiones.
Los valores de una variable oscilarán siempre en función de la media absoluta
para dicha variable, pero también habrá una variabilidad asociada al dato
individual que comportan. Por lo tanto, las medidas de dispersión son
fundamentales para describir el rendimiento real de la variable dentro del análisis
estadístico particular en que se aplica. En otras palabras, el valor de la variable no
es el único dato que esta comporta: se trata de la relación directa de ese valor con
la media, por un lado, y respecto al dato individual, por el otro. De esta manera,
tras conocer la dispersión real de los valores respecto a la media, el resultado del
procesamiento de los datos mejora significativamente en relación con la posición
individual de cada variable.
Las medidas de dispersión por lo general se clasifican en cuatro categorías, pero
esto puede variar según las necesidades particulares del investigador:
Rango de variación: se trata de un número que indica la distancia entre un valor
máximo y uno mínimo. Dicho valor se toma de una población estadística
determinada y se calcula con base en diferentes factores.
VARIANZA Y DESVIACIÓN ESTÁNDAR:
Varianza: esta medida representa la variación que puede sufrir un conjunto de
datos respecto a la media.
Desviación estándar: corresponde a una desviación que es “habitual” entre el valor
y la media. Se trata de un evento más probable y por lo tanto se emplea como tal
en el cálculo de dispersión.

La varianza y la desviación estándar indican si los valores se encuentran más o


menos próximos a las medidas de posición.
Para Malhotra (2008), la varianza es una “técnica estadística que sirve para
examinar las diferencias entre las medias de dos o más poblaciones” (p. 505). La
fórmula de la varianza es:
fórmula de varianza
La desviación estándar es simplemente la raíz cuadrada positiva de la varianza.
fórmula de desviación estándar (primer ejercicio)
Para comprender el concepto de la varianza y de la desviación estándar, a manera
de ejemplo, si una persona gerente de una empresa de alimentos desea saber
qué tanto varían los pesos de los empaques (en gramos) de sus productos,
selecciona al azar cinco unidades de ellos para pesarlos, y se obtuvieron los
siguientes pesos en gramos: 490, 500, 510, 515 y 520, respectivamente.
Dados estos datos, lo primero que se calcula es la media de esos datos:
(490 + 500 + 510 + 515 + 520) / 5 = 507
La varianza se calcula de la siguiente manera:
(490-507)2 + (500-507)2 + (510-507)2 + (515-507)2 + (520-507)2/ 5-1 = 145
Por lo tanto, la desviación estándar sería: √145 = 12,04
Con estos datos se llega a la conclusión de que el peso promedio de los
empaques es de 507 gramos, con una tendencia a variar por debajo o por encima
de dicho peso en 12 gramos. Esta información le permite a quienes toman
decisiones en la empresa, determinar cuánto es el promedio de pérdidas causado
por el exceso de peso en los empaques, y le da las bases para tomar los
correctivos necesarios en el proceso de empacado.
(Segundo ejercicio)
Calcular la varianza y la desviación estándar de los siguientes datos: 2, 4, 6 y 8
sabiendo que corresponden a una población.
Solución:
Nos indican que estos datos forman una población, por lo tanto, usaremos las
fórmulas de varianza y desviación estándar para la población, teniendo en cuenta
que tenemos 4 datos, es decir, N = 4.

Empezamos calculando la media poblacional:

Ahora calculamos la varianza poblacional:

El valor de la varianza poblacional, es de 5.


Ahora calculamos la desviación estándar, teniendo en cuenta que es la raíz
cuadrada de la varianza.
DISTRIBUCIÓN NORMAL O ÁREA BAJO LA CURVA:
El área bajo la curva representa la probabilidad de que el resultado del ensayo
para un caso positivo elegido aleatoriamente supere el resultado para un caso
negativo elegido aleatoriamente. La significación asintótica es menor que 0,05, lo
que significa que usar el ensayo es mejor que adivinar.
Aunque el área bajo la curva es un útil resumen de un estadístico de la precisión
del ensayo, es necesario poder elegir un criterio específico por el que se clasifican
las muestras de sangre y estimar la sensibilidad y la especificidad del ensayo bajo
ese criterio. Vea las coordenadas de la curva para comparar diferentes puntos de
corte.
El área total bajo la curva representa el 100% de los casos. Los elementos
centrales del modelo son la media y la varianza.
Esta distribución es un modelo matemático que permite determinar probabilidades
de ocurrencia para distintos valores de la variable. Así, para determinar la
probabilidad de encontrar un valor de la variable que sea igual o inferior a un cierto
valor xi, conociendo el promedio y la varianza de un conjunto de datos, se debe
reemplazar estos valores (media, varianza y xi) en la fórmula matemática del
modelo. El cálculo resulta bastante complejo, pero, afortunadamente, existen
tablas estandarizadas que permiten eludir este procedimiento.
En el gráfico, el área sombreada corresponde a la probabilidad de encontrar un
valor de la variable que sea igual o inferior a un valor dado. Esa probabilidad es la
que aprenderemos a determinar usando una tabla estandarizada.

Tabla de la distribución normal:

Siendo el valor de interés; la media de nuestra variable y su desviación


estándar. Recordemos que, y corresponden a parámetros, o sea valores en el
universo, que generalmente no conocemos, por lo que debemos calcular Z usando
los datos de nuestra muestra.

En general, el valor de Z se interpreta como el número de desviaciones estándar


que están comprendidas entre el promedio y un cierto valor de variable x. En otras
palabras, se puede decir que es la diferencia entre un valor de la variable y el
promedio, expresada esta diferencia en cantidad de desviaciones estándar.

Suena abstracto, pero con un ejemplo se podrá entender mejor:

Supongamos un conjunto de personas con edad promedio 25 años y desviación


estándar 3,86. Nuestro valor de interés (x) es 30 años. El valor de Z
correspondiente será:

Este valor de Z nos dice que la edad de 30 años está a 1,29 desviaciones
estándar sobre el promedio.

Ahora bien, la tabla de la distribución normal, entrega valores de probabilidad para


los distintos valores de Z.
(Primer ejercicio)

(Segundo ejercicio)

(Tercer ejercicio)
INTERVALO DE CONFIAZA:

El intervalo de confianza describe la variabilidad entre la medida obtenida en un


estudio y la medida real de la población (el valor real). Corresponde a un rango de
valores, cuya distribución es normal y en el cual se encuentra, con alta
probabilidad, el valor real de una determinada variable. Esta «alta probabilidad» se
ha establecido por consenso en 95%. Así, un intervalo de confianza de 95% nos
indica que dentro del rango dado se encuentra el valor real de un parámetro con
95% de certeza:

Para comprender y hacer intuitivo el concepto de intervalo de confianza


utilizaremos un ejemplo clásico:

Supongamos que tenemos una moneda, la cual puede o no estar balanceada. Así,
después de varios lanzamientos, la probabilidad que el resultado sea sello variará
desde 0 (todas las veces cara, es decir, una moneda balanceada) hasta 1 (todas
las veces sello, nuevamente balanceada), pasando por 0,5 (la mitad de las veces
sello y las otras caras, lo que equivale a una moneda no balanceada). Como no
conocemos la verdadera naturaleza de la moneda, vamos a experimentar con ella.

Iniciamos el experimento con 2 lanzamientos, uno es cara y el otro es sello. La


probabilidad de que el resultado sea sello fue 0,5, con lo que podríamos concluir
que la moneda no está balanceada, sin embargo, ¿con sólo 2 lanzamientos
podemos concluir con total certeza que esa es la naturaleza de la moneda? La
respuesta es no, por lo tanto ¿cuál es el rango de valores donde se encuentra el
valor real? Dado que el azar pudo influir en este resultado, uno acepta que el
rango de valores reales posibles es amplio, incluso desde uno tan bajo como 0 a
uno tan alto como 1, por lo tanto, aún no estamos seguros de la naturaleza de
nuestra moneda.

Considerando lo anterior, ampliamos el experimento y realizamos 8 nuevos


lanzamientos (10 en total), resultando 5 caras y 5 sellos. Nuevamente el resultado
es 0,5, sin embargo, ahora intuitivamente nos percatamos que la verdadera
naturaleza de la moneda se encuentra en un rango menos amplio. Por ejemplo, es
poco probable que después de 10 lanzamientos 9 sean sello, menos aún que
todos lo sean, sin embargo, aún es factible que 8 ó 7 ó 6 sí lo sean. Así, nuestro
nuevo rango puede variar entre 0,2 y 0,8, pero con un alcance: todos advertimos
que, si bien 0,8 y 0,2 son posibles, los valores centrales (0,4 y 0,6) lo son más
aún, siendo 0,5 el más probable.

Decidimos seguir experimentando, realizando 90 nuevos lanzamientos (100 en


total), resultando 50 caras y 50 sellos. Nuevamente el resultado es 0,5, advirtiendo
que cada vez es más probable que la verdadera naturaleza de nuestra moneda es
el de una no balanceada, pero aún con un rango de variabilidad que podríamos
estimar entre 0,4 y 0,6 (es decir, que después de 100 lanzamientos, el resultado
real varíe entre 40 y 60 sellos).

Realizamos 1.000 lanzamientos, resultando 500 sellos y 500 caras, con lo que
estamos aún más seguros que nuestra moneda no está balanceada (nuestro
rango puede ser 0,45 a 0,55 o menor).

El ejemplo anterior nos permite aclarar varios conceptos:

• La «verdadera naturaleza» de nuestra moneda (si está balanceada o no)


corresponde al valor real.

• El rango de valores reales posibles, es decir, el rango donde se encuentra la


verdadera naturaleza de nuestra moneda, corresponde al IC.

• El valor real más probable corresponde al estimador puntual del estudio, en este
caso 0,5.

• Finalmente, advertimos la relación inversa entre la amplitud del IC y el tamaño


muestral: si consideramos que el número de lanzamientos representa el n de la
muestra, observamos que mientras más pequeño es el n más amplio es el IC. A
mayor número de lanzamientos (mayor n) más certeza tenemos que el resultado
del experimento se acerca al valor real, por lo tanto, el IC es más estrecho5-8.

Para llevar a la práctica el concepto vamos a recurrir al ejemplo utilizado en el


artículo anterior: la comparación de una nueva droga A versus una droga B en la
prevención de AVE en pacientes con antecedente de accidente isquémico
transitorio (AIT) (Tabla 1)4.
Al analizar estos datos se obtiene una reducción absoluta del riesgo (RRA) de
4,2% con 95% de intervalo de confianza de 0,9% a 7,5%. Esto quiere decir que el
valor real, es decir, el resultante al aplicar la intervención a la población total de
pacientes con AIT, está con 95% de probabilidad entre un RRA de 0,9% a 7,5%,
siendo el valor más probable 4,2%. Si aumentamos el n de la muestra a 20.000
obtendríamos nuevamente un RRA de 4,2%, pero con un intervalo de confianza
más estrecho, de 3,5% a 4,9% (Fórmula en apéndice 1).

Apéndice 1. Fórmula de intervalo de confianza:

Donde:
p1 Tasa de eventos grupo 1
p2 Tasa de eventos grupo 2
n1 n grupo 1
n2 n grupo 2
(Primer ejercicio)
(Segundo ejercicio)

Se ha obtenido una muestra de 15 vendedores de una Editorial para estimar el


valor medio de las ventas por trabajador en la Empresa.

La media y varianza de la muestra (en miles de euros) son 5 y 2, respectivamente.

1. Intervalo de confianza para la venta media por trabajador en la Editorial al 90 %.

2. Intervalo de confianza para la varianza de las ventas por trabajador en la


Editorial al 90 %.
(Tercer ejercicio)

Se ha obtenido una muestra al azar de 150 vendedores de una Editorial para


estimar la proporción de vendedores en la Editorial que no alcanza un

límite de ventas mínimo establecido por la dirección.

De entre los seleccionados, 50 no han conseguido llegar al límite de ventas

mínimo establecido.

1. Intervalo de confianza para la proporción de trabajadores en la Editorial

que no alcanza el límite al 80 %.

2. Intervalo de confianza para la proporción de trabajadores en la Editorial

que no alcanza el límite al 99 %.

3. Interprete los intervalos obtenidos.


OBJETIVOS GENERALES

Los objetivos generales de este proyecto van desde aprender cosas nuevas hasta
ver las cosas que aprendimos etc.

Los objetivos generales de las matemáticas, el pensamiento matemático y la


estadística son como el mapa que guía nuestro viaje hacia el entendimiento y la
aplicación de estos conceptos. Aquí van algunos:

1. Desarrollar el pensamiento lógico: Las matemáticas fomentan la capacidad


de razonamiento lógico, ayudando a desarrollar habilidades analíticas y de
resolución de problemas.

2. Promover la abstracción y generalización: A través de la abstracción, las


matemáticas nos permiten representar situaciones de la vida real en términos de
conceptos más generales, facilitando la comprensión de patrones y regularidades.

3. Mejorar la capacidad de comunicación: Las matemáticas tienen su propio


lenguaje. Aprenderlo no solo facilita la comunicación entre matemáticos, sino que
también mejora la claridad y precisión en la expresión de ideas en general.

4. Aplicar conceptos en situaciones reales: El objetivo último es que las


personas puedan aplicar las habilidades matemáticas y estadísticas en la
resolución de problemas en la vida diaria, en la investigación científica, en la toma
de decisiones empresariales, etc.

5. Fomentar la creatividad: Aunque a veces se perciba como una disciplina


rígida, las matemáticas también son un espacio para la creatividad. La resolución
de problemas matemáticos a menudo requiere pensamiento creativo y enfoques
innovadores.

6. Desarrollar la alfabetización estadística: En un mundo cada vez más basado


en datos, entender la estadística es crucial. Esto implica interpretar datos,
entender la probabilidad y tomar decisiones informadas basadas en la información
disponible.
7. Promover la perseverancia y la paciencia: A veces, resolver problemas
matemáticos puede llevar tiempo y esfuerzo. Fomentar la perseverancia y la
paciencia es esencial para superar desafíos y desarrollar habilidades a largo
plazo.

Estos objetivos reflejan el amplio espectro de habilidades y conocimientos que las


matemáticas y la estadística buscan cultivar en las personas.
CONCLUSIÓN

En conclusión, este proyecto que fusiona las matemáticas y la logística ha


demostrado ser una exploración fructífera y sinérgica de dos disciplinas
aparentemente distintas, pero intrínsecamente interconectadas. A través de la
aplicación de modelos matemáticos, hemos logrado optimizar los procesos
logísticos, mejorando la eficiencia, reduciendo costos y aumentando la capacidad
de respuesta.

La utilización de algoritmos matemáticos para la planificación de rutas, la gestión


de inventarios y la asignación de recursos ha arrojado resultados tangibles,
evidenciando que las matemáticas no solo son una herramienta teórica, sino
también una aliada práctica en la mejora de los sistemas logísticos.

Además, la implementación de técnicas estadísticas para analizar datos históricos


ha permitido una toma de decisiones más informada. La predicción de la
demanda, la identificación de patrones y la evaluación de riesgos han demostrado
ser elementos clave para una logística más adaptable y proactiva.

Este proyecto también ha destacado la importancia de la colaboración


interdisciplinaria. La sinergia entre matemáticos y profesionales de la logística ha
generado soluciones más integrales y contextualmente relevantes. La capacidad
de traducir los problemas logísticos en términos matemáticos y viceversa ha sido
fundamental para el éxito del proyecto.

En última instancia, este proyecto no solo ha contribuido al avance en la eficiencia


logística, sino que también ha reforzado la idea de que las matemáticas son una
herramienta poderosa y versátil que puede transformar radicalmente la forma en
que abordamos y optimizamos los procesos en el mundo real. Este viaje
interdisciplinario ha sentado las bases para futuras exploraciones y aplicaciones
prácticas en el campo de la logística y más allá.

También podría gustarte