Está en la página 1de 16

Asignaciones especiales para entrega a distancia

Alumna: Madelyn M. Reyes Cabrera


Matricula: 100454030
Sección: 64

Asignación No. 1 reporte de lectura guiada

1. Medidas de Tendencia Central: Media, Mediana, Moda y Media


Geométrica.
Las medidas de Tendencia Central corresponden a valores que generalmente se
ubican en la parte central de un conjunto de datos, estas pretenden resumir la
información de la muestra para poder tener así un mejor conocimiento de la
población.
Las más utilizadas son: la Moda, la Mediana y La media.
Sus propósitos son:
 Mostrar en qué lugar se ubica la persona promedio o típica del grupo.
 Sirve como un método para comparar o interpretar cualquier puntaje en
relación con el puntaje central o típico.
 Sirve como un método para comparar el puntaje obtenido por una misma
persona en dos diferentes ocasiones.
 Sirve como un método para comparar los resultados medios obtenidos por
dos o más grupos.

La Media es el valor promedio de un conjunto de datos numéricos, calculada como


la suma del conjunto de valores dividida entre el número total de valores. Es la
utilizada con más frecuencia, la media puede ser afectada por los valores extremos,
por lo que puede dar una imagen distorsionada de la información de los datos.
Tiene la siguiente formula general:

Donde N es la cantidad Total de los datos y se coloca la suma de todos los


valores involucrados.
Ejemplo:
En matemáticas, un alumno tiene las siguientes notas: 4, 7, 7, 2, 5, 3
n = 6 (número total de datos)
La media aritmética de las notas de esa asignatura es 4,8. Este número representa
el promedio.

La Mediana es el valor medio de una secuencia ordenada de datos, es decir nos


informa el valor que separa los datos en dos partes iguales, cada una de las cuales
cuenta con el cincuenta por ciento de los datos.
Para reconocer la mediana es necesario tener ordenados los valores sea de mayor
a menor o de lo contrario. Es el valor central de un conjunto de valores ordenados
en forma creciente o decreciente, en otras palabras, corresponde al valor que deja
igual numero de valores antes y después de el en un conjunto de datos agrupados,
según su número de valores; si es impar la mediana será el valor central de dicho
conjunto de datos, si es par la mediana corresponderá al promedio de los dos
valores centrales (estos se suman y se dividen por 2).
Su fórmula es:
 Cuando es par:

Mediana = (n+1) / 2 = Media de las observaciones.

 Cuando es impar:

Mediana = (n+1) / 2 = Valor de la observación

Ejemplos:
Se tienen los siguientes datos: 5, 4, 8, 10, 9, 1, 2
Al ordenarlos en forma creciente, es decir de menor a mayor, se tiene: 1, 2, 4, 5, 8,
9, 10
El 5 corresponde a la Mediana, porque es el valor central en este conjunto de datos
impares.
Ejemplo 2:

El siguiente conjunto de datos está ordenado en forma decreciente, de mayor a


menor, y corresponde a un conjunto de valores pares, por lo tanto, la Mediana será
el promedio de los valores centrales.
21, 19, 18, 15, 13, 11, 10, 9, 5, 3

La Moda nos indica el valor que mas se repite dentro de los datos o sea cual se
repite más. Se obtiene fácilmente de una clasificación ordenada. A diferencia de la
media aritmética, la moda no se ve afectada por la ocurrencia de los valores
extremos.
Ejemplo:
Los valores siguientes son las calificaciones de un alumno durante todo el año
7; 8; 9; 7; 9; 8; 8; 8; 7; 8
Podemos afirmar entonces que el modo es igual a 8, dado que es el valor que
aparece con más frecuencia.

La Media geométrica es la raíz n-ésima de los productos de todos los valores de la


variable o bien como la raíz n-ésima de los productos de los valores xi elevados a
sus correspondientes frecuencias absolutas fi. Donde n es el tamaño de la muestra.

Presenta problemas de cálculo cuando los valores de la variable y sus frecuencias


conduce a que el radicando sea negativo y coincida que el tamaño de la muestra es
par. También en muchas ocasiones, los valores de la distribución nos impiden poder
efectuar los cálculos al exceder estos la capacidad de la calculadora.
Todos los elementos del conjunto tienen que ser mayores que cero. Si algún
elemento fuese cero (Xi=0), entonces la MG sería 0 aunque todos los demás
valores estuviesen alejados del cero.
es útil para calcular medias de porcentajes, tantos por uno, puntuaciones o índices.
Tiene la ventaja de que no es tan sensible como la media a los valores extremos.
2. Medidas de Dispersión: rango, varianza, desviación estándar y
percentiles.

Las medidas de dispersión muestran la variabilidad de una distribución, indicando


por medio de un número, si las diferentes puntuaciones de una variable están muy
alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad,
cuanto menor sea, más homogénea será la media.

Para calcular la variabilidad que una distribución tiene respecto de su media, se


calcula la media de las desviaciones de las puntuaciones respecto a la media
aritmética. Pero la suma de las desviaciones es siempre cero así que se adoptan
dos clases de estrategias para salvar este problema, una es tomando las
desviaciones en valor absoluto y otra es tomando las desviaciones al cuadrado.

La dispersión es importante porque:

 Proporciona información adicional que permite juzgar la confiabilidad de la


medida de tendencia central. Si los datos se encuentran ampliamente
dispersos, la posición central es menos representativa de los datos.
 Ya que existen problemas característicos para datos ampliamente dispersos,
debemos ser capaces de distinguir que presentan esa dispersión antes de
abordar esos problemas.
 Quizá se desee comparar las dispersiones de diferentes muestras. Si no se
desea tener una amplia dispersión de valores con respecto al centro de
distribución o esto presenta riesgos inaceptables, necesitamos tener
habilidad de reconocerlo y evitar escoger distribuciones que tengan las
dispersiones más grandes.
El Rango es la medida de la variabilidad más fácil de calcular, se define como la
diferencia entre el valor mas alto y el mas bajo en un conjunto de datos. Se denota
como R, existen dos maneras de calcularlo:
 Cuando los datos no están agrupados:

R = Xmáx.-Xmín = Xn-X1.

 Cuando los datos están agrupados:

R= (lim. Sup. de la clase n – lim. Inf. De la clase 1).


Sus propiedades son:
 El recorrido es la medida de dispersión más sencilla de calcular e interpretar
puesto que simplemente es la distancia entre los valores extremos (máximo y
mínimo) en una distribución
 Puesto que el recorrido se basa en los valores extremos éste tiende s ser
errático. No es extraño que en una distribución de datos económicos o
comerciales incluya a unos pocos valores en extremo pequeños o grandes.
Cuando tal cosa sucede, entonces el recorrido solamente mide la dispersión con
respecto a esos valores anormales, ignorando a los demás valores de la
variable.
 La principal desventaja del recorrido es que sólo está influenciado por los
valores extremos, puesto que no cuenta con los demás valores de la variable.
Por tal razón, siempre existe el peligro de que el recorrido ofrezca una
descripción distorsionada de la dispersión.
 En el control de la calidad se hace un uso extenso del recorrido cuando la
distribución a utilizarse no la distorsionan y cuando el ahorro del tiempo al hacer
los cálculos es un factor de importancia.

Ejemplo:
Se tienen las edades de cinco estudiantes universitarios de Ier año, a saber: 18,23,
27,34 y 25., para calcular la media aritmética (promedio de las edades, se tiene que:
R = Xn-X1 ) = 34-18 = 16 años
La Varianza es relativa a algún punto de referencia, ese punto de referencia es la
media aritmética de la distribución. En otras palabras, la varianza es una medida de
que tan cerca o que tan lejos están los diferentes valores de su propia media aritmética,
cuanto más lejos están mayor es la varianza y cuando más cerca estén la varianza es
menor.
En la varianza:
 s siempre un valor no negativo, que puede ser igual o distinta de 0. Será 0
solamente cuando Xi=
 La varianza es la medida de dispersión cuadrática optima por ser la menor de
todas.
 Si a todos los valores de la variable se le suma una constante la varianza no se
modifica. Veámoslo:
Su fórmula General es:
La Desviación Estándar o Desviación media es la media aritmética de los valores
absolutos de las desviaciones respecto a la media. Es una medida de la cantidad típica
en la que los valores del conjunto de datos difieren de la media. Es la medida de
dispersión más utilizada, se le llama también desviación típica. La desviación estándar
siempre se calcula con respecto a la media y es un mínimo cuando se estima con
respecto a este valor.
Se calcula de forma sencilla, si se conoce la varianza, por cuanto que es la raíz
cuadrada positiva de esta. A la desviación se le representa por la letra minúscula griega
"sigma" ( δ ) ó por la letra S mayúscula.
 La desviación estándar es siempre un valor no negativo S será siempre ³ 0 por
definición. Cuando S = 0 è X = xi (para todo i).
 Es la medida de dispersión óptima por ser la más pequeña.
 La desviación estándar toma en cuenta las desviaciones de todos los valores de
la variable
 Si a todos los valores de la variable se le suma una misma constante la
desviación estándar no varía.
 Si a todos los valores de la variable se multiplican por una misma constante, la
desviación estándar queda multiplicada por el valor absoluto de dicha constante.
Se calcula de la siguiente forma:
δ = √δ2 ó S = √S2.
Los percentiles son medidas estadísticas utilizadas para comparar datos, consiste en
numero de 0 a 100 que indica el porcentaje de datos que son igual o menor que
determinado valor, suele ser definido también como una medida de posición no central
porque nos informan de la posición de un valor respecto a los demás.
Su fórmula es:

Ejemplo:
Si tomamos los sueldos de 10000 trabajadores. ¿Cuál sería el percentil 60? El P60
sería aquel sueldo por debajo del cual estaría el 60% de los trabajadores. Si
ordenamos los trabajadores desde el que cobra menos hasta la que cobra más, el P60
sería el sueldo del trabajador número 6000 (60% de 10000).
3. Indicadores de Prevalencia/Incidencia: Frecuencia Absoluta,
Proporciones, Razones, Índices, Tasas e intervalos de Confianza.

La prevalencia examina casos existentes, mientras que la incidencia examina


casos nuevos y la incidencia examina los nuevos casos y proporciona más
información sobre lo que está sucediendo.

La prevalencia se calcula con los números de casos dividido entre la población


estudiada y multiplicada por 100, La incidencia se calcula dividiendo los nuevos
entre la población total.

La Frecuencia Absoluta es una medida estadística que nos da información acerca


de la cantidad de veces que se repite un suceso al realizar un número determinado
de experimentos aleatorios. Esta se representa mediante las letras fi. La letra f se
refiere a la palabra frecuencia y la letra i se refiere a la realización i-ésima del
experimento aleatorio.

La suma de las frecuencias absolutas es igual al número total de datos de la


muestra o población.

Ejemplo:
Supongamos que las notas de 20 alumnos de primer curso de economía son las
siguientes:

1, 2, 8, 5, 8, 3, 8, 5, 6, 10, 5, 7, 9, 4, 10, 2, 7, 6, 5, 10.

A simple vista se puede observar que, de los 20 valores, 10 de ellos son distintos y
los demás se repiten al menos una vez. Para elaborar la tabla de frecuencias
absolutas, en primer lugar, se ordenarían los valores de menor a mayor y se
calcularía la frecuencia absoluta para cada uno.

Aquí:
Xi = Variable aleatoria estadística, nota del examen de primer curso de economía.

N = 20

fi = Frecuencia absoluta = Número de veces que se repite el suceso (en este caso,
la nota del examen).
Se vería de esta forma:

Xi Fi
1 1
2 1
3
4 1
5 4
6 2
7 2
8 3
9 1
10 3

La proporción es la igualdad de dos razones cuyo objetivo es establecer la relación


entre una parte con respecto al todo. Aquí no se multiplica el cociente resultante
por 100 ya que la relación se establece respecto a la unidad.

Se calcula así:
Numero de elementos de n
Proporción de n:
Total de elementos en el Universo N

Ejemplo:

Proporción de Hombres = Numero de hombres = 20 = 1 (0.25)


Total de Personas 80 4

La Razón es el cociente indicado de dos cantidades, es la relación que se da entre


dos subconjuntos o dos conjuntos. En otras palabras son una manera de encontrar
relaciones entre cantidades que aumentan o disminuyen.

Se escribe como:

ri=xi
n

Ejemplo:

En un grupo de 32 alumnos 6 reprobaron español.


Si se presenta como razón queda: 6/32
y al simplificar se tiene 3/16

es decir, que reprobaron español 3 de cada 16 alumnos.


El Índice nos permite comparar una magnitud simple o compleja en dos
situaciones diferentes respecto al tiempo o al espacio tomando una de ellas como
referencia. Al periodo inicial se le denomina periodo base o referencia y se le
asigna el valor 100, en cambio la situación que deseamos comparar se denomina
periodo actual o corriente.

Para esto debemos tener en cuenta:


 Fijar la situación inicial a la que se referirán las comparaciones.
 Las magnitudes que se comparan pueden ser simples o complejas.
Ejemplo:
Calcular el índice de masa corporal de una persona de 68 kg y de 165 cm.
68/(165)2 = 24.98.

La Tasa es la rapidez de cambio de un fenómeno, se obtiene mediante el cociente del


numero de veces que ocurre la situación investigada en un lugar y lapso de tiempo
determinado.
Las tasas que se refieren a la población se llaman crudas, mientras que las que se
refieren a solo una parte de la población se llaman específicas.
Algunos tipos comunes son:
 Tasa de mortalidad.
 Tasa de natalidad.
 Tasa de Letalidad
Mide la frecuencia con la que, en un periodo de tiempo, aparece un suceso en una
población, Las tasas son calculables tanto para acontecimientos renovables como no
renovables.
Los Intervalos de Confianza son técnicas de estimación utilizada en estadística que
permite acotar un par o varios pares de valores, dentro de los cuales se encontrara la
estimación buscada.
Un intervalo de confianza nos va a permitir calcular dos valores alrededor de una media
muestral (uno superior y otro inferior).
Esto va a depender de:
 Tamaño de la muestra seleccionada: Dependiendo de la cantidad de datos que
se hayan utilizado para calcular el valor muestral, este se acercará más o menos
al verdadero parámetro poblacional.
 Nivel de confianza: Nos va a informar en qué porcentaje de casos nuestra
estimación acierta. Los niveles habituales son el 95% y el 99%.
 Margen de error de nuestra estimación: Este se denomina alfa y nos informa de
la probabilidad que existe de que el valor poblacional esté fuera de nuestro
intervalo.
 Lo estimado en la muestra (media, varianza, diferencia de medias…): De esto va
a depender el estadístico pivote para el cálculo del intervalo.
4. Probabilidad estadística: definición, técnicas, reglas y teorías.
La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat» y Blaise
Pascal » tratan de resolver algunos problemas relacionados con los juegos de azar.
Desde los orígenes la principal dificultad para poder considerar la probabilidad como
una rama de la matemática fue la elaboración de una teoría suficientemente precisa
como para que fuese aceptada como una forma de matemática.
La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se
pueden predecir con certeza, y estudia sus consecuencias lógicas. Cuando no estamos
seguros del resultado de un evento, podemos hablar de la probabilidad de ciertos
resultados: qué tan común es que ocurran. Al análisis de los eventos gobernados por la
probabilidad se le llama estadística.

En ella se involucran los siguientes conceptos:


Probabilidad Condicional: es la probabilidad de que un evento ocurra.
Población: es un conjunto de elementos con características comunes.
Muestra: es un subconjunto de datos tomados de la población que busca
características de la población en base a el comportamiento de sus elementos.
Espacio Muestral: es el conjunto de todos los resultados posibles de un experimento
aleatorio.
Eventos: subconjuntos del espacio muestral.
Eventos independientes: eventos que no tiene efecto sobre la probabilidad de
ocurrencia de otro evento.
Evento dependiente: eventos que tienen efectos en la ocurrencia de otros.
Axiomas: son las condiciones mínimas que deben verificarse para que una función
definida determine las probabilidades.
Permutaciones: son las distintas formas en que se pueden ordenar los elementos de un
conjunto.
Combinaciones: son agrupaciones de objetos en las que no importa su orden.
En el estudio de la probabilidad pueden ser identificados tres tipos de métodos.

 El primero es llamado el método de distribución binominal. En este caso es


posible obtener dos resultados, los mismos son independientes y excluyentes
entre sí. Por ejemplo, si se lanza una moneda puedo obtener cara o cruz, al
obtener cara no puedo obtener cruz y viceversa.
 El segundo método es llamado de multiplicación. En este caso se determina una
probabilidad de varios eventos que son independientes entre sí, es decir que los
resultados obtenidos no tendrán influencia en los demás resultados.
 El último método es el de la suma o regla de adición. En este caso la posibilidad
de que suceda un evento específico es equivalente a la sumatoria de las
probabilidades particulares. Esta regla se da bajo la condición que los eventos
sean excluyentes entre sí.
En este aspecto también se destacan sus propiedades:
 La probabilidad del suceso complementario vale 1 menos la del
suceso.
 Si un suceso A está contenido en un suceso B (siempre que
ocurre A ocurre B).
 Si A y B son sucesos cualesquiera, puede ser que sucedan ambos
o cualquiera de los dos.

Así como también tiene sus reglas:


 Si A y B son dos eventos no mutuamente excluyentes (eventos intersecantes),
es decir, de modo que ocurra A o bien B o ambos a la vez (al mismo tiempo).
 Si A y B son dos eventos dependientes, es decir, si la ocurrencia de A afecta la
probabilidad de ocurrencia de B.
 Si A y B son dos eventos independientes, es decir, si el conocimiento de la
incidencia de uno de ellos no tiene efecto en la probabilidad de ocurrencia del
otro.
La probabilidad constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadístico.
Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la
teoría de la relatividad numérica, esta última con un alto grado de aceptación si se
toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel
mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.
También existe la teoría o regla de Laplace que establece que:
 La probabilidad de ocurrencia de un suceso imposible es 0.
 La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A)=1}.

 La probabilidad Objetiva que establece que ``Una probabilidad es una


característica inherente de un objeto’’ la implicación de esta teoría es que las
probabilidades se pueden calcular mediante la inspección de un objeto, no
necesita experimentos.

 La Teoría de Frecuencia Relativa establece que ``la probabilidad, aunque es


una cantidad objetiva, nunca puede ser conocida en el mundo real’’.

 La Probabilidad Subjetiva establece lo opuesto a la probabilidad objetiva


puesto que señala que la probabilidad no es real, que solo existe en la mente de
un individuo. Se define como una medida de la creencia de que un evento
ocurra.
5. Normalidad estadística valores normales o de referencia de
mediciones clínicas: medidas anatómicas (peso y talla), medidas
fisiológicas (presión sanguínea, frecuencia del pulso), datos de
pruebas de laboratorio (perfil lipídico, perfil hematológico,
inmunoglobulinas)

Se define la normalidad en sentido estadístico a aquellos valores que por sus


características se aproxima a la media aritmética de las características del grupo a
que pertenece, es un criterio cuantitativo y realista.

La noción de Normalidad en principio se encuentra orientada y sostenida por el


porcentaje mayoritario del comportamiento a un ideal colectivo y prácticamente
referida como un proceso de adaptación y equilibrio dinámico del sujeto. Es decir
que la normalidad estadística lleva relación con los rangos normales y valores en
las mediciones.

Este concepto de normalidad es el que se emplea en las pruebas: tras aplicarlos a


muchas personas, se obtienen los valores promedios y alrededor de ellos se
estructuran las puntuaciones normales y anormales. Esta se basa en el principio de
la curva de la campana que maneja la estadística.

La distribución normal o distribución de Gauss representa la forma en la que se


distribuyen en la naturaleza los diversos valores numéricos de las variables
continuas, como pueden ser estatura, peso, etc. Su ventaja es que nos permite
calcular probabilidades de aparición de datos de esa distribución.

Los estándares de Normalidad son aquellos que se utilizan a la hora de comparar


los resultados como valores o rango de referencia para marcar lo normal de lo que
no lo es, en el campo de la medicina se establecen unos valores que el medico
utiliza para interpretar los resultados de un paciente. Estos valores se basan en los
resultados de una prueba en una persona 95% sana, pero puede ocurrir la
situación de que pacientes que estén fuera estén sanos y aquellos que estén
dentro estén enfermos.

Las medidas anatómicas (peso y talla) son aquellas tomadas sobre el cuerpo sin
holguras, la talla es el parámetro fundamental para enjuiciar el crecimiento en
longitud, pero es menos sensible que el peso a las deficiencias nutricionales por
eso solo se afecta en carencias prolongadas. Se utiliza para evaluar el crecimiento
y desarrollo de un niño, mediante la comparación con estándares obtenidos
realizados en poblaciones de niños saludables y normales.

El peso y los cambios de peso suelen ser considerados como una herramienta
para valorar el estado nutricional de un individuo, es un indicador de masa
corporal. Se debe tener en cuenta edemas, ascitis y deshidratación, en cuanto a la
definición de peso ideal esto tiene tablas de referencia en función del sexo, talla y
complexión del individuo.

La presión sanguínea es la fuerza que se aplica contra las paredes de las arterias
cuando el corazón bombea la sangre del cuerpo, la presión esta determinada por la
fuerza y cantidad de sangre que es bombeada y el tamaño y flexibilidad de las
arterias.

El pulso es el numero de latidos cardiacos por minuto, su frecuencia es uno de los


signos vitales o los indicadores importantes de la salud en el cuerpo humano, mide
la cantidad de veces que el corazón se contrae o late, en cambio cuando esta
relajado medimos la frecuencia cardiaca en reposo.

Las pruebas de laboratorio examinan muestras de sangre, orina y tejidos


corporales su valor de normalidad varía según un individuo u otro.
El perfil lipídico también conocido como panel de lípidos mide las concentraciones
de distintos tipos de grasas en la sangre, permite indica el riesgo de una persona a
desarrollar enfermedades cardiacas o ateroesclerosis, estrechamiento u
obstrucción de las arterias, Normalizar las concentraciones de lípidos puede
reducir el riesgo de padecer enfermedades.

El perfil hematológico proporciona información importante sobre el tipo, numero y


apariencia de las células sanguíneas, especialmente los glóbulos rojos, glóbulos
blancos y plaquetas.
El análisis de inmunoglobulina mide el nivel de ciertos anticuerpos en la sangre.
Los anticuerpos son proteína producidas por el sistema inmunológico para atacar a
los antígenos como las bacterias, los virus y los alergenos.

El cuerpo humano segrega distintos tipos de anticuerpos para la protección del


cuerpo humano como son los siguientes:

 Inmunoglobulina A (IgA): presente en grandes concentraciones en las


membranas mucosas.
 Inmunoglobulina G(IgG):es el mas abundante en los líquidos corporales,
brinda protección contra virus e infecciones.
 Inmunoglobulina M(IgM): Se encuentra principalmente en la sangre y en el
líquido linfático.
 Inmunoglobulina E(IgE): se le asocia principalmente con las reacciones
alérgicas.
 Inmunoglobulina D (IgD): Existe en pequeñas cantidades en la sangre y es
el anticuerpo del que menos conocimiento se tiene.

También podría gustarte