Está en la página 1de 29

ANALISIS DE INFORMACION

PRESENTACION:
*Alejandra solis
*braian lotero
*stephanie calderon
*karen mancilla TUTOR :
*eliana lopez  Milena Perez
Análisis en Descripción de
Estadística Regresión y Análisis de
investigación datos- técnicas
inferencia correlación varianza
cuantitativa numéricas
ANALISIS DE INVESTIGACIONES CUANTITATIVAS

El objetivo del análisis de información:

con el recuperar  la
de distintas para expresar
obtener ideas fuentes de el contenido propósito de información
relevantes información sin confusión almacenar contenida.

La análisis de información sólo se produce para tener informes o resultados guardados. Pero
hay que agregar que esta disciplina parte de analizar fuentes, en base a las necesidades de los
usuarios, que deben estar en consonancia con los objetivos estratégicos de la institución a la
que pertenezcan.

La producción bibliografía cuantitativa:
se orienta principalmente hacia los estudios que exponen solo
clasificaciones de datos y descripciones de la realidad social y, en
menor medida, hacia estudios que intentan formular explicaciones.


El producto de una investigación de corte cuantitativo:
será un informe en el que se muestre una serie de datos
clasificados, sin ningún tipo de información adicional que le de una
explicación, más allá de la que en si mismos conllevan.
La investigación cuantitativa se dedica a:

analizar datos
numéricos sobre
Recoger procesar variables
previamente
determinadas.

Los datos que se muestran en el informe final, están en total


consonancia con las variables que se declararon desde el principio y
los resultados obtenidos van a brindar una realidad específica a la
que estos están sujetos.
dos e
é to os d
r m tiv n se
Po tita ció s :
u an tiga n lo
c es de
inv tien
en
diseños experimentales

cuasi  experimentales

Encuesta

cuestionarios

registros estructurados de
observación
técnicas estadísticas de
análisis de datos

entre otros
Dentro de la investigación cuantitativa se pueden observar:

La encuesta social:
consiste en aplicar una Los estudios
serie de técnicas cuantitativos con datos
Los diseños
específicas con el objeto secundarios: los cuales,
experimentales: donde
de recoger, procesar y a diferencia de los dos
se aplican experimentos
analizar características anteriores, abordan
puros.
que se dan en personas análisis con utilización
de un grupo de datos ya existentes.
determinado.

Otro aspecto de la Metodología de la Investigación son los
estudios cualitativos, que se han venido retomando luego de un
casi dominio de los métodos de investigación cuantitativos.

Son identificadas cuatro formas generales en las que se utiliza
este tipo de investigación.

Como mecanismo de generación de ideas.

Para complementar un estudio cuantitativo.

Para evaluar un estudio cuantitativo.

Como método principal de investigación.
VENTAJAS Y DESVENTAJAS DE LA INVESTIGACION CUANTITATIVA


Los métodos cuantitativos son débiles en términos de validez interna,
pues casi nunca se sabe si miden lo que quieren medir, pero a su vez
resultan bastante fuertes en validez externa; lo que encuentran es
generalizable al conjunto de una población.

La investigación cuantitativa con la prueba de hipótesis no sólo
permite eliminar el papel del azar para descartar o rechazar una
hipótesis, sino que permite cuantificar la relevancia de un fenómeno.

Una desventaja que ofrece la investigación cuantitativa es que se
sirve de los sujetos del estudio, pero no saca al máximo toda la
información que pudiera necesitar pues sus resultados se basan en
los números que arrojen los estudios, sin mediar otros factores.
DESCRIPCION DE DATOS TECNICAS NUMERICAS

La segunda técnica utilizada en la estadística descriptiva se basa en dos
tipos de cálculos numéricos: Los de tendencia central y los de dispersión.
MEDIDAS DE TENDENCIA CENTRA
MODA
Ejemplo; hallar la moda de esta distribución
2, 3, 3, 4, 4, 4, 5, 5 Mo.  = 4
MEDIANA
Ejemplo: En la siguiente distribución: 7, 8, 8, 9, 12, 15, 18, 18, 20, 21, 23.
La mediana es?

En la siguiente distribución: 7, 8, 8, 9, 12, 15, 18, 18, 20, 21, 23.La
mediana es 15, porque se sitúa en el punto que divide la distribución en
dos partes iguales. Hay el mismo número de casos antes y después del
15
LA MEDIA ARITMETICA
SE SIMBOLIZA
La media aritmética se define como la suma de todos los valores
observados dividido por el número de observaciones (n).
La fórmula para datos no agrupados es:

Donde S-Xi corresponde a la sumatoria de todos los valores de la


muestra.
La media aritmética de la siguiente distribución es:
ESTADISTICA INFERENCIAL
La Estadística inferencia o Inferencia estadística estudia cómo
sacar conclusiones generales para toda la población a partir del
estudio de una muestra, y el grado de fiabilidad o significación
de los resultados obtenidos .

MUESTREO PROBABILÍSTICO
Consiste en elegir una muestra de una población al azar. Podemos
distinguir varios  tipos de muestreo:

Muestreo aleatorio simple
Para obtener una muestra, se numeran los elementos de la
población y se seleccionan al azar los n elementos que contiene
la muestra.

Muestreo aleatorio sistemático
Se elige un individuo al azar y a partir de él, a intervalos constantes, se
eligen los demás hasta completar la muestra.

Por ejemplo si tenemos una población formada por 100 elementos y


queremos extraer una muestra de 25 elementos, en primer lugar
debemos establecer el intervalo de selección que será igual a 100/25
= 4. A continuación elegimos el elemento de arranque, tomando
aleatoria mente un número entre el 1 y el 4, y a partir de él
obtenemos los restantes elementos de la muestra.
2, 6, 10, 14,..., 98

Muestreo aleatorio estratificado
Se divide la población en clases o estratos y se escoge, aleatoria mente, un
número de individuos de cada estrato proporcional al número de
componentes de cada estrato.
En una fábrica que consta de 600 trabajadores queremos tomar una muestra
de 20. Sabemos que hay 200 trabajadores en la sección A, 150 en la B, 150
en la C y 100 en la D.
Un muestreo puede hacerse con o sin reposición, y la
población de partida puede ser infinita o finita.
En todo nuestro estudio vamos a limitarnos a una
población de partida infinita o a muestreo con
reposición.

Si consideremos todas las posibles muestras de


tamaño n en una población, para cada muestra
podemos calcular un  estadístico (media, desviación
típica, proporción)  que variará de una a otra.
Así obtenemos una distribución del estadístico que se
llama  distribución muestral.
REGRESION Y CORRELACION
Regresión lineal
Expresándolo en forma simple, la regresión lineal es una
técnica que permite cuantificar la relación que puede ser
observada cuando se gráfica un diagrama de puntos dispersos
correspondientes a dos variables, cuya tendencia general es
rectilínea (Figura la); relación que cabe compendiar mediante
una ecuación “del mejor ajuste” de la forma:
*y = a + bx
En esta ecuación, “y” representa los valores de la coordenada a lo largo del eje
vertical en el gráfico (ordenada); en tanto que “x” indica la magnitud de la
coordenada sobre el eje horizontal (absisa). El valor de “a” (que puede ser
negativo, positivo o igual a cero) es llamado el  intercepto; en tanto que el valor
de “b” (el cual puede ser negativo o positivo) se denomina la  pendiente  o 
coeficiente de regresión.
Serie de datos para el cálculo de una regresión (“a” y “b”) y del coeficiente de correlación (“r”)
Correlación
El análisis de correlación se encuentra estrechamente vinculado
con el análisis de regresión y ambos pueden ser considerados de
hecho como dos aspectos de un mismo problema.
La correlación entre dos variables es - otra vez puesto en los
términos más simples - el grado de asociación entre las mismas.
Este es expresado por un único valor llamado coeficiente de
correlación (r), el cual puede tener valores que ocilan entre -1 y
+1. Cuando “r” es negativo, ello significa que una variable (ya sea
“x” o “y”) tiende a decrecer cuando la otra aumenta (se trata
entonces de una “correlación negativa”, correspondiente a un
valor negativo de “b” en el análisis de regresión).
Cuando “r” es positivo, en cambio, esto significa que una variable
se incrementa al hacerse mayor la otra (lo cual corresponde a un
valor positivo de “b” en el análisis de regresión).
Figura 1 Diagrama de puntos dispersos correspondientes a pares de
valores de “x” y de “y”. Nótese que “y” tiende a decrecer con el
aumento de “x”, lo cual sugiere coeficientes de regresión y de
correlación negaticos (basado en la Tabla 1)
Figura 1b   Los mismos datos que en 1a Fig. 1a, pero
ajustados en base a la regresión y = 2,16 - 0,173x, con r =
0,75
la cual proporciona el valor del “coeficiente de determinación”
(r²). Entonces, lo único necesario es calcular
es decir, tomar la raíz indicada del coeficiente de
determinación a los fines de obtener el valor absoluto de “r”,
y luego agregar el signo (+ o -) de acuerdo a que la
correlación sea positiva o negativa (lo cual puede ser
establecido visualmente a partir del gráfico, o bien en base al
cálculo del valor de “b” de la correspondiente regresión y
utilizando para “r” el mismo signo).
Cuando se calculan los valores de “r” se querrá saber, sin
embargo, hasta qué punto la correlación identificada pudiera
haber surgido únicamente por casualidad. Esto puede ser
establecido verificando si el valor estimado de “r” es
“significativo”, es decir si el valor absoluto de “r” es  mayor  o 
igual  que un valor “crítico” de “r” indicado en las tablas
estadísticas.
ANALISIS DE VARIANZA

El análisis de la varianza (o Anova:  Analysis  of  variance) es un


método para comparar dos o más medias, que es necesario porque
cuando se quiere comparar más de dos medias es incorrecto utilizar
repetidamente el contraste basado en la comparacion de medidas por
dos motivos:
En primer lugar, y como se realizarían simultánea e
independientemente varios contrastes de hipótesis, la probabilidad de
encontrar alguno significativo por azar aumentaría. En cada contraste
se rechaza la H0  si la  t  supera el nivel crítico, para lo que, en la
hipótesis nula, hay una probabilidad  a. Si se realizan  m  contrastes  ,
la probabilidad de que, en la hipótesis nula, ningún estadístico supere
el valor crítico es (1 -  a)
Por otro lado, en cada comparación la hipótesis nula es
que las dos muestras provienen de la misma población,
por lo tanto, cuando se hayan realizado todas las
comparaciones, la hipótesis nula es que todas las
muestras provienen de la misma población y, sin embargo,
para cada comparación, la estimación de la varianza
necesaria para el contraste es distinta, pues se ha hecho
en base a muestras distintas

El método que resuelve ambos problemas es el  anova,


aunque es algo más que esto: es un método que permite
comparar varias medias en diversas situaciones; muy
ligado, por tanto, al diseño de experimentos y, de alguna
manera, es la base del análisis multivariante..
Bases del análisis de la varianza
Supónganse  k  muestras aleatorias independientes,
de tamaño  n, extraídas de una única población
normal. A partir de ellas existen dos maneras
independientes de estimar la varianza de la
población  s2
Una llamada  varianza dentro de los grupos  (ya que sólo contribuye a ella la varianza dentro

de las muestras), o  varianza de error, o  cuadrados medios del error, y habitualmente

representada por  MSE(Mean  Square  Error) o  MSW  (Mean  Square  Within) que se

calcula como la media de las  k  varianzas muestrales (cada varianza muestral es un

estimador centrado de  s2  y la media de  k  estimadores centrados es también un

estimador centrado y más eficiente que todos ellos).  MSE  es un cociente: al numerador se

le llama  suma de cuadrados del error  y se representa por  SSE  y al denominador  grados

de libertad  por ser los términos independientes de la suma de cuadrados.


2) Otra llamada  varianza entre grupos  (sólo contribuye a ella la
varianza entre las distintas muestras), o  varianza de los
tratamientos, o  cuadrados medios de los tratamientos  y
representada por  MSA  o  MSB(Mean  Square  Between). Se
calcula a partir de la varianza de las medias muestrales y es
también un cociente; al numerador se le llama  suma de cuadrados
de los tratamientos  (se le representa por  SSA)  y al denominador
(k-1) grados de libertad.

Existe una tercera manera de estimar la varianza de la población,


aunque no es independiente de las anteriores. Si se consideran las
kn observaciones como una única muestra, su varianza muestral
también es un estimador centrado de s2:
Se suele representar por MST, se le denomina varianza total o
cuadrados medios totales, es también un cociente y al numerador
se le llama suma de cuadrados total y se representa por SST, y el
denominador (kn -1) grados de libertad.
Algunas propiedades

GLerror+ Gltrata = (n- 1) k +k- 1 =k+k- 1 =nk- 1 =  GLtotal

No es tan inmediato, pero las sumas de cuadrados cumplen la


misma propiedad, llamada  identidad  o  propiedad aditiva  de
la suma de cuadrados:
SST = SSA + SSE
El análisis de la varianza se puede realizar con tamaños muestrales
iguales o distintos, sin embargo es recomendable iguales tamaños por
dos motivos:
1) La  F  es insensible a pequeñas variaciones en la asuncion de
igual varianza, si el tamaño es igual.
2) igual tamaño minimiza la p´robabilidad de error tipo II
Ejemplo 1
Se quiere evaluar la eficacia de distintas dosis de un
fármaco contra la hipertensión arterial, comparándola con
la de una dieta sin sal. Para ello se seleccionan al azar 25
hipertensos y se distribuyen aleatoria mente en 5 grupos.
Al primero de ellos no se le suministra ningún tratamiento,
al segundo una dieta con un contenido pobre en sal, al
tercero una dieta sin sal, al cuarto el fármaco a una dosis
determinada y al quinto el mismo fármaco a otra dosis.
Las presiones arteriales sistólicas de los 25 sujetos al
finalizar los tratamientos son:
BIBLIOGRAFIA

http://www.hrc.es/bioest/Anova_4.html

http://www.fao.org/docrep/003/X6845S/X6845S02.htm

http://www.ditutor.com/inferencia_estadistica/estadistica_inferencial.ht
ml

http://gliyumiel2009.blogspot.com.co/2009/08/descripcion-de-datos-te
cnicas-numericas.html

http://bvs.sld.cu/revistas/spu/vol33_3_07/spu20207.htm

También podría gustarte