Está en la página 1de 12

UNIVERSIDAD DE ORIENTE

CENTRO DE ESTUDIOS DE POSTGRADO NÚCLEO DE MONAGAS


MAESTRÍA EN CIENCIAS ADMINISTRATIVAS MENCIÓN GERENCIA GENERAL
MATURÍN /MONAGAS / VENEZUELA

INFORME: Técnicas de análisis de datos.

Profesora: Elaborado por:


MSc. Omaira García Ing. Yelennys Veliz.
V-20.936.353
Cohorte XXIII
Gerencia General Sección B

Maturín, julio de 2021

i
ÍNDICE

INTRODUCCIÓN.........................................................................................................................1

TÉCNICAS DE ANÁLISIS DE DATOS.....................................................................................2

TIPOS DE TÉCNICAS DE ANÁLISIS DE DATOS.....................................................................2

Técnicas cuantitativas..................................................................................................................2

Técnicas cualitativas....................................................................................................................2

PRINCIPALES SOFTWARES PARA ANÁLISIS DE DATOS....................................................2

PRINCIPALES DE TÉCNICAS DE ANÁLISIS DE DATOS CUALITATIVOS.........................3

1. Categorización:.....................................................................................................................3

2. Análisis de contenido............................................................................................................3

PRINCIPALES DE TÉCNICAS DE ANÁLISIS DE DATOS CUANTITATIVOS......................3

1. Distribución de frecuencias:.....................................................................................................3

1.1. Tablas con frecuencias y porcentajes:...............................................................................3

1.2. Histogramas......................................................................................................................4

1.3. Gráficas circulares o torta.................................................................................................4

1.4. Polígonos:..........................................................................................................................5

2. Medidas de tendencia central................................................................................................5

2.1. Media................................................................................................................................5

2.2. Moda.................................................................................................................................5

2.3. Mediana:............................................................................................................................5

3. Medidas de variabilidad o dispersión...................................................................................6

3.1. Rango................................................................................................................................6

3.2. Desviación estándar..........................................................................................................6

3.3. Varianza:...........................................................................................................................6

i
4. Pruebas estadísticas..............................................................................................................6

4.1. Prueba t de student............................................................................................................6

4.2. Prueba Z............................................................................................................................6

4.3. Análisis de Varianza.........................................................................................................6

4.4. Análisis de Covarianza......................................................................................................6

4.5. Chi cuadrado.....................................................................................................................6

4.6. Análisis de regresión lineal y correlación.........................................................................7

4.7. Coeficientes de Spearman y Kendall................................................................................7

4.8. Análisis multivariados de Varianza..................................................................................7

4.9. r de Peason........................................................................................................................7

4.10.Prueba de Fridman............................................................................................................7

4.11. Correlaciones canónicas..................................................................................................7

4.12 Análisis Factorial..............................................................................................................7

CONCLUSIÓN..............................................................................................................................8

REFERENCIAS BILIOGRÁFICAS...........................................................................................9

ii
INTRODUCCIÓN

Son muchos los procesos que se deben llevar a cabo al momento de realizar una
investigación, pasando por el planteamiento y la formulación del problema, el establecimiento de
los objetivos, la revisión de los antecedentes, el establecimiento de los procesos metodológicos,
así como la recolección de los datos. Todos estos procesos definitivamente son fundamentales
para el desarrollo del estudio en cuestión, pero para poder llegar a conclusiones y hallazgos y
soluciones, que son a fin de cuentas a lo que apuntan las investigaciones, es necesario realizar un
análisis de los datos que se han recabado.

El análisis de datos encierra dos procedimientos fundamentales, el primero de ellos es la


organización de los datos y el segundo está vinculado con la descripción y análisis de los datos.
Para ello existen herramientas que son llamadas técnicas de análisis de datos, que vienen a
ayudar a los investigadores a procesar los datos para llegar a conclusiones y a probar sus teorías
mediante la aplicación de correlaciones y modelos matemáticos y estadísticos principalmente.

Existen muchas y diversas técnicas de análisis de datos que han sido y son utilizadas
tanto investigaciones cualitativas como cuantitativas, y resulta fundamental entender que estas no
deben ser escogidas al azar o por capricho, existen condiciones que deben ser consideradas para
tan importante selección. A lo largo de este informe se muestran las principales técnicas de
análisis de datos, así como los criterios que deben considerar los autores para realizar una
correcta elección.

1
¿QUÉ SON LAS TÉCNICAS DE ANÁLISIS DE DATOS?

Son herramientas útiles para organizar, describir y analizar los datos recogidos con los
instrumentos de investigación.

TIPOS DE TÉCNICAS DE ANÁLISIS DE DATOS

Existen dos grandes familias de técnicas de análisis de datos:


 Técnicas cuantitativas: en las que los datos se presentan en forma numérica.
 Técnicas cualitativas: en las que los datos son presentados de manera verbal (o gráfica) -
como los textos de entrevistas, las notas, los documentos, imágenes, videos, audios.

Los procesos de análisis de datos cualitativos y cuantitativos difieren de forma sustancial,


porque los tipos de datos sobre los que se basan son distintos. A diferencia de los métodos de
análisis cuantitativos, en el análisis cualitativo de datos no existen técnicas generalizadas que se
puedan aplicar para generar hallazgos, por eso, la experiencia y competencias analíticas del
investigador son determinantes para el correcto análisis de datos en estudios cualitativos. Existen
muchas y diversas técnicas de análisis de datos y la mayoría de estas se basan en la estadística
descriptiva e inferencial. La selección de una u otra técnica está relacionada directamente con el
nivel de medición de la variable (nominal, ordinal, por intervalos y de razón) y por la intención
que tiene el investigador (describir, correlacionar, comparar, establecer causalidad o efectos).

PRINCIPALES SOFTWARES PARA ANÁLISIS DE DATOS

Actualmente existen muchos softwares que nos permiten realizar análisis cualitativos y
cuantitativos de datos de manera más sencilla, por cual resulta determinante al momento de hacer
la selección, precisar cuáles son los requisitos o parámetros que exigen tanto el software como la
prueba a realizar para analizar los datos. Los softwares para análisis de datos más conocidos son:

Softwares Para Análisis De Datos


CUANTITATIVOS CUALITATIVOS
SPSS ATLAS.ti
Minitab QSR NVivo
SAS QDA Miner
STATS AQUAD
Excel
Tabla. Principales softwares para el análisis de los datos Fuente. Propia.

2
PRINCIPALES DE TÉCNICAS DE ANÁLISIS DE DATOS CUALITATIVOS

1. Categorización: Es un proceso mediante el cual se busca reducir la información de la


investigación con el fin de expresarla y describirla de manera conceptual, de tal manera que
respondan a una estructura sistemática, inteligible para otras personas y por lo tanto
significativa.
Al respecto, Cisterna (2005) explica que como es el investigador quien le otorga
significado a los resultados de su investigación, uno de los elementos básicos a tener en
cuenta es la elaboración y distinción de tópicos a partir del os cuales se recoge y organiza la
información.

Por su parte, Bonilla y Rodríguez (2005) señalan que es un proceso cognitivo.


Complejo de clasificación según la similitud y diferencias encontradas, con base a criterios
previamente establecidos. Es decir, un fraccionamiento de la información en sub conjuntos y
asignación de nombres.

2. Análisis de contenido: Para Cea D’Ancona existen dos tipos genéricos de análisis de
contenido: el “clásico” desprendido del análisis dominante cuantitativo, y el “etnográfico” en
donde se da énfasis al análisis reflexivo de los documentos, es decir, que busca comprender
los significados latentes (Citado en Abarca, et al.,2013, p.198).

Con respecto a si es una técnica cuantitativa o cualitativa, Ruiz apunta que:

Quizás la disputa entre lo cuantitativo y lo cualitativo emerge de los enfoques que fueron
desarrollándose a lo largo del tiempo: en primer lugar, la técnica se asocia con un análisis
cuantitativo aplicado, preferentemente, a los mensajes de los medios masivos de
comunicación; posteriormente, hay un intento de profundización semiótica y, finalmente, la
metodología cualitativa se impone con la necesidad más de interpretar y develar el discurso
que de buscar la interpretación estadística. (1999, citado en Abarca, et al.,2013, p.198)

PRINCIPALES DE TÉCNICAS DE ANÁLISIS DE DATOS CUANTITATIVOS

1. Distribución de frecuencias: Mason y Lind (citado por Bernal 2010) afirman que la
distribución de frecuencias es el agrupamiento de datos en categorías que muestran el
número de observaciones de cada categoría.

1.1. Tablas con frecuencias y porcentajes: Según Bernal (2010) “Una distribución de
frecuencias es un conjunto de puntuaciones presentadas en una tabla de manera ordenada,
según características definidas por el investigador.” (p.203). En estas tablas se pueden
presentar freuencias, frecuencias acumuladas, porcentajes, porcentajes acumulados,
totales, todo en función de lo que desee reportar el investigador.

3
CATEGORIAS Frecuenci Frecuenci Porcentaje Porcentaje
a (f) a Acumulado
Acumulad
a
55 o menos 3 3 4,76% 4,76 %
56-60 16 19 25,40% 30,16 %
61-65 9 28 14,29 % 44,45 %
66-70 3 31 4,76% 49,21 %
71-75 7 38 11,11% 60,32 %
76-80 9 47 14,29% 74,61 %
81-85 4 51 6,35% 80,86 %
86-90 11 62 17,45% 98,41 %
91-96 1 63 1,59% 100 %
TOTAL: 63 100%

Ejemplo tabla de distribución Frecuencias. Fuente. Propia.

1.2. Histogramas: “Son medios gráficos para representación de la distribución de


frecuencias” (Bernal, 2010, p.199). Estos son llamados también gráficos de barras.

Ejemplo de Histograma. Fuente: Hernández, R. 2014 (p. 293)

1.3. Gráficas circulares o torta.: Son llamadas también gráficas de torta o pastel y es otra
manera de representar las distribuciones de frecuencias en porcentajes o proporciones.

4
Ejemplo de Gráfica Circular. Fuente: Hernández, R. 2014 (p. 285)

1.4. Polígonos: “al igual que el histograma, son gráficas que permiten obtener una imagen
rápida de las principales características de los datos de una distribución de frecuencias”
(Bernal, 2010, p.199)

Ejemplo de Polígono de frecuencia. Fuente: Hernández, R. 2014 (p. 285)

2. Medidas de tendencia central: “son puntos en una distribución obtenida, los valores medios
o centrales de ésta, y nos ayudan a ubicarla dentro de la escala de medición de la variable
analizada”. (Hernández, 2014, p.285)

Bernal (2010) establece que “son cantidades típicas o representativas de un conjunto de


datos”(p.205)

2.1. Media: Según Hernández (2014),


La media es tal vez la medida de tendencia central más utilizada y puede
definirse como el promedio aritmético de una distribución. Se simboliza como x̄,
y es la suma de todos los valores dividida entre el número de casos. Es una
medida solamente aplicable a mediciones por intervalos o de razón. Carece de
sentido para variables medidas en un nivel nominal u ordinal. (p.285)

2.2. Moda: Hernández (2014) la define como “la categoría o puntuación que ocurre con
mayor frecuencia.” (p.285). Mientras que para Bernal (2010) “es el puntaje que ocurre con
mayor frecuencia en una distribución de datos” (p.199). En este sentido podemos afirmar

5
que la Moda es el dato que más se repite dentro de una distribución de datos y se
simboliza como Mo.

2.3. Mediana: “es el valor que divide a una distribución de frecuencias por la mitad, una vez
ordenados los datos de manera ascendente o descendente” (Bernal, 2010, p.199). La
mediana simboliza como Me.

Por su parte Hernández (2014) expresa que “La mediana es una medida de tendencia
central propia de los niveles de medición ordinal, por intervalos y de razón. No tiene
sentido con variables nominales, porque en este nivel no hay jerarquías ni noción de
encima o debajo.” (p.286)

3. Medidas de variabilidad o dispersión: Las medidas de dispersión indican cuán “dispersos”


o separados se encuentran los datos, respecto a un valor central.

3.1. Rango: Para Bernal (2010) “es la más elemental de las medidas de tendencia central;
consiste simplemente en la distancia entre los dos valores más extremos de una
mediciones” en este sentido Hernández (2014) considera que es “la diferencia entre la
puntuación mayor y la puntuación menor, e indica el número de unidades en la escala de
medición que se necesitan para incluir los valores máximo y mínimo”.

3.2. Desviación estándar: es el promedio de desviaciones o dispersiones de las puntuaciones


respecto a la media o al promedio. Es decir, la desviación estándar permite medir el grado
de homogeneidad o heterogeneidad de los datos de la población objeto de medición.
Cuanto mayor sea la dispersión de los datos respecto a la media, mayor será la desviación
estándar, la cual significa mayor heterogeneidad en las mediciones.

3.3. Varianza: Es la desviación estándar elevada al cuadrado y se simboliza como s2. Es un


concepto estadístico muy importante, ya que la mayoría de las pruebas cuantitativas se
fundamentan en él. Diversos métodos estadísticos parten de la descomposición de la
varianza, Sin embargo, con fines descriptivos se utiliza preferentemente la desviación
estándar.

4. Pruebas estadísticas: Las pruebas estadísticas son pruebas que ayudan al investigador a
someter a prueba sus hipótesis. Permiten correlacionar, comparar, establecer causas y
efectos, etc. Cada prueba sirve para corroborar cosas diferentes y utilizan parámetros
específicos.

4.1. Prueba t de student.: es una prueba estadística para evaluar hipótesis en torno a una
media, cuando los tamaños de la muestra n son menores de 30 mediciones (n < 30), y se
quiere saber si existe diferencia significativa entre la media de la muestra y la media
poblacional.

4.2. Prueba Z: es una prueba de distribución normal que tiene como finalidad comparar los
puntajes de distribuciones que son diferentes entre sí. Para Salkind (Citado por Bernal

6
2010) “los valores de los puntajes Z tienen que ver con la probabilidad de queun puntaje
dado aparezca en una distribución”

4.3. Análisis de Varianza: es una prueba estadística para analizar si más de dos grupos
difieren significativamente entre sí, en cuanto a sus medidas y varianzas. Es llamado
también ANOVA.

4.4. Análisis de Covarianza: es una prueba que se usa para analizar la existencia o no de
relación entre una variable dependiente y dos o más independientes.

4.5. Chi cuadrado: es una prueba estadistica que permite probar si más de dos proporciones
de poblacion pueden considerarse iguales; o, en otras palabras, permite probar si esas
proporciones no presentan diferencias significativas.
4.6. Análisis de regresión lineal y correlación.: El análisis de regresión y correlación es un
método estadístico utilizado para calcular la relación entre dos o más variables y su grado
de relación.

4.7. Coeficientes de Spearman y Kendall: Hernández (2014) establece que:


Los coeficientes rho de Spearman, simbolizado como rs, y tau de Kendall,
simbolizado como t, son medidas de correlación para variables en un nivel de
medición ordinal (ambas), de tal modo que los individuos, casos o unidades de
análisis de la muestra pueden ordenarse por rangos (jerarquías). (p.322).

4.8. Análisis multivariados de Varianza: o MANOVA, es una extensión del análisis de la


varianza o ANOVA para cubrir los casos donde hay más de una variable dependiente que
no pueden ser combinadas de manera simple. Además de identificar si los cambios en las
variables independientes tienen efectos significativos en las variables dependientes, la
técnica también intenta identificar las interacciones entre las variables independientes y su
grado de asociación con las dependientes.

4.9. r de Peason: Hernández (2014) establece que “es una prueba estadística para analizar la
relación entre dos variables medidas en un nivel por intervalos o de razón. Se le conoce
también como “coeficiente producto-momento”. Se simboliza: r”(p.304)

4.10.Prueba de Fridman: El test de Friedman es la alternativa no paramétrica a la prueba


ANOVA de una vía cuando los datos son dependientes (pareados) El test de Friedman es el
test adecuado cuando los datos tienen un orden natural, (cuando para darles sentido tienen
que estar ordenados) y además son pareados.

4.11. Correlaciones canónicas: es un método de análisis multivariado cuyo objetivo es


buscar las relaciones que pueda haber entre dos grupos de variables y la validez de las
mismas. las correlaciones canónicas predicen múltiples variables dependientes a partir
de múltiples independientes.

7
4.12 Análisis Factorial: es una técnica estadística de reducción de datos usada para explicar
las correlaciones entre las variables observadas en términos de un número menor de
variables no observadas llamadas factores. Las variables observadas se modelan como
combinaciones lineales de factores más expresiones de error. El análisis factorial se
originó en psicometría, y se usa en las ciencias del comportamiento tales como ciencias
sociales, marketing, gestión de productos, investigación operativa, y otras ciencias
aplicadas que tratan con grandes cantidades de datos.

CONCLUSIÓN

Las técnicas de análisis de datos son herramientas útiles que nos ayudan en los procesos
de organización, descripción y análisis de los datos que se han recabado para el desarrollo de la
investigación. Existen dos grandes familias de técnicas de análisis de datos, las técnicas
cualitativas y las técnicas cuantitativas. Hoy por hoy existes muchas y diversas técnicas de
análisis de datos, pero la selección de una u otra técnica está directamente relacionada con el tipo
de datos, el nivel de medición de la variable y lo que desea hacer el investigador, es decir, si su
intención es describir, comparar, cotejar o establecer causa y efecto.

Las técnicas de análisis de datos cualitativas son principalmente la categorización y el


análisis de contenido. Por su parte las técnicas de análisis de datos cuantitativas están basadas
principalmente en la estadística tanto descriptiva como inferencial siendo las más conocidas:
distribuciones de frecuencia, medidas de tendencia central, medidas de variabilidad o dispersión
y pruebas estadísticas.

En el pasado todos los procesos asociados al análisis de datos debían ser aplicados de
forma manual, actualmente existen programas o softwares que nos facilitan la aplicación de éstas
técnicas de análisis de datos, por lo cuanto es fundamental entender y revisar cuales son los pre-
requisitos que piden tanto el software que se utilizará como la prueba o técnica de análisis de
datos que hemos seleccionado para obtener resultados correctos.

8
REFERENCIAS BILIOGRÁFICAS

Abarca, A., Alpízar, F., Sibaja, G. y Rojas, C. (2013). Técnicas cualitativas de investigación.
UCR.

Bernal, C. (2010).Metodología de la investigación. Editorial Pearson Educación.

Bonilla, E. y Rodríguez, P. (2005). Más allá del Dilema de los Métodos. Editorial Norma.

Cisterna, F. (2005). Categorización y Triangulación como Procesos de Validación de


conocimientos en la Investigación Cualitativa. Theoria(1)

Hernández R., Fernández, C. y Baptista, M. (2014). Metodología de la Investigación. Editorial


Mc Graw Hill.

También podría gustarte