Está en la página 1de 8

El procesamiento de datos , momentos fundamentales en una investigación científica.

Edgardo Alberto Di dio Cardalana

El procesamiento de datos , momentos fundamentales


en una investigación científica.

Edgardo Alberto Di Dio Cardalana edgardodidio@gmail.com


Universidad Nacional de Lanús Unla
Resumen
El presente artículo describe la inserción del procesamiento de datos en una investigación
científica desde la perspectiva de una metodología amplia .Se detallan las fases que componen
una investigación científica y su concomitancia con el procesamiento de datos .Desarrolla los
elementos que conforman el dato : variables , indicadores y procedimientos .Analiza las
diferentes matrices de datos y sus correspondientes técnicas estadísticas a emplear. Visualiza y
describe los elementos , conceptos y técnicas del procesamiento de datos necesarias en una
investigación científica

Palabras claves: Investigación científica/Construcción del dato científico/Matrices de datos/


Procesamiento de datos
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

Las fases de la investigación científica


El proceso de datos nace en la génesis del dato al efectuar su construcción ,medirlo
y registrarlo.
Estableceremos la génesis del dato en una investigación científica para comprender
sus características y las distintas fases que compones la investigación dando lugar al
procesamiento de datos científicos.
Un dato es una construcción compleja que posee una estructura interna. Esta
estructura es su contenido formal invariable, (está presente en todo dato). Y no es una
mera cifra o información, pues esta no posee estructura, la diferencia fundamental entre
una cifra (número indicativo de algo sin estructura relacionada al asunto que se refiere)
con el dato científico es que este está referido por una estructura al objeto al cual se dirige.
Juan Samaja (1999), filósofo argentino , reformuló y amplió la definición de dato
científico de Johan Galtung (1966), sociólogo y matemático noruego ; sosteniendo que,
el dato científico tiene cuatro componentes esenciales que lo estructuran en lugar de
tres, a saber: 1) Unidad de Análisis, 2) Variable (con sus dimensiones y
procedimientos), 3) Valor y 4) Indicador (Dimensión/Procedimiento).
La unidad de análisis es aquello que estudiamos y las variables son características o
propiedades que se han seleccionado de las unidades de análisis .
El indicador es un nexo entre la teoría y la empiria por medio de algún tipo de
operación, en otras palabras, hace referencia a los procedimientos que se aplican sobre
algún aspecto de la unidad de análisis (UA) para determinar el valor que le corresponde
en cierta variable.
La estructura del dato es invariante ( independiente de cualquier contenido
individual) y se lo construye desde los planteamientos preliminares hasta la
formulación de hipótesis. Esta estructura invariante en una gramática universal del
dato científico .
Toda investigación científica construye y produce datos que se visualizan en una
matriz de datos. Samaja , J. entiende el proceso de Investigación Científica como la
evolución de un organismo viviente y señala cada una de las fases que lo componen.
Y define un indicador como:
(...) algún tipo de procedimiento que se aplique a alguna dimensión de la
variable, para establecer qué valor de ella corresponde a una unidad de
análisis determinada. A su vez, por ‘dimensión de una variable’ voy a
entender un aspecto parcial de la variable (o predicado), que es relativamente
independiente de otros aspectos y que, en conjunto, constituyen su sentido
total… El sentido total de la variable está dado por la conjunción de todas sus
dimensiones, y cada una de estas dimensiones se comporta como una
variable, con sus propios valores. (Samaja, 1996, p.161) .
Ynuob ,R (2014) reorganiza y sintetiza estas fases en tres :
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

Imagen 2 Fases de una investigación científica Fuente Ynoub , Roxana, pág. 106
Mi intención es ubicar el procesamiento de datos en esta situación e indicar las
cuestiones y temáticas involucradas donde interviene.
Fase 1: “Fase Sincrética” (Desde intuiciones -> tradiciones-> a conceptualizaciones)
Sus componentes: son modelos y tradiciones de mención, problemas, hipótesis y
objetivos
Lo fundamental de esta fase lo constituyen la formulación de las preguntas que
guiarán a la investigación y concluirá con la formulación del problema de investigación
y la conformación de hipótesis (o conjeturas).
Fase 2: “Fase Analítica” (conceptualizaciones a operacionalizaciones).Inicio del
procesamiento de datos
La finalidad de esta fase es decidir cuál será el objeto empírico de la investigación, lo
que significa seleccionar los tipos de unidades de análisis (Universo de estudio o
población a analizar).En procesamiento de datos llamamos muestra , a la selección de
unidades de análisis.
Sus componentes son el análisis de la composición del objeto de estudio y de sus
niveles de integración, hipótesis de trabajo, matrices de datos, implementación y
producción de datos. Es un pasaje del universo teórico a universos de unidades de
análisis bien definidos.
Lo que señala el comienzo del procesamiento de datos en la toma de decisiones en
cuanto a las muestra a tomar y a los tipos de variables a tratar, sus escalas y al tipo de
matriz constituida.
Fase 3 “Fase Sintética” (producción a interpretación de datos) .Donde se despliega
toda la potencialidad del procesamiento de datos
Los componentes de esta fase serán: datos, tratamiento, interpretación, búsqueda de
posibles relaciones y nuevo objeto, elaboración de informes y exposición
Ynoub , R (2014) establece que los cuatro componentes del dato pueden ser
concebidos como el resultado de ciertas operaciones cognitivas:
❖ Entificar : identificar las entidades abordables empíricamente para
evaluar aquellos aspectos que se considera relevantes
❖ Clasificar: identificar la sustancia o asunto de la variable y definir
categorías o clases en que se clasificaran las entidades
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

❖ Operacionalizar: estimar procedimientos para evaluar los estados o las


clases a que pertenecen las entidades, conforme a los criterios de la clasificación
o categorización seleccionados.
La noción de dato científico queda determinada : como la información resultante o
información estructurada conforme a este conjunto de operaciones, que se efectúan en
una estructura superior conformada por para cada unidad de análisis, las variables y sus
dimensiones (categorías que analizo de cada variable), esta estructura se llama matriz de
datos.
Variables .Matrices datos y su procesamiento
La investigación de tipo científico se caracteriza por la traducción del lenguaje
conceptual al lenguaje empírico o de datos. Por lo deberemos conformar la matriz de
datos que transforme un modelo conceptual en un sistema operacional.
Este matriz es el elemento fundamental de la investigación y será el elemento que
deberá tratar el procesamiento de datos.
“El diseño de las matrices de datos como su nombre lo indica se refiere a las
definiciones operacionales para la construcción de los datos. Mientras que lo que llamo
instrumentación operativa alude al diseño de instrumentos y a las definiciones
muestrales : cuantas y cuales entidades o eventos serán estudiados y por cuales medios
o instrumentos se obtendrá esa información.” Ynuob ,R. (2014),pág. 104.
Todas las investigaciones científicas contienen datos de distinto tipo y de diferentes
niveles de integración. Definen un conjunto de matrices de datos que guardan entre sí
relaciones lógico- metodológicas determinadas. Toda investigación determina un
sistema de matrices de datos y distintas herramientas estadísticas para su tratamiento.
Este implica que hay una estrecha relación entre la matriz de datos que se
construirá y su implementación empírica. Pues como veremos el tipo de matriz
construida en el diseño metodológico dará lugar a distintos procedimientos estadísticos
para su análisis .
Variables: constituyen los aspectos de las unidades de análisis que se han
seleccionado para examinar o estudiar de ellas. El concepto de sistema de clasificación
es apropiado para referirse a la variable, clasificar es identificar diferencias. Para
clasificar se requiere que se cumplan con condiciones formales, condiciones que
conforman un sistema exhaustivo que en teoría de probabilidades da forma al teorema
fundamental de probabilidades y al teorema de Bayes . Capriglioni, C. (2004) ; pp 187-
190.
o Fundamento común: deberá existir un fundamento que vincule a los valores
entre sí.
o Exhaustividad: Debe contemplar el total de los estados posibles que puede
presentar la unidad de análisis, para el mismo y único campo de validación.
o Exclusividad: Cada estado posible debe excluir a los restantes, ninguna unidad
de análisis podrá presentar dos valores simultáneamente en la misma variable
Tipos de variables:
Variables absolutas: cuando sean concebidas como un predicado de cada UA
:Variables relacionales: si emergen de vínculos entre las UA y Variables contextuales: si
su sentido es de una inclusión parte – todo de las UA con algún suprasistema.
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

Valores o categorías: constituyen los estados particulares que pueden asumir las
variables. Define distintas maneras de medir o clasificar a las unidades de análisis, se
reconocen destinas escalas de medidas.
A los indicadores se los define como los procedimientos que se aplican sobre algún
aspecto de la unidad de análisis para determinar el valor que le corresponde a cierta
variable.
Los indicadores tienen como función conectar el mundo inteligible con el mundo
sensible; la praxis con la teoría. Los componentes del indicador son: La Dimensión y el
Procedimiento. Una vez definido el indicador deben especificarse también las
condiciones particulares para evaluarlo: que aspectos serán tenidos en cuenta y con qué
procedimientos se medirán.
La validez del indicador compromete a la dimensión del indicador (a que se evalúa)
mientras que la confiabilidad a los procedimientos del indicador (cómo se evalúa).
Una matriz de datos en forma general podemos definirla como:
Las columnas de las variables pueden ser únicas variables simples o con varias
subvariables o subdimensiones. de acuerdo con el diseño metodológico del investigador
Unidades de análisis Variables
V1 V2 V3
Sub1 V3 Sub 2 V3
#1
#n
El primer estudio estadístico que efectuar es aquel analizamos una variable o una
dimensión , en ello es frecuente organizar la variación de la variable en frecuencias
absolutas o relativas. Obviamente en esa tabla se hace la partición del conjunto de datos
de la variable en un sistema exhaustivo como lo señale con anterioridad , aquí se pueden
calcular los estadígrafos habituales : moda, mediana, media, varianza, desvío ,coeficiente
de variación , curtosis, percentiles, deciles, cuartiles y quintiles. Para organizar la
variación de esa variable, y visualizar información sobre el conjunto de valores que tomo
la variable. Así mismo puede visualizarse el conjunto de valores de la variable en un
gráfico adecuado.
Se pueden realizar tablas de variaciones entre las variables , de tal manera que se
pueda relacionar una variable con la otra , buscando su covarianza, analizando la
factibilidad de un modelo lineal con el coeficiente de Pearson y el coeficiente de
determinación para conocer cuántos puntos de esa tabla se corresponde con el modelo .
Así mismo se puede efectuar la recta de regresión para hacer predicciones .
Es conveniente evaluar los otros modelos matemáticos, que no sean lineales, que
puedan dar un mejor ajuste a los puntos de la tabla de variables
También pueden realizas un estudio de más de dos variables, un estudio
multivariados en modelos matemáticos del tipo F(X1,X2,X3,…Xn) (Funciones escalares)
Pueden organizarse tablas entre variables categóricas , denominadas tablas de
contingencia para determinar con las probabilidades y la prueba de chi cuadrado
independencia entre las variables u homogeneidad de las proporciones.
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

Ejemplo : Se efectúa un estudio de 400 personas sobre la variable Legalidad del


aborto con una escala nominal de 3 valores y la variable Identidad religiosa percibida
dicotómica .Se quiere decidir si la identidad religiosa percibida está relacionada con la
postura sobre la legalidad del aborto
Variable Identidad religiosa percibida totales
Legalidad del aborto No manifiesta Si manifiesta
A favor 130 40 170
En contra 20 140 160
No tiene opinión 50 20 70
Totales 200 200 400
Variables a analizar Legalidad del aborto e Identidad religiosa autopercibida
Existen matrices que contienen procesos que se efectúan por fases , es un todo
inseparable y se suelen utilizar para medir la eficacia de las cantidades de Biomasa .
Aquí es muy útil la teoría de Juegos para determinar la eficacia .

Estado Biomasa
0D 1D 2D
0 años 7 1.2 1.1
1 año 11 2.5 1.7
5 años 17 3.3 2.5
10 años 20 5.6 4.3

Imagen 3 fuente adaptación propia de Ejemplo de una matriz organísmica, en ella


hay procesos por fases y etapas que modifican el todo . Ejemplo de los valores
obtenidos para los cuantificadores de diversidad (valores obtenidos al usar los Anexos
7–10) en Aguilar-Garavito M. y W. Ramírez (eds.) 2015. Anexo 12.
Por último, en la “Fase Sintética” suele ocurrir la necesidad de constatar hipótesis
por medios estadísticos .La prueba de hipótesis determina si hay suficiente prueba
estadística para aceptar o rechazar una hipótesis. Muchas veces hay que ser cuidadosos
en los procedimientos y analizar los tipos de error tanto α tipo uno y β tipo dos .
Determinar el tipo de error α es a priori y es el nivel de significancia de la prueba,
pero el cálculo del error β es más engorroso y los errores son inversos a mayor precisión
en uno aumento el error en el otro.
Es importante por un lado calcular la Potencia de la Prueba ,si suponemos que ϒ es
el estadístico de prueba y RR el intervalo de rechazo .Denominamos potencia de la
prueba (potencia ø) es la probabilidad que la prueba rechace la hipótesis nula cuando el
valor real del parámetro es ø. Es conocida la siguiente relación Potencia ø=1-β(ø)
Para un análisis preciso se puede utilizar el lema de Neyman Pearson que maximiza
la potencia ø y determina el intervalo de rechazo RR.
Respecto al uso de programas específicos de tratamientos estadísticos
Al utilizar una aplicación informática específica para procesar los datos de las
dimensiones de una matriz de datos puede ocurrir que ciertos supuestos hallazgos sean
producto del algoritmo ( que siempre utiliza algún modelo matemático ) y no existan en
la matriz de datos del problema real que se analiza. Hay que analizar los errores
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

instrumentales que luego derivan en errores conceptuales que se cometen en la


investigación científica. Estos errores están en el plano epistemológico , ya que causan
errores de concepto de aplicación de las herramientas estadísticas utilizadas .
Errores estadísticos que pueden cometerse cuando se desconoce cómo actúa el
modelo matemático del programa utilizado y no se analiza que puede estar
distorsionando de la matriz de datos real analizada. También puede haber variables
omitidas en el diseño metodológico , denominadas variables espurias que pueden
perturbar el análisis.
Padua, J (1996) en el prólogo de Técnicas de Investigación Aplicadas a las Ciencias
Sociales,

[ … La problemática teórica define tanto al objeto como los métodos que se


apropia al objeto. Las técnicas de recolección de datos, así como la estadística
,son instrumentos de los cuales se puede servir el investigador , dados los
propósitos teóricos . De allí que debe tomar frente a ella una actitud a la vez
flexible y vigilante .Flexible en el sentido de no juzgarlos a priori ; y vigilante en
el sentido de no utilizarlos automáticamente…]

Para algunos autores, dichos errores pueden causar distorsiones que originan
defectos y trampas en la ciencia . En particular: Matamoros Pinei RA, Ceballos
Márquez A . (2017) señalan “estos errores y trampas en la ciencia médica y veterinaria
para ayudar a los investigadores a producir resultados estadísticamente correctos en
sus futuras investigaciones.”
Este proceso de adecuación del modelo matemático empleado a la matriz de datos
analizada debe detallarse y es el proceso de argumentación y verificación de las
semejanzas y relaciones halladas.
Conclusiones
En una investigación científica es imprescindible y necesario tener
conceptualizaciones y técnicas del procesamiento de datos .
El proceso de datos determina un nuevo sentido del objeto estudiado. El proceso
debe nutrir una comprensión profunda que definirá una modelización especifica y
creativa para poder explicitar las regularidades del conjunto de datos y las relaciones
pertinentes a las variables.
Para cada diseño de una matriz de datos habrá técnicas estadísticas que detallar ,
argumentándose por que se utiliza la herramienta estadística seleccionada y
especificarlas detallando las variantes utilizadas. Lo mismo ha de tenerse en cuenta
para las búsquedas de posibles relaciones y en las técnicas estadísticas de constatación
de hipótesis .
Desde esta perspectiva podemos visualizar los procesos y conceptos necesarios del
Procesamiento de datos en una investigación científica:

Muestreo Variables Matrices de datos Hipótesis


Muestras no Tipos de Conjuntivista Organísmicas
probabilísticas variables
Muestras Sistemas de Estadística Estadística Prueba de
probabilísticas clasificación descriptiva: descriptiva: hipótesis
Escalas de moda, moda,
medición mediana, mediana,
El procesamiento de datos , momentos fundamentales en una investigación científica.
Edgardo Alberto Di dio Cardalana

Unidades media, media, Elementos


apropiadas varianza, varianza, de una
desvío desvío prueba
,coeficiente de ,coeficiente de Tipos de
variación , variación , error
curtosis, curtosis, Nivel
percentiles, percentiles, significancia
deciles, deciles,
cuartiles y cuartiles y
quintiles. quintiles.
Gráficos Gráficos
Determinación Relaciones uni y Teoría de Pruebas de
de la cantidad multivariantes Juegos hipótesis
de elementos .Coeficiente de con dos
de la muestra Pearson , otros poblaciones
coeficientes, Pruebas de
análisis de hipótesis
independencia y referentes a
homogeneidad varianzas
Distribuciones
de probabilidad
para variables
discretas y para
variables
continuas

Bibliografía
Aguilar-Garavito M. y W. Ramírez (eds.) 2015. Monitoreo a procesos de
restauración ecológica, aplicado a ecosistemas terrestres. Instituto de
Investigación de Recursos Biológicos Alexander von Humboldt (IAvH). Bogotá
D.C., Colombia. 250 pp.
Barriga, O. A. y Henríquez , G.A. (2011). de la Universidad de Concepción,
Facultad de Ciencias Sociales. Departamento de Sociología. Chile. "La relación
Unidad de Análisis-Unidad de Observación-Unidad de Información: Una
ampliación de la noción de la Matriz de Datos propuesta por Samaja". Revista
Latinoamericana de Metodología de la Investigación -ReLMIS.
Nº1. Año 1. Abril - Sept. de 2011. Argentina. Estudios Sociológicos Editora. ISSN
1853-6190.
Caprigioni ,C. ,(2004) Estadística Editores 3C 2014 Buenos Aires
Matamoros Pinei R.A., Ceballos Márquez A. Errores conceptuales de estadística
más comunes en publicaciones científicas. Rev. CES Med. Vet. Zoot. Vol 12 (3):
21 1-229.

Padua, J. , (1979) Técnicas de Investigación Aplicadas a las Ciencias Sociales Fondo de


cultura Económica de México
Samaja , J. (1999) Epistemología y Metodología Editorial UBA 2016
Ynoub R. , (2014) Cuestión de Método . Tomo I , Editorial Cengage Learning México
Wackerly D. , Mendenhall III , W. y Scheaffer, R. , (2009) Estadística matemática
con aplicaciones editorial Cengage Learning México

También podría gustarte