Está en la página 1de 8

La investigación científica y la estadística

Chang Delgado, Yehudi Carlo

Actualmente una de las herramientas más difundidas y utilizadas en muchos

campos del conocimiento es la estadística, teniendo ésta un papel muy importante en la

investigación científica, y configurándose como un factor clave para lograr un mejor

análisis. Es así que dicha herramienta, actúa como un catalizador para la precisión que

se requiere.

Estadística, derivado del latín status, que significa estado, posición o situación,

se define como conjunto de técnicas para la colección, manejo, descripción y análisis de

información, de manera tal que los resultados obtenidas de su aplicación tengan un

grado de aplicabilidad específico con su nivel probabilístico indicado (Badii, Castillo,

Landeros & Cortez, 2007).

El conocimiento de la metodología estadística es un arma imprescindible para la

obtención, análisis e interpretación de todos los datos que proceden de las observaciones

sistemáticas o de experimentaciones proyectadas específicamente para conocer los

efectos de uno o varios factores que intervienen en los fenómenos bajo estudio. La

estadística permite probar hipótesis planteadas por el experimentador, determina

procedimientos prácticos para estimar parámetros que intervienen en modelos

matemáticos y de esa manera construir ecuaciones empíricas. No existe investigación,

proceso o trabajo encaminado a obtener información cuantitativa en general, en la que la

estadística no tenga una aplicación. La estadística no puede ser ignorada por ningún

investigador, aun cuando no tenga ocasión de emplear la estadística aplicada en todos

sus detalles y ramificaciones (Badii et al., 2004).

Además es importante mencionar en que consiste la investigación científica.


El presente ensayo trata sobre la incidencia y la gran importancia que tiene la

estadística en la investigación científica. Por lo que se plantean las siguientes

interrogantes: ¿qué tan importante es el papel que juega la estadística en la investigación

científica? ¿De qué forma se viene aplicando hoy en día la estadística en la

investigación científica?

La Estadística es la ciencia que estudia conjuntos de datos cualitativos y su

interpretación en términos matemáticos, estableciendo métodos para la obtención de las

medidas que lo describen, así como para el análisis de las conclusiones, con especial

referencia a la teoría de la probabilidad, considerada también como ciencia de base

matemática para la toma de decisiones en presencia de la incertidumbre. Indica una

medida o fórmula especial, tal como un promedio, un número índice o un coeficiente de

correlación, calculado sobre la base de los datos. Considerada también como un

suministro de un conjunto de herramientas sumamente útiles en la investigación (Badii

et al., 2004).

La estadística como bien se sabe se construye en base a una serie de conceptos

en los que el papel de la matemática y sus aplicaciones es fundamental, la cual se ha

desarrollado en distintos campos del conocimiento a lo largo de la historia. Guerra,

Cabrera y Fernández (2003), señalan que se formó históricamente bajo la influencia

considerable de dos factores: el nivel de desarrollo del aparato matemático y el grado de

madurez de los conocimientos acerca del objeto de estudio, así como la posibilidad de

describir sus rasgos y propiedades más importantes en un lenguaje de símbolos y

ecuaciones matemáticas o, como se ha dicho con frecuencia, la posibilidad de construir

un modelo matemático del objeto a estudiar.

El proceso de medición, por su parte, como base fundamental para el desarrollo

de la estadística, según Tovar (2013), generalmente emplea instrumentos y aparatos que


garantizan un gran nivel de precisión en las ciencias naturales; mientras que en los casos

en los que se busca medir percepciones subjetivas, imposibles de ser directamente

observadas o cuantificadas a través de aparatos o sistemas de medida, han obligado a

construir métodos y procedimientos específicos que les permita aproximarse a una

cuantificación de su grado de presentación en el individuo, tal como la teoría clásica de

la medida (TCM).

De este modo se presentan diversos métodos estadísticos a utilizarse, según

criterios previamente establecidos, conociendo la naturaleza del estudio y la necesidad

de interpretación de datos que expliquen el comportamiento, permitan demostrar una

hipótesis y/o permitan estimar la proyección de un modelo.

Según Guerra et al. (2003), los aspectos que se deben tener en cuenta en la

selección de modelos estadísticos están dirigidos, fundamentalmente, a los modelos

explicativos y dinámicos. Aunque los relativos a estadígrafos, estimación y dócimas de

hipótesis en general, están presentes en todos los casos:

1. Métodos de ajuste de los modelos.

2. Error estándar de los estimadores de los parámetros (Test t de student).

3. Coeficiente de variación de los estimadores.

4. Límites de confianza de los parámetros.

5. Test de redundancia de los parámetros.

6. Análisis de varianza relacionado con el modelo en cuestión.

7. Coeficiente de determinación R2 y R2 ajustado por los grados de libertad.

8. Suma de cuadrados o Cuadrado Medio Residual (Burguello 1993).

9. Error estándar de estimación.

10. Test de falta de ajuste del modelo.

11. Análisis del efecto del uso de transformaciones en el modelo.


12. Diagnóstico y tratamiento de la multicolinealidad en modelos de regresión

lineal múltiple.

13. Validación de las predicciones del modelo.

- Estadístico PRESS (Suma de Cuadrados del Error de Predicción).

- Estadístico CMEP (Cuadrado Medio del Error de Predicción).

- Estadístico Cp de Mallows.

- Coeficientes de correlación entre los resultados predichos y los reales.

- Análisis de la precisión de las estimaciones.

14. Análisis de los residuos:

- Normalidad (Test de Shapiro-Wilks, Kolmogorov-Smirnov)

- Autocorrelación (Test de Rachas, Signos, Durbin-Watson, X2 de

independencia, Ljung y Box)

- Homocedasticidad (Gráficos de los residuos, test de Cochran, Bartlett y

Hartley).

Ante esto Méndez (1993) recomienda valorar más ampliamente un modelo, de

modo que incluya, además de su ajuste a los datos, su análisis comparativo con respecto

a otros y su correspondencia con los aspectos teóricos.

A continuación, a través del presente ensayo se hará mención de algunos de los

métodos en la investigación científica que utiliza de alguna u otra forma los beneficios

que da la estadística para explicar los diversos fenómenos.

Uno de los métodos estadísticos usados actualmente es el método Delphi, el cual

es una metodología estructurada para recolectar sistemáticamente juicios de expertos

sobre un problema, procesar la información y a través de recursos estadísticos, construir

un acuerdo general de grupo. Además que permite la transformación durante la


investigación de las apreciaciones individuales de los expertos en un juicio colectivo

superior. (García & Suárez, 2013).

Otro de los métodos existentes, muy utilizado en la investigación científica es la

prueba de hipótesis. La palabra hipótesis proviene del griego hipo: posición o situación,

lo cual significa, según Zorrilla (2000), que ¨son proposiciones referentes a hechos no

sometidos, apoyados en el conocimiento científico, susceptible a ser confrontados con

los datos y corregidas por los nuevos conocimientos¨ (p. 260).

También es importante mencionar el método de estudio de caso que se usa para

la investigación científica, la cual ha sido muchas veces cuestionada por muchos

autores; pues siempre existe en este método cierta incertidumbre. No obstante, el

método de estudio de caso es una herramienta valiosa de investigación, y su mayor

fortaleza radica en que a través del mismo se mide y registra la conducta de las personas

involucradas en el fenómeno estudiado, mientras que los métodos cuantitativos sólo se

centran en información verbal obtenida a través de encuestas por cuestionarios (Yin,

1989).

Sumado a estos diversos métodos, existen también muchas herramientas

informáticas que ayudan a optimizar el análisis estadístico, algunas más complejas que

otras, así como unas más potentes que otras. Entre las más conocidas y utilizadas

actualmente se encuentra la herramienta Excel de Microsoft, la cual ofrece una serie de

funcionalidades complementarias que ayudan al análisis estadístico, además de sus ya

conocidas funcionalidades para las que inicialmente fue diseñado.

En un artículo publicado por la Universidad de Ciencias Médicas de Cienfuegos

de Cuba, bajo la autoría de Avello y Seisdedo (2017), el uso de un programa de

computación estadístico es importante tanto en la ciencia básica como en la aplicada,

por sus posibilidades de automatización de los complejos cálculos estadísticos para el


análisis de los datos. Las aplicaciones de procesamiento estadístico que se han

establecido en la investigación científica cubana, han sido opciones comerciales (SPSS,

Minitab, Statgraphic, MS Excel, entre otros), con precios bien altos en licencias. Sin

embargo, ha surgido un conjunto de aplicaciones de software libre (R, PSPP, etc.) muy

potentes para la difícil tarea del análisis de datos de la investigación.

SPSS (SPSS Inc. 2007) es un software lanzado al mercado en 1968.

Originalmente se desarrolló para las ciencias sociales, por lo que ofrece un uso sencillo

de las opciones, acceso rápido a datos y procedimientos, generación de salidas y

gráficos. SPPS es un programa con una interfaz gráfica de usuario (término denominado

en computación, “GUI”) amigable, y sólo a través de ésta se accede a sus opciones (e.g.,

abrir los datos y ejecutar cálculos) mediante el uso de los botones de la interfaz gráfica.

SAS (SAS Institute Inc. 2007) ha sido por largos años el software más utilizado

en la comunidad estadística y, por lo tanto, también se ha propagado su uso entre

investigadores de diferentes disciplinas. SAS, a diferencia de SPSS, es un programa que

requiere el ingreso de comandos (i.e., sintaxis) para ejecutar gran parte de sus rutinas y

opciones. Por lo tanto, necesita del conocimiento de la sintaxis antes de su uso. SAS ha

llegado a ser el programa estándar empleado en ensayos clínicos y por la industria

farmacéutica en los Estados Unidos.

R (Ihaka & Gentleman 1996; R Development Core Team 2007) es un programa

estadístico y un lenguaje de programación de uso libre, de distribución gratuita y de

código abierto (i.e., el código fuente del programa está disponible para los usuarios),

desarrollado como un gran proyecto colaborativo de estadísticos de diversos países y

disciplinas. R también es un programa basado sobre comandos, en el que se puede

acceder a todos los procedimientos y opciones a través de sintaxis computacional. Fue

oficialmente presentado en 1997 y es un software libre que se rige por la licencia


general pública (“General Public License” o GPL) de la fundación de software libre

(“Free Software Foundation” o GNU, http://www.gnu.org/). R es muy similar al

programa estadístico S-plus (el cual no es gratuito y es distribuido por Insightful

Corporation), ya que la implementación base y semántica de ambos son derivados de un

lenguaje estadístico llamado S y de un lenguaje llamado Scheme (Ihaka & Gentleman

1996).

Las diferencias entre R y S-plus radican en el léxico empleado, en el código para

modelar y en otros aspectos técnicos computacionales que escapan al alcance de este

artículo, pero que pueden ser revisados en Hornik (2008). De todas maneras, la mayoría

de los comandos de R funcionan en S-plus, y viceversa.

En conclusión, como consecuencia del desarrollo tanto de las herramientas

estadísticas diversas, así como de sus aplicaciones informáticas, no queda duda de que

hoy en día existe una infinidad de posibilidades a utilizar para poder desarrollar una

investigación científica, bajo un análisis riguroso, efectivo y de alguna forma válido,

que en consecuencia, ayuda al desarrollo científico que permite explicar los fenómenos

diversos.
Referencias

Agencia para la Inversión y Comercio Exterior de Portugal – AICEP (2017). Portugal –

Ficha País, Outubro 2017. Recuperado de:

http://www.portugalglobal.pt/PT/Biblioteca/Paginas/Detalhe.aspx?

documentId=50f511f4-d2ea-4f9f-90e4-d47bde498c50

Castro Pinto, J., & Pinto, A. L. (2011). A importância da certificação de sistemas de

gestão da qualidade em Portugal. Revista Portuguesa e Brasileira de Gestão, vol.10,

2011, pp 48-61. Recuperado de:

http://www.redalyc.org/articulo.oa?id=388539127006 ISSN 1645-4464

Central Intelligence Agency – CIA (2017). Economy: Portugal. En The World Fatbook.

Recuperado de:

https://www.cia.gov/library/publications/the-world-factbook/geos/po.html#Econ

Furtado, A. (2003) Impacte da certificação ISO 9000 nas empresas portuguesas.

Portuguese Journal of Management Studies, III, 2,173-203.

Ganhão, F. N. (1991). A Qualidade Total. Lisboa: Cedintec.

Godinho, M. J., & Neto, S. C. (2001). Qualidade: uma prática secular. Lisboa:

Secretariado para Modernização Administrativa.

Morais, G. (2001). “Auditoria interna e a importância do controlo interno preventivo”.

Dissertação de Mestrado em Gestão de Empresas. Portugal. ISCTE. Lisboa,

Portugal.

Pires, A. R. (2007). Qualidade – sistemas de gestão da qualidade. (3ra ed.). Portugal,

Lisboa: Edições Sílabo, Lda.

También podría gustarte