Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ESTADÍSTICA Y PSICOLOGÍA
Dra. Mariela Ventura
Psicoestadística Inferencial
2017
Hemos dicho que la Estadística “Engloba una serie de procedimientos que nos permiten
el análisis de datos, entendiendo al mismo, como diría Pardo, A y Rafael San Martín,
como el conjunto de procedimientos diseñados para 1) seleccionar datos, 2)
caracterizarlos y 3) extraer conclusiones (inferencias) de ellos”.
El análisis de datos debe ser entendido como una herramienta metodológica al servicio
de la investigación empírica. Lo importante de él es que nos permite la producción de
conocimiento científico, y en la universidad es hoy una cosa que es muy valorada y le
da visibilidad como centro de formación, por eso la tendencia es que cada vez los
estudiantes se incorporen antes a los proyectos de investigación.
Las ciencias pueden clasificarse en formales y en empíricas. En las formales, como las
matemáticas, por ejemplo, no hay necesidad de entrar en contacto con el mundo real,
basta con establecer una serie de postulados sobre entidades abstractas y proceder por
deducción lógica.
No hay dos observaciones iguales, hay una multiplicidad de factores, que intervienen
alterando la similitud y la diferencia. Esto por ejemplo, no es un gran problema en la
física, donde las observaciones entre sí varían muy poco y el error al hacer la inferencia
es muy reducido. En cambio en ciencias como las nuestras, las ciencias empíricas
llamadas ciencias sociales (psicología, sociología, economía, etc.) las distintas
observaciones no pueden ser sometidas a un control riguroso y presentan variaciones;
las fuentes de variaciones son varias y difíciles de identificar y por ende, de controlar.
Y por ello, necesitan un conjunto de procedimientos o una metodología especial para
actuar inductivamente, y este conjunto es lo que llamamos análisis de datos. La más
importante aplicación del análisis de datos, por lo tanto está relacionada con el concepto
de incertidumbre, entendida como la tendencia de un resultado a variar cuando se
efectúan repetidas observaciones del mismo tipo bajo condiciones idénticas. En
situaciones deterministas, donde una misma causa siempre produce el mismo resultado
(un cuerpo que se mueve a una velocidad constante v durante un tiempo t recorre un
espacio e), el álgebra o el análisis matemático bastan para encontrar el nivel de
comprensión buscado. Por el contrario, en situaciones aleatorias, donde una misma
causa puede producir cualquiera de un conjunto de resultados posibles (lanzar una
moneda al aire es un resultado paradigmático, el tiempo de reacción frente a un
estímulo, etc.) es necesario recurrir al análisis de datos y a los instrumentos
proporcionados por la estadística para poder extraer conclusiones fiables.
La Estadística nos permite analizar los datos (es decir, las mediciones) desde dos
perspectivas diferenciadas e interrelacionadas. La primera se centra en la descripción;
la segunda en la inferencia.
Un poco de historia…
Parecería ser que todas las fases de la vida humana y todas las ciencias hubieran
contribuido de alguna manera en su historia. La estadística es más bien la confluencia a
lo largo de más de dos siglos de corrientes procedente de regiones diferentes. Así, la
teoría de la probabilidad tuvo su origen en el de la ruleta; la recopilación de hechos
estadísticos nació con la necesidad estatal de soldados y dinero. Los modernos estudios
sobre la mortalidad, con los efectos de las pestes del siglo XVII; la teoría de los errores
se creó en la astronomía; la teoría de la correlación en la biología; la del diseño
experimental en la agricultura; la teoría del análisis y ordenación de elementos en la
psicología y la teoría de los métodos de las ji cuadrado en la sociología.
4
La estadística actual es el producto del encuentro (siglo XIX) de dos ramas distintas del
saber: la antigua estadística y el cálculo de probabilidades (juegos de azar).
Etimológicamente la palabra estadística procede de la palabra Estado. Ya en la
antigüedad los egipcios y los romanos querían tener un conocimiento preciso de la
cantidad de habitantes y de sus posesiones, es decir del estado de sus naciones (de ahí la
raíz del término). Para ello hacían recolecciones de los datos, y tenían que resumirlos de
una forma comprensiva. Con el surgimiento de los Estados modernos, adquirió una
importancia creciente, comienzan a realizar censos de la población y a recopilar datos
demográficos, sociales, y económicos. Hasta el siglo XIX, la Estadística es una ciencia
descriptiva. A partir del siglo XIX comienza a hacerse una ciencia normativa para poder
generalizar a partir de los datos, prever la evolución de las variables y guiar la toma de
decisiones en un ambiente de incertidumbre. Esta transformación es posible con la
incorporación del concepto de probabilidad. Con el cálculo de probabilidades
podíamos ya hacer inferencias sobre entidades no observadas, y brindó el instrumento
adecuado para extrapolar los datos a partir de unas pocas observaciones reales. Esta
apareció por primera vez en el campo de la Astronomía, donde se quería estudiar el
trayecto de las estrellas, y se observaba que por más experiencia que tuvieran los
observadores, siempre se medía con una diferencia, con error. A partir de estas muestras
querían calcular la mejor estimación de su valor verdadero. Y así fue cómo surgieron
métodos que permitirían estimar características a partir de las muestras. Este problema
llevó a Gauss, uno de los más grandes científicos del siglo XIX, a introducir el modelo
de la distribución normal, como modelo de la distribución de los errores. También
dentro de este campo inferencial, fueron importantes: Galton, en los problemas de la
herencia; pero fundamentalmente, Karl Pearson y Ronald Fisher. Para llevar a cabo el
análisis de variables psicológicas con procedimientos estadísticos es necesario medir.
Recordemos que la clave de todo proceso de medición está en determinar cuál es el tipo
de relaciones presentes en el sistema empírico a medir y cuál es el sistema formal
(modelo) que permite una representación numérica apropiada a esas relaciones. Ellos
fueron creadores de estos modelos que nos permitieron analizar estos datos.
Las dos funciones de la estadística, descriptiva e inferencial, reflejan como dijimos las
dos partes que reflejan también su proceso histórico, pero también pueden revelar la
5
profundidad de los análisis que realizan o incluso, las fases de estudio, puesto que para
hacer un estudio inferencial primero hay que hacer un estudio descriptivo. El estudio
descriptivo realiza la descripción de los datos, mientras que uno inferencial, comienza
con la descripción pero luego aborda la inferencia.
La estadística resultaría una materia muy fácil si la atención pudiera limitarse a las
medidas descriptivas. Tal vez una función mucho más importante de la estadística, es la
inducción, consistente en inferir propiedades desde una muestra para una población, a
partir de resultados conocidos. La inducción estadística implica un pensamiento mucho
más complejo que el de la descriptiva, consistente en inferir propiedades.
Vamos a ver en esta segunda parte del año, lo que se refiere a la función inferencial de
la estadística. La Estadística Inferencial consta de una serie de procedimientos que
permiten a partir de un conjunto reducido de datos (muestra) establecer afirmaciones
sobre el conjunto total de los datos (población).
la que nos apoyemos para establecer nuestras afirmaciones. Por eso, tan importante
como tener una buena técnica de análisis para realizar las inferencias es “seleccionar”
apropiadamente los datos que van a analizar para dar una buena base de apoyo a la
inferencia. Entonces, el tema del muestreo es fundamental en esta función de la
estadística. Para que lleguemos a conclusiones válidas es necesario que nuestra muestra
sea representativa de nuestra población, es decir, seleccionar muestras en las que existe
alguna garantía de que cualquier elemento de la población ha tenido la oportunidad de
formar parte de ellas. El hecho de no trabajar con muestras adecuadas puede llevar
nuestras predicciones al fracaso.
Estos son dos conceptos claves de los que tenemos que hablar.
Así pues existen valores numéricos como la media, la varianza, o la proporción (y otros)
que cuando se refieren a alguna característica poblacional reciben el nombre de
parámetros.
7
A los parámetros se los identifica con letras griegas minúsculas como µ, σ, etc.
De esa población de varones por ejemplo, puedo extraer una muestra de n sujetos. En
esa muestra podemos definir y medir, por ejemplo, la característica inteligencia. Según
las distintas combinaciones de muestras que extraigamos, obtendremos un estadístico
X.
estadístico no es un valor numérico constante sino una variable, ya que el valor concreto
que tendrá será de acuerdo a los valores con los que se haya calculado. Pero un
estadístico no es solo una variable. Es una variable aleatoria. Al extraer aleatoriamente y
con reposición una muestra de tamaño n de una población de tamaño N, el primer
elemento de esa muestra puede ser cualquiera, el segundo también, el tercero también,
etc. en consecuencia, cada elemento de la muestra puede ser concebido como una
variable aleatoria (la combinación de una o más variables aleatorias es otra variable
aleatoria).
Ahora bien, si un estadístico es función de los n elementos de una muestra, y cada uno
de esos elementos son variables aleatorias, un estadístico será también una variable
aleatoria.
Ya hemos señalado que para que el proceso sea consistente en obtener conclusiones
sobre la población, a partir de información contenida en la muestra es de importancia
esencial que éstas sean representativas. Y esto se logra con un muestreo adecuado.
Vamos a definir el muestreo como el proceso seguido para extraer una muestra de una
población. Este puede ser de dos tipos: probabilístico o no probabilístico.
Parámetro Estadístico
Valor poblacional Valor muestral
Desconocido Calculable, concreto
Constante Variable Aleatoria
Letras griegas minúsculas µ, σ Letras latinas mayúsculas X , S,
P
Estas inferencias se refieren sobre todo a dos aspectos, los dos grandes temas de los que
se ocupa la Estadística Inferencial:
1) La Estimación de Parámetros
2) El contraste de Hipótesis
Con el Contraste de Hipótesis se intenta dar respuesta a la pregunta: ¿es razonable que
el parámetro adopte un tal valor? ¿Este valor que surge de mi muestra?
Ambas formas de inferencia son equivalentes y nos permiten llegar a una misma
conclusión. Podríamos decir que son como dos caras de una misma moneda, ya que en
la estimación de parámetros utilizamos al información muestral para formarnos alguna
idea sobre una propiedad de la población ; en el contraste de hipótesis establecemos una
afirmación sobre la población que intentamos comprobar a partir de la información
muestral.
1) Estimación de parámetros
Cada estadístico describe la muestra que se midió y tiene un parámetro equivalente que
describe la población a la que ésta pertenece. La Estadística, con ayuda del cálculo de
probabilidades, resuelve el problema de la estimación del valor de un parámetro a partir del
valor conocido de un estadístico.
2) Prueba de hipótesis
La Estadística brinda herramientas para afrontar el problema de la verificación de las
hipótesis. La prueba (o contraste) de hipótesis es el procedimiento estadístico que permite
establecer, con un grado de probabilidad determinable, si una hipótesis científica es
consistente con la información muestral obtenida. Como todo procedimiento inferencial,
requiere de muestras probabilísticas a fin de extender los resultados hacia las poblaciones
respectivas.
Mediante la estimación de parámetros intentamos dar respuesta a la pregunta: ¿Cuál es
el valor de tal parámetro?; con el contraste de hipótesis, a la pregunta: ¿Es razonable
que este valor sea el valor del parámetro de la población? Ambas formas de inferencia
son equivalentes, o podemos decir, son dos caras de una misma moneda: en la
estimación de parámetros utilizamos la información muestral para formarnos alguna
idea sobre alguna propiedad de la población; en el contraste de hipótesis establecemos
11
Fenómeno aleatorio
Hecho que -repetidamente observado en condiciones similares- oscila en sus
manifestaciones, por lo que su forma de presentación en una situación particular no puede
ser pronosticada con certeza.
Probabilidad teórica
Número de veces en que se presenta un determinado acontecimiento dividido por
el total de resultados igualmente probables. Su fórmula es: P(A) = n(A) / N
Propiedades de la probabilidad
*El valor de la probabilidad debe estar entre 0 y 1, inclusive. La probabilidad es 0
si el evento no puede ocurrir y 1 si es seguro que ocurra.
*La suma de las probabilidades de todos los resultados posibles debe ser igual a la
unidad.
* Parámetro: Valor numérico que describe una característica de la población.
Bibliografía
Pardo, A. y San Martín, R. (1994). Análisis de datos en Psicología II. Madrid: Pirámide.
Introducción.