Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2022
2
Contacto
Adolfo López Suárez
Psicólogo, investigador titular del Instituto de
Estudios sobre la Universidad y profesor de la
Facultad de Ciencias de la Conducta de la
Universidad Autónoma del Estado de México.
adolfolopezsuarez@yahoo.com.mx
1
Una parte de nuestro conocimiento la obtenemos directamente y otra parte mediante argumentos.
La teoría de la probabilidad se interesa en aquella parte que obtenemos mediante argumentos y trata
de establecer el grado en que los resultados que obtenemos son o no concluyentes. En la mayoría
de las ramas de la lógica académica, tales como la teoría de silogismos o la geometría de espacios
ideales, todos los argumentos tienden a la certeza demostrativa. Afirman ser concluyentes. Pero
muchos otros argumentos son racionales y reclaman cierto peso, sin pretender la certeza. En
metafísica, en ciencia y en la conducta, la mayoría de los argumentos en los que habitualmente
basamos nuestras creencias racionales admiten ser inconcluyentes en mayor o menor medida. En
consecuencia, para tratar filosóficamente con estas ramas del conocimiento se requiere del estudio
de la probabilidad.
En el desarrollo histórico del pensamiento, la lógica ha tendido a privilegiar el punto de vista de que
los argumentos que no son seguros deben quedar fuera de su ámbito. Sin embargo, en el
razonamiento real no esperamos certeza ni condenamos como irracional confiar en un razonamiento
del que se puede dudar. Si la lógica investiga los principios generales del pensamiento válido,
entonces el estudio de los argumentos a los que se puede asignar algún peso es objeto de su estudio,
tanto como aquellos que son demostrativos. (Traducción del autor).
Contenido
Presentación........................................................................................................ 4
Objetivos de aprendizaje .................................................................................... 7
Estructura del banco de reactivos ....................................................................... 8
Evaluación del aprendizaje ................................................................................ 9
Sugerencias....................................................................................................... 10
Estructura conceptual ....................................................................................... 12
Términos clave ................................................................................................. 13
Lección 1. Historia del azar ............................................................................. 14
Lección 2. La definición de probabilidad ........................................................ 25
Lección 3. Axiomas.......................................................................................... 32
Lección 4. El espacio muestral......................................................................... 36
Lección 5. Técnicas de conteo ......................................................................... 43
Lección 6. Distribuciones de probabilidad ...................................................... 48
Lección 7. Probabilidad Condicional ............................................................... 59
Lección 8. Lo teórico y lo empírico ................................................................. 68
Lección 9. Distribución normal........................................................................ 75
Lección 10. Normalización psicométrica gaussiana ........................................ 81
Lección 11. Elementos de muestreo................................................................. 92
Epílogo ........................................................................................................... 103
Notación ......................................................................................................... 105
Tabla de la distribución normal...................................................................... 106
Respuestas a los ejercicios ............................................................................. 107
Bibliografía..................................................................................................... 142
Presentación
Desde los primeros acercamientos realizados a finales de la Edad Media hasta su
axiomatización en la primera mitad del siglo XX, la teoría de la probabilidad ha
evolucionado desde constituir una rareza matemática interesada en analizar los
juegos de azar hasta convertirse, ya en el siglo XXI, en una herramienta
indispensable para las ciencias, incluidas la física, la química y la biología,
disciplinas que alguna vez se pensó que podrían llegar a ser estrictamente
deterministas. Ahora, si pensamos en las ciencias del comportamiento, basta con
revisar el desarrollo histórico de la psicología, la sociología y la antropología −por
solo mencionar tres− para encontrar que fue la aplicación de la probabilidad y la
estadística lo que permitió a pioneros de los siglos XVIII y XIX y a sus sucesores
construir las ciencias del comportamiento, tal como hoy se las concibe.
De este modo, el estudio de la probabilidad −junto con la estadística− constituyen
hoy las bases matemáticas de la formación del científico de la conducta. Si se
acepta que no hay ciencia alguna que pueda prescindir del pensamiento
matemático, entonces habrá que concluir que el estudio científico del
comportamiento no puede prescindir de la estadística y de la probabilidad. Nos
atrevemos a decir más: ninguna ciencia contemporánea puede prescindir hoy de la
estadística y la probabilidad.
Sin embargo, décadas de experiencia docente nos han hecho ver la renuencia a un
estudio serio de estas ramas de la matemática en la formación de profesionales de
la conducta, resistencia que probablemente pueda explicarse por un temor
adquirido al pensamiento lógico-matemático (producto éste de una deficiente
didáctica en la educación básica) y de su consecuente desconocimiento. Basta con
revisar los planes de estudio vigentes en licenciatura para convencerse de que el
estudio de la probabilidad se limita a unos pocos temas agregados a un curso de
estadística, o de plano está ausente. Esto, por supuesto, es insuficiente para
desarrollar en el profesional de las ciencias del comportamiento un pensamiento
probabilista, indispensable para una concepción científica de su objeto de estudio,
más allá del paradigma teórico o filosófico que adopte. Así podría explicarse que,
por ejemplo, no pocos profesionales del comportamiento se limiten a utilizar las
tablas de normas incluidas en los instrumentos psicométricos para basar en ellas el
diagnóstico y la toma de decisiones, sin saber de dónde salieron y menos aún
atreverse a construir normas válidas para la población concreta con la que trabajan.
El propósito de este libro consiste en proponer una herramienta que permita al
maestro conducir, y al alumno estudiar, sistemáticamente un curso básico de
probabilidad aplicada las ciencias del comportamiento en el nivel profesional, de
forma que logre desarrollar las competencias necesarias para comprender e
interpretar medidas psicológicas y emitir diagnósticos fundamentados; en general,
para comprender al comportamiento de los organismos vivos como lo que es, como
un fenómeno aleatorio. Para ser congruente con este objetivo, en este libro se
reducen los formalismos matemáticos a lo estrictamente necesario, privilegiando la
claridad conceptual y la aplicabilidad, que es lo que más puede importar a los
especialistas en el comportamiento.
En principio, como complemento para facilitar el estudio de las lecciones, se
presentan cuatro secciones breves, pero de gran importancia. Primero se enuncian
los objetivos de aprendizaje que resumen las competencias que deberán evaluarse
luego del estudio de las lecciones. Después se presenta una serie de sugerencias
dirigidas tanto al maestro como a los alumnos para utilizar eficientemente este libro.
En tercer lugar, una estructura conceptual que puede ayudar a conformar
paulatinamente una Gestalt durante el estudio del curso. Por último, se presenta
una tabla de términos clave que el estudiante deberá ser capaz de definir con
precisión al término del curso.
El contenido propiamente dicho está organizado en once lecciones. En la primera
se revisa la historia de la concepción del azar desde el pensamiento primitivo,
pasando por las nociones que prevalecieron en la Grecia clásica, hasta el
surgimiento de la teoría de la probabilidad en el Renacimiento, para revisar su
aplicación en la ciencia contemporánea; todo ello, por supuesto, con trazos muy
gruesos que permiten, sin embargo, observar la íntima relación que existe entre el
estudio matemático de los fenómenos aleatorios y el origen de las ciencias del
comportamiento. A partir de aquí se inicia el estudio de los fundamentos de la teoría
de la probabilidad, estudiando en la segunda lección la definición de probabilidad y
en la tercera su estructura axiomática. Para el estudio sistemático de los fenómenos
aleatorios se requiere comenzar por conocer con claridad cuáles son los eventos
posibles que conforman el espacio muestral, lo que se estudia en la cuarta lección,
y en la quinta se revisan técnicas para contar el número de eventos posibles en un
fenómeno aleatorio. Con estos elementos se abordan las distribuciones de
probabilidad en la sexta lección. En la séptima se estudia la probabilidad
condicional, esencial para una comprensión profunda de las relaciones causa-
efecto. El vínculo entre lo teórico (la probabilidad a priori) y lo empírico (la frecuencia
observada) y el análisis matemático del error, concepto central en la predicción de
la conducta, se analiza en la lección ocho. En la novena lección se estudia el modelo
de distribución normal, básico para la medición e interpretación del comportamiento,
y en la décima la normalización psicométrica gaussiana, quizá la más importante de
sus aplicaciones a la medición en las ciencias del comportamiento. En la lección
once se estudian elementos de muestreo, con lo que se cierra este primer
acercamiento a la probabilidad.
Al final de cada lección se presentan ejercicios que deberán ser resueltos por el
estudiante y revisados en clase por el maestro para aclarar cualquier duda del
alumno y ampliar aquello que le parezca importante; los reactivos que se construyan
para evaluar el aprendizaje deberán ser equivalentes a los presentados en cada
lección. Se incluye, además, una sección denominada Para aprender más, que
presenta retos a los estudiantes que no quieran limitarse a lo visto en el curso.
En todo el libro, las fórmulas y demás expresiones matemáticas se presentan en
notación lineal, lo cual facilita su introducción directa a calculadoras, hojas de
cálculo y otros tipos de software. Se trata con esto de privilegiar la comprensión
sobre los simples ejercicios de cálculo, a los que a veces se reduce la enseñanza
de la matemática.
En las fichas de la bibliografía seleccionada para ampliar los temas del curso se
agrega un breve comentario que puede orientar al estudiante sobre algunas
características de cada obra.
Objetivos de aprendizaje
Al término del curso el alumno:
1. Conocerá el desarrollo histórico de la teoría de la probabilidad y su relación
con las ciencias del comportamiento.
2. Conocerá la definición de probabilidad, así como sus enfoques matemáticos.
3. Conocerá la estructura axiomática de la teoría de la probabilidad.
4. Analizará el espacio muestral de fenómenos aleatorios.
5. Calculará la cardinalidad de espacios muestrales.
6. Aplicará modelos teóricos de distribuciones de probabilidad a fenómenos
conductuales.
7. Aplicará la probabilidad condicional al análisis relaciones causales entre
variables conductuales.
8. Aplicará el concepto de error, la Ley de los grandes números y el Teorema
del límite central a la predicción de fenómenos conductuales.
9. Aplicará el modelo de distribución normal al análisis de fenómenos
conductuales.
10. Construirá tablas de normas de interpretación aplicando el modelo normal.
11. Diseñará muestras representativas de poblaciones dadas.
Sugerencias
1. Revise continuamente la Estructura conceptual y la Tabla de términos clave para
que vaya organizando paulatinamente los conceptos básicos del curso.
2. Observe que las secciones en que se dividen las lecciones están numeradas.
Esto nos permite dirigirnos de forma inequívoca a cualquier parte del texto. Por
ejemplo, para referirnos a la escuela subjetiva de la probabilidad daremos la
dirección: [2: 2].
3. En todos los algoritmos se numeran los pasos para facilitar la secuencia y
controlar errores por omisión. Al aplicarlos a la solución de un ejercicio conviene
anotar el número de cada paso de forma que cuando se tengan dudas o se cometan
errores, pueda revisarse sistemáticamente paso por paso.
4. Para escribir las fórmulas se utiliza una notación lineal que permite introducirlas
directamente en una calculadora común o en programas de computadora; la
estructura de paréntesis funcionará sin importar el sistema de precedencias de
cálculo que se utilice. Para lograr esto se utilizan paréntesis que en unas ocasiones
podrían eliminarse, pero en otras afectarían a los cálculos por lo que se prefirió
utilizar los paréntesis necesarios para que la fórmula funcione sin trastornos en
cualquier dispositivo de cálculo.
5. Las tablas estadísticas necesarias para obtener valores teóricos al estimar
parámetros o probar hipótesis se identifican con un número y se encuentran al final
del texto. Las tablas están normalizadas para usarse en conjunto con el algoritmo
que las invoca. Las tablas incluyen los niveles de significación (α) más usados; dada
su extensión, en el caso de la distribución F solo su incluye un nivel de significación
(α = 0.05). En cualquier caso, cuando se requiera trabajar con niveles de
significación que no se incluyen, podrán encontrarse en sitios en línea, ya sea en
forma tabular o bien las ecuaciones aplicables.
6. Es muy importante comprender que este material no pretende sustituir la lectura
de libros y otras fuentes documentales. En el mismo texto se hace referencia a
bibliografía especializada para tratar los temas en profuncidad, cuyas fichas se
presentan al final con un breve comentario anexo. Este texto resultará realmente útil
cuando impulse al alumno al estudio independiente, buscando en diversas fuentes
para obtener información y comprender críticamente los temas de estudio.
7. Conviene, lo antes posible, leer este material por completo. Con esta primera
lectura no se pretende lograr una comprensión cabal del contenido, sino más bien
integrar una visión preliminar, panorámica, que deberá ir ganando precisión
conforme se avance en el curso.
8. Posteriormente habrá que leer a fondo el material que se discutirá en la siguiente
clase, para lo cual puede apoyarse en diccionarios técnicos, enciclopedias y, sobre
todo, en las fuentes que se refieren aquí mismo. Debe observarse que casi cualquier
libro de probabilidad propone lo mismo sobre un tema dado, aunque desde luego
varían los enfoques y los matices; esto ampliará la comprensión del tema. De esta
Estructura conceptual
El pensamiento determinista
1. La historia del azar El pensamiento aleatorio
La matemática del azar
Determinista
Fenómenos naturales Aleatorio
Subjetiva
2. La definición de probabilidad Escuelas Objetiva
Discretos / Continuos
Tipos de eventos Excluyentes / Incluyentes
Independientes / Dependientes
4. Espacio muestral
Gráfica
Representación Árboles
Uniforme
Bernoulli
Distribuciones teóricas Binomial
Poisson
6. Distribuciones de probabilidad 9. Normal
Distribuciones empíricas
Probabilidad directa
7. Probabilidad condicional
Probabilidad inversa
8. Lo teórico y lo empírico
Términos clave
Determinismo Error
Aleatoriedad – Azar • Absoluto
Probabilidad • Relativo
• Objetiva >< Subjetiva • Ley de los grandes números
Probabilidad matemática Teorema del límite central
• Teórica >< Empírica Distribución normal
• Directa >< Inversa • Propiedades
Ensayo • Cálculo de áreas
Evento • Estandarización de variables
• Posibles >< Favorables • Puntaje bruto >< Puntaje
• Imposible >< Seguro normalizado
• Discretos >< Continuos • Calificaciones estándar
• Simples >< Compuestos • Normalización psicométrica
• Excluyentes >< Incluyentes gaussiana
o Interpretación de medidas:
• Independientes ><
Norma >< Criterio
Dependientes
o Modelos normativos
Axioma >< Principio
Probabilidad condicional
Equiprobabilidad
Principio de razón insuficiente • Relaciones causales
Principio de la frecuencia relativa o Antecedente (VI) ><
Cardinalidad de un conjunto Consecuente (VD)
Espacio muestral • Probabilidad conjunta
• Tamaño • Probabilidad total
• Finito >< Infinito • Probabilidad directa
• Numerable >< No numerable • Probabilidad inversa
• Representación Muestreo
o Gráfica • Universo >< Muestra
o Árboles • Intencionado >< Aleatorio
Técnicas de conteo • Error de muestreo >< Precisión
Principio fundamental del conteo de muestreo
Principio de la multiplicación • Representatividad
Factorial o Tamaño
Permutaciones o Estratificación
Combinaciones o Aleatoriedad
Distribución de probabilidad
• Teórica
o Función de distribución
o Discreta >< Continua
• Empírica
o Discreta >< Continua
2
¿Cómo nos atrevemos a hablar de las leyes del azar? ¿No es el azar la antítesis de toda ley? Al rechazar esta
posición, no propongo ninguna otra. Sobre un tema vagamente definido, aun podemos razonar sin equívocos.
¿Debe el químico descuidar sus hornos para insistir sobre la esencia de la materia? ¿Comenzamos por definir
la electricidad para estudiar la transmisión de la fuerza? (Trad. del autor).
15
con los griegos, el comportamiento del azar siempre quedó reservado para la
metafísica. Un ejemplo notable: Teeteto (417-369 a.C.) estudió los cinco sólidos
platónicos (tetraedro, hexaedro, octaedro, dodecaedro e icosaedro) y demostró
rigurosamente sus propiedades, entre las que se encuentra el hecho de que en cada
uno de ellos todas sus caras son iguales, pero nunca analizó matemáticamente su
comportamiento en el juego de dados, que como ya vimos se practicaba desde
hacía mucho tiempo.
5. El término con el que ahora nos referimos a los fenómenos que se comportan al
azar proviene del latín aleatorĭus, que hace referencia al juego de dados. Bastan
dos ejemplos para ver la forma en que se concebían los juegos de azar en la
antigüedad. Dice Suetonio que cuando Julio César, desobedeciendo al Senado,
ordenó a sus soldados cruzar el río Rubicón en 49 a.C. dijo alea jacta est, que puede
traducirse como “los dados están echados”, con lo que dejaba claro que su futuro
quedaba en manos de la fortuna. En el Nuevo Testamento se describe la forma en
que los soldados romanos que crucificaron a Jesús se dividieron sus ropas, pero
para no cortar su túnica se dijeron: "No la rompamos. Vamos a sortearla, para ver a
quién le toca" (Juan, 19: 23-24); dejaban a la divinidad la decisión. En ambos casos
puede observarse que el azar se consideraba como la manifestación de una
voluntad superior; por tanto, era imposible comprenderlo, había que someterse a él.
Lo más que podía hacerse era tratar de ganar la simpatía de los dioses mediante
sacrificios y otros rituales.
6. Con la caída del imperio Romano ante los bárbaros del norte y de oriente, Europa
entró en una época de oscurantismo que se extendería por mil años. Durante la Alta
Edad Media (476-1000), con el predominio de la iglesia y la filosofía idealista de
Platón, los juegos de azar pasaron a ser considerados un pecado, porque conducían
a la pereza y a la avaricia. En la Baja Edad Media (1000-1492) Santo Tomás de
Aquino promovió la filosofía de Aristóteles, que era más proclive a la ciencia, pero
aun así lógica y matemática se utilizaron únicamente para reforzar el dogma
religioso. Los fenómenos aleatorios, además del carácter incognoscible que les
asignó el estagirita, seguían considerándose como una manifestación de la voluntad
divina y debían aceptarse con humildad según el aquinate, pues tratar de
comprenderlos era un pecado de soberbia. Es así que no se han encontrado
pruebas de que el azar haya sido estudiado en forma objetiva y sistemática sino
hasta finales del Medioevo.
7. Sin embargo, con el incremento del comercio en esta época se volvió necesario
estudiar problemas relacionados con el cálculo y el control de riesgos, como los que
planteaban los desastres en que podían terminar los viajes ultramarinos y la forma
de distribuir equitativamente las pérdidas para que pudieran soportarse. De este
modo, vemos que el estudio científico del azar tiene apenas medio milenio de
haberse iniciado.
8. La inteligencia humana siempre fue capaz del razonamiento deductivo. Si
podemos asegurar que todos los elementos de un conjunto poseen cierta propiedad
(por ejemplo, todos los hombres son mortales) y tenemos un elemento que
pertenece a ese conjunto (Sócrates es un hombre), entonces podemos concluir sin
lugar a dudas que este elemento tiene la propiedad del conjunto al que pertenece
(Sócrates es mortal). La psicología del pensamiento ha propuesto, a partir de
múltiples pruebas, que esta capacidad es producto de la evolución, porque apoya
3
Obsérvese que el libro se publica apenas dos años después del primer viaje de Colón a América, fecha que
se acepta convencionalmente como el fin de la Edad Media y el inicio del Renacimiento.
4
Nótese que estamos ante el concepto de espacio muestral, que estudiaremos más adelante,
5
He aquí el concepto de equiprobabilidad, que se formalizaría más tarde. Lo importante es que al decir que
son “igualmente probables” Fermat se refiere al futuro, a eventos que aún no ocurren y que en este ejemplo
nunca ocurrieron, pues el juego se interrumpió.
7
Léase determinista.
18. ¿Cuál es el significado histórico del Liber de ludo aleae escrito por Cardano?
19. ¿Cuál fue la aportación de Galileo Galilei al desarrollo de la teoría de la
probabilidad?
20. ¿Cuál es la aportación de Descartes al desarrollo de la teoría de la probabilidad?
21. ¿Cuál es la aportación de Huygens al desarrollo de la teoría de la probabilidad?
22. En el contexto del desarrollo histórico de la teoría de la probabilidad, ¿cuál fue
el efecto de la teoría de la gravedad de Newton?
23. Cite dos aportaciones fundamentales de Jakob Bernoulli al desarrollo de la teoría
de la probabilidad.
24. ¿Cuál fue la aportación principal de De Moivre al desarrollo de la teoría de la
probabilidad?
25. ¿Cuál fue la aportación principal de Bayes al desarrollo de la teoría de la
probabilidad?
26. ¿Cuál fue la aportación principal de Chebyshev al desarrollo de la teoría de la
probabilidad?
27. ¿Cuál fue la aportación principal de Fisher al desarrollo de la teoría de la
probabilidad?
28. ¿Cuál fue la aportación principal de Kolmogorov al desarrollo de la teoría de la
probabilidad?
29. ¿Cuál fue la aportación principal de Kendall al desarrollo de la teoría de la
probabilidad?
30. ¿Cuál ha sido el efecto principal de la computación sobre el desarrollo de la
teoría de la probabilidad?
31. En la actualidad las ciencias duras pueden ser deterministas. Discuta esta
proposición.
32. Proponga un ejemplo de leyes aleatorias en la biología.
33. Proponga un ejemplo de leyes aleatorias en la física.
34. Proponga un ejemplo de leyes aleatorias en la química.
Para aprender más
1. Considere el Problema del juego interrumpido bajos las siguientes condiciones:
Se juega a lanzar una moneda; cada jugador apuesta 30 pesos; si cae cara gana
A, si cae cruz gana B; la bolsa completa será para el jugador que gane 5
lanzamientos; cuando el juego se interrumpe A lleva 4 ganados y B lleva 3.
Calcule la distribución de la bolsa aplicando la solución que propone: 1) Pacioli;
2) Tartaglia y; 3) Fermat/Pascal. Construya una tabla comparativa.
2. Sabemos que es muy grande la variedad de colores que pueden tener los ojos
humanos; incluso existen casos atípicos, como que un mismo sujeto tenga los
ojos de diferente color, o que en un mismo ojo coexistan dos colores, o bien ojos
de color violeta o rojo (como en el albinismo). Sin embargo. suponga que solo
nos interesan los colores de los ojos oscuro, verde o azul.
Entonces, conocido el color de ojos de cada uno de los dos progenitores: ¿De
qué color serán los ojos del hijo? Conteste esta interrogante en términos
probabilísticos y explique el fundamento de la respuesta.
Fenómenos de la naturaleza
1. Los fenómenos que se presentan en la naturaleza pueden clasificarse en dos
tipos:
a) Fenómenos deterministas. Son aquellos que al ocurrir ofrecen uno y solo
un resultado posible. Por ejemplo, una bola de acero soltada a cierta altura
del suelo caerá. No importa cuántas veces se repita el experimento, el
resultado siempre será el mismo: la bola describirá una trayectoria dirigida
hacia el centro de la tierra; por tanto, el comportamiento de la bola de acero
dentro del campo gravitatorio resulta completamente previsible, no importa el
número de veces que repitamos el experimento.
b) Fenómenos aleatorios. Son aquellos que ofrecen dos o más resultados
posibles. Por ejemplo, si se lanza una moneda existen dos resultados
posibles: puede quedar hacia arriba la cara o bien puede hacerlo la cruz. Si
se repite el lanzamiento, pueden variar los resultados.
Son los fenómenos del segundo tipo los que interesan a la teoría de la probabilidad.
eventos posibles. Esto es, a todos los eventos posibles debe asignársele la
misma probabilidad
16. Es decir, conforme a este principio, todos los eventos de un fenómeno aleatorio
son equiprobables.
Por ejemplo, si un dado de 6 caras no está sesgado, entonces todos sus eventos
tienen la misma probabilidad de ocurrir: P(X) = 1/6.
17. Este principio puede parecer demasiado simple, pero es una de bases sobre las
que construye toda la ciencia moderna. Conviene repetirlo una vez más: Como
vimos en la primera lección, le llevó miles de años a la humanidad llegar a formular
El Principio de razón insuficiente en forma matemática.
Digámoslo con claridad: el Principio de razón insuficiente es una de las fortalezas
que nos defienden de la superstición y de la magia.
La definición empírica de probabilidad
18. Pasemos ahora a estudiar la segunda forma de definir a la probabilidad. Desde
el enfoque a posteriori, la probabilidad empírica se define como:
En una serie real de ensayos de un fenómeno aleatorio, sea
f ≡ El número de veces que ocurrió el evento X
n ≡ El número total de ensayos ejecutados
entonces
P(X) = f/n
Ahora vemos que de lo que se trata es de calcular la probabilidad después de
ejecutar un determinado número de veces el fenómeno aleatorio.
19. Aunque las fórmulas para calcular la probabilidad teórica y la probabilidad
empírica son matemáticamente iguales (y así tiene que ser, porque la definición
matemática de probabilidad es una sola), al observar la definición de términos queda
claro que este enfoque es diametralmente opuesto al anterior.
20. Como se verá al avanzar en el curso, la definición empírica resulta fundamental
para el estudio científico del comportamiento.
Por ahora veamos un ejemplo. Supongamos que Juan es un empleado de cierta
empresa y nos interesa estudiar la probabilidad de que asista a su trabajo en días
laborables. Ante todo, tenemos que ver a la conducta de asistencia de Juan como
un fenómeno aleatorio, pues es evidente que no puede predecirse con certeza como
ocurre con los fenómenos deterministas.
Entonces, definimos los eventos posibles como: "asiste" y "no asiste". Ahora, si
intentáramos calcular la probabilidad teórica, tendríamos que aplicar el Principio de
razón insuficiente y, en consecuencia, aceptaríamos que la probabilidad de asistir
es la misma que la probabilidad de no asistir; por tanto, ambos eventos tendrían una
probabilidad del 50%.
Pero, con un conocimiento elemental de psicología, sabemos que esto es absurdo.
La conducta de asistencia al trabajo está fuertemente sesgada por el
condicionamiento a que son sometidos los trabajadores (de hecho, todos los seres
humanos). En consecuencia, no se cumple el insesgo, que es condición
indispensable del Principio de razón insuficiente. No podemos asumir
equiprobabilidad.
Tenemos que acudir a la segunda definición, la empírica. Supongamos que
revisamos las listas de asistencia del último año y encontramos que, de 187 días
Lección 3. Axiomas
The theory of probability, as a mathematical discipline, can and should be
developed from axioms in exactly the same way as Geometry and Algebra.
This means that after we have defined the elements to be studied and their
basic relations, and have stated the axioms by which these relations are to
be governed,all further exposition must be based exclusively on these
axioms,independent of the usual concrete meaning of these elements and
their relations.8
Kolmogorov [1950: 1]
Tipos de eventos
Los eventos se pueden clasificar en tipos conforme a diversos criterios. Veamos
algunos que serán importantes para este curso.
2. Eventos discretos y eventos continuos:
Un fenómeno aleatorio tiene eventos discretos cuando, dados dos eventos
cualesquiera, no pueden realizarse subdivisiones entre sus valores.
Por ejemplo, en el lanzamiento de una moneda existen dos eventos, cara y cruz,
tales eventos no pueden subdividirse; ocurre uno o bien ocurre el otro; no hay
valores intermedios.
Un fenómeno aleatorio tiene eventos continuos cuando, dados dos valores
cualesquiera, pueden realizarse entre ellos un número infinito de subdivisiones.
En consecuencia, para poder medirlo un evento continuo siempre es un intervalo,
no importa lo pequeño que pueda ser.
Por ejemplo, si nos interesa el momento en que se presenta una persona a su
trabajo, podemos definir la medida en minutos, o en segundos, o en décimas de
segundo y así sucesivamente, sin más límite que la precisión del instrumento de
medición que utilicemos. Aquí lo que debe entenderse claramente es que cualquier
unidad de medida que elijamos es realmente un intervalo; un minuto constituye un
intervalo de sesenta segundos, un segundo es un intervalo de diez décimas de
segundo, etc.
3. Eventos simples y eventos compuestos:
Un evento simple, también llamado elemental, es aquel que no puede
descomponerse en otros eventos.
Por ejemplo, si luego de lanzar un dado ocurre la cara 4, este es un evento simple
porque no puede descomponerse en más eventos.
Un evento compuesto es aquel que puede descomponerse en eventos más
simples.
9
Y así, como las acciones de la vida a menudo no toleran demora, es una verdad muy cierta que cuando no
está en nuestro poder determinar lo que es cierto, debemos seguir lo más probable... (traducción del autor).
El espacio muestral
6. Al espacio muestral a veces se le llama espacio de sucesos, espacio de eventos,
universo de eventos o espacio de probabilidad. Aquí lo llamaremos espacio
muestral.
El espacio muestral de un fenómeno aleatorio es el conjunto formado por todos los
eventos posibles.
Este es un concepto fundamental. Para analizar científicamente cualquier fenómeno
aleatorio, lo primero que debe hacerse es precisar cuáles son los eventos que
pueden ocurrir.
7. Todo espacio muestral se construye a partir de la definición operacional de la
variable eventos.
Veamos un ejemplo sencillo de lo que esto significa. Supongamos el lanzamiento
de un dado de seis caras y consideremos dos distintas definiciones del espacio
muestral.
a) Definimos como evento al número de la cara que quede arriba. Entonces
S = {1, 2, 3, 4, 5, 6}
b) Nos interesa que el número de la cara que quede arriba sea par o impar. Entonces
S = {Par, Impar}
Vemos que cambiando la definición de los eventos cambia radicalmente la
naturaleza del fenómeno aleatorio.
El tamaño del espacio muestral
m2
T HT TT
H HH TH
m1
H T
En este ejemplo solo tenemos dos dimensiones, pero es claro que conforme
aumenta el número de eventos simples que integran cada evento compuesto
aumentará también el número de ejes en la gráfica, con lo que este tipo de
representación resulta excesivamente complicada cuando se trabaja con más de
tres dimensiones.
14. La representación por árboles es, probablemente, la más poderosa para
analizar espacios muestrales. Es particularmente útil cuando se representan
eventos compuestos, cuyos eventos simples se presentan en etapas sucesivas. Los
árboles se construyen de izquierda a derecha, comenzando en la raíz y terminando
en el último nivel de hojas.
Tres propiedades de los árboles de eventos resultan de gran importancia para
comprender y utilizar adecuadamente esta forma de representación cuando se
analizan espacios muestrales:
a) La raíz tiene un valor de n.
b) Cualquier nivel de ramas suma n.
c) La suma de los nodos-hijo es igual al valor del nodo-padre.
Es obvio que tales propiedades se ajustan al axioma del espacio muestral.
Por ejemplo, suponga que en una escuela preparatoria en primer grado hay 38
Hombre
38
Primero
78
Mujer
40
Hombre
29
Escuela Segundo
207 63
Mujer
34
Hombre
30
Tercero
66
Mujer
36
10
Los formalistas han olvidado que los números son necesarios no solo para hacer sumas, sino también para
contar. (Trad. del autor)
Principio de la multiplicación
8. Del Principio fundamental del conteo se deriva el Principio de la multiplicación de
probabilidades.
Si se tienen n eventos independientes entre sí, la probabilidad de que ocurra un
evento compuesto por los n eventos está dada por su multiplicación. Esto es:
P(X1X2•••Xr) = P(X1) P(X2)•••P(Xr)
Por ejemplo, si se lanza dos veces una moneda, la probabilidad de que ocurra el
evento compuesto (H, H) está dada por:
P(HH) = P(H)P(H) = 1/21/2 = 1/4 = 0.25
Factorial
9. Recordemos el concepto de factorial. El factorial de un número entero positivo,
denotado por N!, está dado por:
N! = N(N-1)(N-2)•••1
se definen como casos particulares
0! = 1! = 1.
Por ejemplo, el factorial de 6 es
6! = 654321 = 720.
Permutaciones
10. Las permutaciones son subconjuntos ordenados de un espacio muestral. Las
permutaciones pueden verse como eventos compuestos en los que importa el orden
que ocupan los eventos simples.
El número total de permutaciones de tamaño r que pueden obtenerse de un espacio
muestral de tamaño N está dado por:
Sea
NPr ≡ N objetos permutados de r en r
entonces
NPr = N!/(N-r)!
Por ejemplo, si tenemos un grupo de 4 alumnos y tomaremos muestras de tamaño
2, tendríamos
4P2 = 4!/(4-2)! = 24/2 = 12
que serían las muestras
(1,2)(1,3)(1,4)(2,1)(2,3)(2,4)(3,1)(3,2)(3,4)(4,1)(4,2)(4,3)
donde observamos que (1,2) (2,1) porque en las permutaciones importa el orden.
Es claro que, en este ejemplo, 12 es la cardinalidad del espacio muestral donde
N = 12 y cada pareja es un evento compuesto. Además, puesto que X i representa
a cada elemento del espacio muestral (a cada pareja), entonces P(X i) = 1/12.
Combinaciones
11. Las combinaciones son subconjuntos no ordenados de un espacio muestral.
El concepto es similar al de permutaciones, excepto que aquí no importa el orden.
12. El número total de combinaciones está dado por
NCr = N!/((N-r)!r!)
Con el mismo ejemplo de [8], pero ahora sin orden, tenemos
4C2 = 4!/((4-2)!2!) = 24/(22) = 6
que ahora serían las muestras
(1,2)(1,3)(1,4)(2,3)(2,4)(3,4)
se observa que ahora eliminamos (2,1) porque es igual a (1,2), puesto que en las
combinaciones no importa el orden; del mismo modo eliminamos todas las que
parejas (en general, los eventos compuestos) que se repiten.
Ahora, puesto que N = 12, la probabilidad de cada evento es P(Xi) = 1/6.
*
Ahora disponemos de las técnicas básicas para calcular el número de eventos en
fenómenos aleatorios.
Guía de evaluación
1. El espacio muestral y los eventos favorables son conjuntos. ¿Cuáles son sus
cardinales?
2. El espacio muestral y los eventos favorables son conjuntos. ¿Cómo se
relacionan?
3. Las representaciones por conjuntos, gráficas o árboles son útiles para
conceptuar un fenómeno aleatorio formado por eventos compuestos, pero
resultan ineficaces conforme crece el tamaño y la complejidad del espacio
muestral. Discuta esta proposición.
4. Para calcular probabilidades no se requiere representar los espacios muestrales.
Discuta esta proposición.
5. ¿Qué son las técnicas de conteo?
6. ¿Para qué se aplican las técnicas de conteo en la teoría de la probabilidad?
7. ¿Tendría sentido aplicar las técnicas de conteo a espacios muestrales formados
por eventos simples?
8. Explique el Principio fundamental del conteo.
9. Explique el Principio de la multiplicación en la teoría de la probabilidad.
10. Explique el concepto de factorial de un número.
11. Explique el concepto de permutaciones en el análisis combinatorio.
12. Explique el concepto de combinaciones en el análisis combinatorio.
13. Explique la diferencia conceptual entre permutaciones y combinaciones.
Para aprender más
1. Dijimos en [5:1] que “…los eventos favorables constituyen un subconjunto del
espacio muestral es decir: fS.” Demuestre que esta proposición es cierta.
2. También dijimos en [5:1] que el tamaño del espacio muestral es un número
natural en el subconjunto N = {2, 3, •••}. ¿Por qué no inicia en un número menor?
3. Una cuestión más sobre [5:1]. ¿Qué ocurre cuando se trabaja con espacios
muestrales infinitos no numerables, es decir, con variables continuas?
4. Cuando revisamos antecedentes históricos de la teoría de la probabilidad, vimos
que una de las primeras grandes formalizaciones matemáticas cristalizó en el
Triángulo de Pascal [1:18]. Aplicando lo visto en [5: 9-10] muestre cómo calcular
las primeras 5 filas de dicho triángulo utilizando Excel.
5. Explique por qué aplican combinaciones y no permutaciones para construir el
Triángulo de Pascal.
Ejercicios
5.1. Se lanza un dado de seis caras y una moneda:
a) Represente gráficamente el espacio muestral y determine N.
b) Determine N aplicando el Principio fundamental del conteo.
5.2. Se lanzan simultáneamente 3 monedas. Aplique el Principio fundamental del
conteo para calcular el número de eventos compuestos que pueden ocurrir.
5.3. Calcule el factorial de 47. Escriba el resultado con notación exponencial.
5.4. Tenemos un grupo de 7 alumnos. Para un experimento extraeremos
aleatoriamente muestras de 2 alumnos, en las que el primero será asignado a la
distribución de frecuencias. Por cierto, esto es lo mismo que se hace para construir
una distribución de proporciones, lo que implica que toda probabilidad es una
proporción, y viceversa.
Distribuciones empíricas continuas
7. Debe partirse del principio de que, en la realidad, en la práctica, es imposible
medir una variable continua como tal. Toda variable continua necesariamente tiene
que ser transformada en discreta mediante una definición operacional
Piénsese, por ejemplo, que se trata de medir el cociente intelectual definido como:
CI = EdadMental / EdadCronológica.
Claramente, se trata de una variable continua. Sin embargo, en la práctica el CI se
mide en enteros, lo que significa que cualquier puntaje en realidad es un intervalo
cuyos límites se definen operacionalmente. Por ejemplo, el CI=121 se define como:
Si [120.5CI121.4] entonces CI = 121
Suponiendo que redondeamos el CI a un dígito decimal; sin embargo, cualquiera
que fuera el número de decimales que quisiéramos tomar, el principio sería el
mismo.
En consecuencia, una distribución empírica continua se construye con los mismos
criterios que se aplican a una distribución empírica discreta, pero los eventos son
intervalos y el espacio muestral está dado por el conjunto de intervalos definidos en
la población medida.
8. Por tanto, una distribución empírica continua toma la forma general:
X P(Xi) P acum
X1 p(X1)
X2 P(Xi)+P(Xi-1)
... P(Xi)+P(Xi-1)
Xn 1.0000
La estructura es análoga a la que vimos en el caso discreto, pero existe una
diferencia conceptual de gran importancia: En el caso continuo todo X i es un
intervalo limitado por la izquierda por el límite inferior exacto y por la derecha por el
límite superior exacto.
No debe olvidarse que, conforme a la teoría de la medición, todos los intervalos
deben ser distancias numéricamente iguales; además, para ser operacionales, debe
practicarse entre ellos una cortadura como la vista en el párrafo anterior, de manera
que la variable continua se transforma en discreta y cualquier valor real queda en
un intervalo o en el siguiente, pero nunca en ambos.
Distribuciones teóricas
9. Toda distribución teórica es realmente un modelo matemático abstraído de la
realidad. Este modelo se utiliza para confrontarlo con casos reales, es decir, con
distribuciones empíricas.
Debe observarse que una distribución empírica concreta, obtenida de mediciones
en la realidad, casi nunca es idéntica a un modelo de distribución determinado.
Vemos que toda medida obtenida en la realidad se aproxima, pero no suele ser igual
a los modelos matemáticos.
Sin embargo, en muchos casos el ajuste entre ciertos fenómenos conductuales y
ciertas distribuciones teóricas es tan bueno que podemos utilizar el modelo (con el
enorme poder de cálculo que éste conlleva) para realizar operaciones sobre datos
empíricos, lo que permite solucionar no pocos casos de gran utilidad práctica.
Este es el enfoque con el que se abordan las distribuciones teóricas de probabilidad
en este curso: más que profundizar en los aspectos matemáticos, nos centraremos
en sus aplicaciones prácticas.
10. Una distribución teórica queda definida por:
a) La definición de la variable aleatoria.
b) La función de distribución que permite el cálculo de la probabilidad de
cualquier evento o grupo de eventos.
c) Sus parámetros, que generalmente son media y varianza.
No obstante, la función de distribución puede resultar tan compleja que resulte difícil
calcular probabilidades, por lo cual se pueden calcular sus valores y presentarlos
en forma de tablas que permiten facilitar cálculos en la práctica. Pero actualmente
se dispone de software que permite el cálculo directo y elimina la necesidad de
consultar tablas.
11. Existe una gran cantidad de distribuciones teóricas o modelos de probabilidad.
En este curso solo veremos algunas de las más utilizadas en las ciencias del
comportamiento. Si se logra comprender la naturaleza de estos modelos, podrán
comprenderse cualesquiera otras distribuciones teóricas.
Comencemos por ver el caso más elemental, la distribución uniforme, y veámosla
en sus versiones discreta y continua. Aunque realmente tiene poco interés práctico,
su estudio puede facilitar la comprensión de las distribuciones teóricas de
probabilidad.
13. Veamos el ejemplo más simple. Sea el lanzamiento de una moneda, entonces:
S = {H,T}
n=2
P(Xi) = P(X2) = 1/2 = 0.5000
= (2+1)/2 = 1.50
2 = (22-1)/12 = 0.25
Distribución uniforme continua
14. La distribución uniforme continua es homóloga a la anterior, pero aquí los
eventos son continuos y constituyen intervalos. Entonces, si la variable aleatoria X
es continua en el rango (a,b), donde a y b son los límites del rango de variación:
S = {Xi | a≤Xi≤b}
Cualquier evento X es un intervalo que tiene como límites a X 1 y X2, por lo que su
probabilidad está dada por:
P(X1≤X≤ X2) = (X2-X1)/(b-a)
Sus parámetros son:
= (a+b)/2 (Observe que es el punto medio o marca de clase)
= (b-a) /12
2 2
15. Veamos un ejemplo. En cierta caja de un banco, el tiempo que toma a un cajero
atender a un cliente se distribuye uniformemente y varía en el rango de 1.5 a 2.9
minutos. Se desea conocer la probabilidad de que un cliente espere entre 2.0 y 2.5
minutos.
Tenemos que
a = 1.5
b = 2.9
X1 = 2.0
X2 = 2.5
Por tanto:
P(2.0≤X≤2.5) = (2.5-2.0)/(2.9-1.5) = 0.3571
Es decir, la probabilidad de que un cliente espere entre 1.5 y 2.9 minutos es del
35.71%.
Los parámetros de esta distribución son:
= (1.5+2.9)/2 = 2.20
2 = (2.9-1.5)2/12 = 0.16
Distribución Bernoulli
16. Comencemos por ver que el ensayo de Bernoulli constituye la forma más
elemental del espacio muestral de un experimento aleatorio. Un ensayo Bernoulli
es todo experimento aleatorio que cumple las siguientes condiciones:
i. La variable aleatoria es discreta.
ii. Existen dos, y solo dos, resultados posibles, a los que llamaremos éxito (p) y
fracaso (q).
Por tanto:
S = {p,q}
y, en consecuencia,
p = 1-q
q = 1-p
Por lo que basta con conocer la probabilidad de uno, cualquiera, de los eventos para
tener completamente definida la distribución Bernoulli.
Sus parámetros son:
=p
2 = p(1-p)
17. Es importante observar que cualquier variable, sea discreta o continua, puede
convertirse en una variable dicotómica y tratarse como una distribución Bernoulli, lo
que le da a ésta un gran poder de aplicación a diversos casos prácticos. Veamos
dos ejemplos:
Un ejemplo de variable discreta. En el lanzamiento de un dado se apuesta a la cara
“1”, entonces:
p = P(1) = 1/6 = 0.1667
q = 1-p = 1-0.1667 = 0.8333, que es la probabilidad de que no caiga “1”,
Y puede verse que se trata de un experimento Bernoulli, pues se cumplen las
condiciones establecidas.
Ahora veamos un ejemplo de variable continua transformada a discreta. Un examen
se califica con puntajes en el rango de 0 a 100 y se define como puntaje aprobatorio
X ≥ 60. En el grupo aprobaron 21 sustentantes y fueron suspendidos 7.
Entonces, la distribución es:
p = 21/28 = 0.7500
q = 7/28 = 0.2500
Y sus parámetros son:
= 0.7500
2 = 0.75000.2500 = 0.1875
Observe que las condiciones se cumplen, toda vez que estamos ante un
experimento Bernoulli porque la variable, que es continua, fue discretizada; con más
precisión, fue dicotomizada.
Distribución binomial
18. La distribución binomial es una expansión de la distribución Bernoulli, pues
mientras que en esta se asume un solo ensayo, en la binomial se generaliza a un
número determinado de ensayos.
Para que sea aplicable el modelo binomial deben cumplirse tres condiciones:
a) Como en todo ensayo de Bernoulli, S = {p,q}.
b) Todos los ensayos deben ser independientes.
c) La probabilidad de éxito es constante en todos los ensayos.
Bajo estas condiciones, sea:
n ≡ número de ensayos
X ≡ número de éxitos
p ≡ probabilidad de éxito
Entonces, la función de distribución binomial está dada por
P(X) = (n!/((n-X)!X!))pX(1-p)n-X
Observe que en esta fórmula
(n!/((n-X)!X!) = nCX que es el número de combinaciones [5:11-12].
(1-p) = q que es la probabilidad de fracaso.
Toda distribución binomial completa tendrá la forma general:
X P(X) Pacum
0
1
---
n
Y sus parámetros son:
= np Observe que es homóloga al modelo Bernoulli.
2 = np(1-p)
Distribución de Poisson
21. La distribución Poisson queda definida por una variable aleatoria discreta cuyos
eventos ocurren en un medio continuo, por ejemplo, el tiempo, una superficie o un
volumen.
Una característica de las distribuciones continuas de probabilidad que hemos visto
hasta aquí es que sus espacios muestrales están acotados por los dos extremos y
al discretizarlos son finitos, de la forma S = {1,2,...,n}; es decir, se puede establecer
n, el número de eventos posibles. A diferencia de esto, el espacio muestral de la
distribución Poisson no tine límite superior y, por tanto, conforma una serie no
numerable de eventos posibles, por lo que su espacio muestral tiene la forma
general S = {0,1,2,...}; es decir, la variable aleatoria no está acotada por la derecha.
Esto implica que no puede establecerse el número de eventos posibles, aquí no
existe n; en otros términos, X es un conjunto infinito no numerable y la distribución
de Poisson es una serie asintótica.
Para que sea aplicable el modelo Poisson deben cumplirse tres condiciones:
a) Se define un intervalo de tiempo, área o volumen dentro del cual ocurren los
eventos.
b) Los eventos son independientes de cualquier otro intervalo de ocurrencia.
c) La probabilidad de ocurrencia de un evento debe ser pequeña; en general,
se establece P<0.10.
Entonces, sea:
e = 2.7182... (El número de Euler).
λ ≡ Número de éxitos en el intervalo.
X ≡ Número de éxitos que se espera obtener.
Entonces, la distribución Poisson está dada por:
P(X) = ((e-λ)(λX))/X!
Toda distribución Poisson tendrá la forma:
X P(X) Pacum
0
1
2
...
En la práctica, X deja de incrementarse cuando Pacum alcanza un valor
suficientemente alto, el cual puede definirse por un nivel de significación.
Sus parámetros son:
=λ
2 = λ
22. Un ejemplo de distribución Poisson. Se sabe que en cierta empresa se
presentan en promedio 2 accidentes catastróficos por año. ¿Cuál es la probabilidad
de que el siguiente año ocurran de 1 a 3 accidentes catastróficos?
Primero observemos que se cumplen las condiciones: i) El intervalo de tiempo es
un día; ii) Los accidentes son independientes, el hecho de que un día ocurra o no
un accidente no tiene por qué afectar a cualquier otro día, y; iii) La probabilidad de
que ocurra un accidente por día es P = 2/365.25 = 0.0055, menor al 1%.
Entonces, tenemos que λ=2. Con esto podemos calcular las probabilidades de
Poisson. Asumiremos un nivel de significación de 0.05, por lo que nos detendremos
cuando Pacum≥0.9500. Entonces:
X P(X) Pacum
0 0.1353 0.1353
1 0.2707 0.4060
2 0.2707 0.6767
3 0.1804 0.8571
4 0.0902 0.9473
5 0.0361 0.9834
Con parámetros:
=2
2 = 2
Ahora, la probabilidad de que ocurran entre 1 y 3 accidentes catastróficos está dada
por:
P(1≤X≤3) = P(X=3)-P(X=0) = 0.0.8571-0.1353 = 0.7218 = 72.18%
Y, en forma análoga, con la distribución que construimos puede calcularse la
probabilidad de cualesquiera eventos, ya sean simples o compuestos.
*
Con esto terminamos los ejemplos de distribuciones de probabilidad.
Intencionalmente no tocamos la distribución normal porque, dada la enorme
importancia que tiene en las ciencias del comportamiento, le dedicaremos una
lección completa.
Guía de evaluación
1. ¿Qué es una distribución de probabilidad?
2. ¿Cuáles son las condiciones que debe cumplir una distribución de probabilidad?
3. ¿Cuáles son los dos tipos de distribuciones de probabilidad, según el tipo de
variable involucrada?
4. ¿Qué es una distribución de probabilidad empírica, también llamada distribución
libre?
5. ¿Qué es una distribución de probabilidad teórica, también llamada modelo de
distribución?
6. ¿A partir de qué se construye una distribución de probabilidad empírica?
7. Una distribución de probabilidad empírica es homóloga a una distribución de
proporciones. Discuta esta proposición.
8. ¿Cuántas distribuciones de probabilidad teórica o modelos de distribución
existen?
9. ¿A partir de qué se construye o se define una distribución de probabilidad
teórica?
10. ¿De qué depende la elección de un modelo de distribución de probabilidad para
aplicarse a un caso concreto?
Para aprender más
1. Explique el procedimiento operacional para discretizar una variable continua en
una escala intervalar.
2. Cuando se trabaja con variables discretas, quizá la familia más importante de
distribuciones teóricas de probabilidad sean los modelos: a) Bernoulli;
b) Binomial; c) Geométrica; d) Binomial negativa; e) Hipergeométrica; f) Polya.
Explique conceptualmente:
i. Por qué se dice que forman una familia; es decir, qué elementos básicos
comparten.
ii. Cuál es la característica propia de cada una.
Ejercicios
Distribuciones empíricas discretas
6.1. Un banco de reactivos tiene la siguiente estructura:
Unidad Número de reactivos
1 38
2 52
3 65
4 25
5 52
6 31
a) Construya la distribución de probabilidad.
Se aplicará un reactivo elegido aleatoriamente:
b) ¿Cuál es la probabilidad de que pertenezca a la unidad 3 o a la unidad 6?
c) ¿Cuál es la probabilidad de que pertenezca a alguna de las primeras tres
unidades?
d) ¿Cuál es la probabilidad de que no pertenezca a la unidad 3 ni a la 5?
Distribuciones empíricas continuas
6.2. Se midió memoria icónica en un grupo de estudiantes de geografía; el cociente
de memoria (M) se transformó a intervalos y se obtuvo:
M Frecuencia
56-60 9
61-65 18
66-70 25
71-75 42
76-80 54
81-85 39
86-90 18
91-95 8
a) Construya la distribución de probabilidad.
Se elegirá al azar a un estudiante:
b) ¿Cuál es la probabilidad de que tenga M≤70?
c) ¿Cuál es la probabilidad de que tenga M≥81?
d) ¿Cuál es la probabilidad de que tenga 76≤M≤95?
e) ¿Cuál es la probabilidad de que tenga M≤72?
6.3. En un piso de hospital se midió el tiempo que tardan las enfermeras en atender
a una señal de urgencia (T) y se obtuvo:
T Frecuencia
T≤1 12
1<T≤2 34
2<T≤3 49
3<T≤4 21
4<T≤5 4
a) Construya la distribución de probabilidad.
b) ¿Cuál es la probabilidad de que una enfermera tarde hasta dos minutos en
atender la señal de urgencia?
c) ¿Cuál es la probabilidad de que tarde más de 2 minutos y hasta 4 minutos?
d) ¿Cuál es la probabilidad de que tarde menos de 3 minutos?
6.4. Suponga el lanzamiento de un dado de seis caras
a) Construya la distribución de probabilidad uniforme discreta.
b) ¿Cuál es su media?
c) ¿Cuál es su varianza
d) ¿Cuál es la probabilidad de que caiga una cara impar?
Distribución uniforme continua
6.5. En una línea de producción industrial, cierta operación toma al operario entre
2.7 y 3.5 minutos y se distribuye en forma uniforme continua.
a) ¿Cuál es su media?
b) ¿Cuál es su varianza?
c) ¿Cuál es la probabilidad de que dicha operación tome entre 3.2 y 3.5 minutos?
6.6. En cierta empresa de transporte se reporta una probabilidad de daño menor a
la carga de 16.23% en cada viaje.
a) Construya la distribución de Bernoulli.
b) ¿Cuál es su media?
c) ¿Cuál es su varianza?
6.7. En un proceso industrial, la probabilidad de que cierta operación rebase el
tiempo límite es de 34.56%.
a) Construya la distribución de Bernoulli.
b) ¿Cuál es su media?
c) ¿Cuál es su varianza?
6.8. Suponga que cierto operador tiene p = 0.15 de cometer error al capturar datos
en un formulario. Se realizarán 5 ensayos, es decir, capturará cinco formularios.
a) Construya la distribución binomial y compare sus resultados contra una tabla.
b) ¿Cuál es la probabilidad de que existan errores en 3 o menos formularios?
c) ¿Cuál es su media?
d) ¿Cuál es su varianza?
6.9. Una línea base conductual representativa produjo que un paciente fuma 3.4
cigarrillos en promedio por día.
a) Construya la distribución de Poisson
b) Calcule la media.
c) Calcule la varianza
d) ¿Cuál es la probabilidad de que fume al menos 2 cigarrillos por día?
El paradigma antecedente-consecuente
1. En las relaciones causales, por lo general se parte del principio de que una
condición antecedente (la variable independiente) es la causa, mientras que la
condición consecuente (variable dependiente) es el efecto. De este modo, en la
investigación experimental lo que se hace es manipular el antecedente para
observar los cambios que se producen en el consecuente.
Este tipo de relaciones suelen ser sometidas a prueba en estadística inferencial.
Desde este enfoque estudiaremos la probabilidad condicional.
2. Pero también existe la situación inversa: cuando conocemos un consecuente y
se tienen dos o más antecedentes con los cuales tal consecuente puede estar
relacionado. ¿Qué ocurre en estos casos?
Estos casos son de gran importancia cuando se estudia el comportamiento. En la
vida real existen múltiples casos en los que conocemos los efectos, pero no
conocemos las causas: solo podemos formular hipótesis sobre ellas.
Existen técnicas para evaluar la probabilidad de que cada hipótesis sea cierta, con
lo que dispondremos de elementos de juicio racionales para tomar decisiones sobre
la causa más probable de un efecto observado. Este tipo de relaciones las estudia
la probabilidad condicional, que constituye una poderosa herramienta para la toma
de decisiones.
Sin embargo, estamos ante uno de los conceptos más complejos en la teoría de la
probabilidad, porque ciertamente contraviene la intuición. Comprenderlo
correctamente no es fácil y con frecuencia se cometen errores de interpretación que
conducen a falsas conclusiones. Para facilitar la comprensión del concepto de
probabilidad condicional, partiremos de algunos conceptos elementales.
Análisis con árboles
3. Consideremos una secuencia de dos ensayos relacionados por sucesión. Dada
una secuencia de eventos que interesa analizar, llamaremos “A” al evento
antecedente y “B” al evento consecuente.
4. Entonces, si se tiene un ensayo antecedente cuyo espacio muestral es
A = {A1,...,An} y, para cada uno de los eventos Ai se tiene un espacio muestral de
B1
A1 ...
Bm
...
S
B1
An ...
Bm
roja y dos verdes y la segunda tiene tres rojas y una verde. Se elegirá al azar una
urna y, en un segundo ensayo, se extraerá una bolita de la urna elegida. Entonces,
en este ejemplo tenemos dos ensayos:
A ≡ Ensayo antecedente, elección de una urna. En el ejemplo, A = {A1,A2}
B ≡ Ensayo consecuente, extracción de una bolita de la urna elegida en el primer
ensayo. En el ejemplo, los espacios muestrales se forman por el conjunto de
las Bi: para A1 = {R,V,V} y para A2 = {R,R,R,V}
Y su árbol de probabilidades es:
Rojas (1)
P(B1) = 0.3333
Urna 1 (3)
P(A1) = 0.5000
Verdes (2)
P(B2) = 0.6667
S (2)
Rojas (3)
P(B1) = 0.7500
Urna 2 (4)
P(A2) = 0.5000
Verdes (1)
P(B2) = 0.2500
Probabilidad conjunta
10. En [5:8] vimos que cuando se tienen eventos independientes, la probabilidad de
su conjunción está dada por P(X1X2) = P(X1)P(X2).
Para comprenderlo realmente, esto requiere reflexión: Las probabilidades de los
eventos en el ensayo A (elección de una urna) son independientes de las
probabilidades en el ensayo B (extracción de una bolita); las probabilidades de los
eventos en B no tienen por qué ser afectadas por lo que ocurra en A. Sin embargo,
vistos como una sucesión, las probabilidades de B están condicionadas por el
resultado en el ensayo A, y viceversa.
Entonces, aplicando el Principio de la multiplicación al caso que aquí estudiamos,
la probabilidad de la conjunción de dos eventos condicionados A y B está dada por:
P(AB) = P(A)P(B)
Por ejemplo, si se busca la probabilidad de extraer una bolita roja de la urna 1,
tendríamos:
P(A1B1) = P(A1)P(B1) = 0.50000.3300 = 0.1667
Probabilidad condicional
12. En una secuencia de eventos, sea:
P(Ai|Bj) ≡ La probabilidad de Ai dado Bj. Aquí se busca la probabilidad de que
ocurra el evento A (antecedente) con la condición de que después ocurra el
evento B (consecuente); en otras palabras, estamos ante una secuencia
directa: primero debe ocurrir el antecedente y después el consecuente.
entonces
P(Ai|Bj) = P(AiBj)/P(Bj)
Por ejemplo, si queremos conocer la probabilidad de seleccionar la urna 2, con la
condición de que posteriormente se extraiga bolita roja, tendríamos:
P(A2|B1) = P(A2B1)/P(B1)
En la sección anterior encontramos que la probabilidad de elegir la urna 2 y además
extraer bolita roja está dada por:
P(A2B1) = 0.3750
Ahora, del árbol sabemos que la probabilidad de obtener bolita roja de la urna 2 es:
P(B1) = 0.7500
Por tanto, aplicando la fórmula tenemos:
P(A2|B1) = 0.3750/0.7500 = 0.5000
Hemos calculado la probabilidad de A2 dado B1, que no es más que la probabilidad
de elegir la urna 2, el 50.00%, según se ve en el primer nivel de ramas del árbol de
probabilidades.
Ahora, es claro que la probabilidad de A2 dado B2 es la misma que la de A2 dado
B1, pues estamos hablando de la misma urna. Veamos:
P(A2|B2) = P(A2B2)/B2 = 0.1250/0.2500 = 0.5000 = P(A2|B1)
P(B2) = (P(A1)P(B2))+(P(A2)P(B2))
P(B2) = (0.50000.6667)+(0.50000.2500)
P(B2) = 0.4584
Es decir, la probabilidad de extraer una bolita verde es del 45.84%.
Puesto que en el ejemplo que venimos trabajando solo hay bolitas rojas y verdes,
entonces es claro que
S = {Roja,Verde}
y por tanto:
P(S) = P(Roja)+P(Verde)
P(S) = 0.5417+0.4584 = 1
Observe que el Teorema de la probabilidad total nos condujo a los resultados que
ya habíamos encontrado en la tabla de contingencias de la sección 11.
Todo el desarrollo de esta sección podría parecer trivial, pero no lo es. Con él se
termina de demostrar que entre los eventos antecedentes A i y los eventos
consecuentes Bj existe una condición de dependencia y no pueden ser tratados por
separado. Es en esta relación donde se origina la complejidad del análisis de
eventos condicionados, que con demasiada frecuencia conduce a errores de
interpretación.
Finalmente llegamos a la parte más interesante e importante de la lección.
El Teorema de Bayes
15. En una secuencia de ensayos condicionados, en la que se conocen las
probabilidades de sus eventos, sea
P(Bj|Ai) ≡ La probabilidad de Bj dado Ai. En otras palabras, aquí se trata de
calcular la probabilidad de que, habiendo ocurrido B, lo haya antecedido A.
Como ya se dijo, estamos ante una secuencia inversa; conocido el
consecuente Bj, se trata de calcular la probabilidad de que A i sea su
antecedente. entonces
P(Bj|Ai) = (P(Ai)P(Bj))/(P(Ai)P(Bj))
Observe que en la fórmula:
a) El dividendo P(Ai)P(Bj) es la probabilidad conjunta P(AiBj) que ya vimos;
constituye el número de eventos favorables.
b) El divisor ∑(P(Ai)P(Bj)) es la probabilidad total, que también vimos y no es
más que la suma de las probabilidades conjuntas; éste es el número de
eventos posibles.
El Teorema de Bayes, no podía ser de otra forma, se ajusta a la definición
matemática de probabilidad [2:9].
16. Volvamos una vez más al ejemplo de la sección 5. Supongamos que tenemos
una bolita roja, pero ahora nos preguntamos: ¿De qué urna proviene? Es claro que
la bolita roja puede haber salido de la urna 1 o bien de la urna 2. Este es el enfoque
del Teorema de Bayes que aquí nos interesa.
Calculemos la probabilidad de que provenga de la urna 1:
P(B1|A1) = (P(A1)P(B1))/(P(A1)P(B1))
P(B1|A1) = (0.50000.3333)/((0.50000.3333)+(0.50000.7500))
P(B1|A1) = 0.3077 = 30.77%
positivo, 2 no habían consumido cocaína; por otra parte, de los sujetos que tuvieron
diagnóstico negativo, 131 sí habían consumido.
a) Defina una simbología general para el caso de estudio.
b) Construya el árbol de probabilidades.
c) ¿Cuál es la probabilidad de encontrar un diagnóstico positivo y un sujeto que no
consuma cocaína?
d) ¿Cuál es la probabilidad de obtener diagnóstico positivo?
e) ¿Cuál es la probabilidad de encontrar un sujeto que haya consumido cocaína de
entre los que fueron diagnosticados negativo (falso negativo)?
f) ¿Cuál es la probabilidad de encontrar un sujeto que no haya consumido cocaína
entre los que fueron diagnosticados positivo (falso positivo)?
7.2. La estadística sobre seguridad en cierta zona metropolitana registra la siguiente
distribución:
Eventos Total Incidentes graves
Deportivos 87 15
Manifestaciones sociales 19 8
Violencia criminal 12 10
a) Defina una simbología general para el caso de estudio.
b) Construya el árbol de probabilidades.
c) ¿Cuál es la probabilidad de que se presente una manifestación social?
d) ¿Cuál es la probabilidad de que ocurran incidentes graves?
e) ¿Cuál es la probabilidad de que ocurra violencia criminal y no haya incidentes
graves?
f) Se proyecta formar Grupos de Reacción Inmediata para intervenir en incidentes
graves, especializados en cada tipo de eventos. Dado que se presenta un incidente
grave, ¿A qué tipo de evento puede corresponder?
7.3. La estadística histórica indica que en cierto examen de admisión a una carrera
universitaria se han presentado 11 314 aspirantes, de los cuales 4 495 tomaron un
curso previo de preparación. De los aspirantes que tomaron el curso, 1 528 fueron
admitidos; de los aspirantes que no tomaron el curso, 4 774 no fueron admitidos.
a) Defina una simbología general para el caso de estudio.
b) Construya el árbol de probabilidades.
c) ¿Cuál es la probabilidad de que un aspirante haya tomado el curso de
preparación?
d) ¿Cuál es probabilidad de que un aspirante no haya tomado el curso de
preparación y haya sido admitido?
e) Se tiene un estudiante admitido. ¿De qué grupo proviene, del que tomó el curso
de preparación o del que no lo tomó?
El concepto de error
1. La Ley de los grandes números y el Teorema del límite central constituyen dos
constructos fundamentales en la teoría de la probabilidad. Para acercarnos a ellos,
comenzaremos por revisar algunas nociones básicas sobre teoría del error, una
rama de la matemática que tiende uno de los puentes más importantes para unir lo
teórico con lo empírico, el modelo matemático con la realidad observable.
La teoría del error va mucho más allá de los aspectos que revisaremos, aquí nos
limitaremos a aquellos aplicables al estudio de la probabilidad y, en particular, a las
nociones que nos permitan aproximarnos al estudio de la Ley de los grandes
números y el Teorema del límite central.
2. En términos conceptuales, definimos al error como la distancia que existe entre
una probabilidad teórica y una probabilidad empírica. En otras palabras, el error es
la diferencia entre lo que, según la teoría, debió pasar y lo que la realidad empírica
nos muestra que ocurrió en una serie real de ensayos.
3. Formalizando el concepto anterior, veamos una definición matemática de error:
Sea:
EA ≡ Error absoluto
ER ≡ Error relativo
VR ≡ Valor real o verdadero
VM ≡ Valor observado o medido
entonces
EA = |VR−VM|
ER = EA/VR
4. Ahora, aplicando esta definición al estudio de los fenómenos aleatorios, solo
tenemos que cambiar dos literales:
Sea:
PT ≡ La probabilidad teórica de un evento (valor real o verdadero)
PO ≡ La probabilidad empírica del mismo evento (valor observado o medido)
entonces:
EA = |PT−PO|
11
Traducido por el autor a partir de la versión en inglés de Sheynin (2005).
ER = EA/PT
5. Esto es, hemos definido al error absoluto como la diferencia absoluta entre lo que
debió ocurrir según la teoría (PT) y lo que realmente ocurrió al realizar una serie de
ensayos (PO).
Por otra parte, el error relativo no es más que la proporción entre el error absoluto y
la probabilidad teórica, a la que a veces se le llama valor verdadero y, en otras
ocasiones, valor esperado.
Habría que estudiar mucho más sobre teoría del error, pero la definición anterior,
por sí misma, tiene un gran poder para vincular teoría y práctica, como lo veremos
en el resto de esta lección.
6. Veamos un ejemplo elemental. Supongamos que lanzamos cuatro veces una
moneda y encontramos que ocurrió una cara y tres cruces. Conforme a la definición
a priori de probabilidad, tenemos que
PT(H) = 2/4 = 0.5000
esto es, se espera que dos de los cuatro lanzamientos caiga cara. Ahora, al realizar
efectivamente los cuatro ensayos, encontramos que se obtuvo solo una cara, por lo
que la probabilidad empírica fue
PO(H) = 1/4 = 0.2500.
Podemos ahora calcular el error:
EA = |PT−PO| = |0.5000-0.2500| = 0.2500 = 25.00%.
ER = |EA/PT| = 0.2500/0.5000 = 0.5000 = 50.00%
Centremos la atención en el valor absoluto. Con lo que encontramos en este
ejemplo, comparando lo que debía haber ocurrido según la teoría contra lo que
realmente ocurrió en la práctica, encontramos una diferencia del 25.00%. Esta
diferencia constituye el error entre lo que predice la probabilidad teórica y lo que
realmente ocurrió en cuatro ensayos reales. ¿Cómo interpretar la diferencia que se
encontró entre teoría y práctica? ¿Puede controlarse este error?
Lo que no debe perderse de vista es que las series de ensayos fueron reales; los
datos son empíricos, porque realmente se lanzó una moneda y se registraron las
ocurrencias del evento cara.
12. Una breve observación epistemológica para terminar esta primera aproximación
a la Ley de los grandes números. Una ley científica es una proposición cuya validez
debe demostrarse empíricamente. Esto hace que una ley tenga una naturaleza muy
diferente a la de un teorema, pues los teoremas son proposiciones matemáticas que
se demuestran lógicamente.
En consecuencia, la Ley de los grandes números debe demostrarse empíricamente,
y esto implica obtener probabilidades a posteriori y compararlas con probabilidades
a priori.
12
Algunos autores lo llaman “Teorema central del límite”. Consideramos que este es un error producto de
traducciones descuidadas. El adjetivo central aplica al sustantivo límite y no a teorema; es así porque la
convergencia se da en el centro de la distribución, el límite está en el centro. En consecuencia, aquí lo llamamos
teorema del límite central.
n4=30.
Distribución binomial (n=2,P=0.40) Distribución binomial (n=10,P=0.40
0.6000 0.3000
Probabilidad
Probabilidad
0.4000 0.2000
0.2000 0.1000
0.0000 0.0000
0 1 2 0 2 4 6 8 10
Número de éxitos Número de éxitos
0.1500
0.1000
0.0500
0.0000
0 3 6 9 12 15 18
Número de éxitos
Si se observan con cuidado las gráficas puede apreciarse que la primera, donde
n=2, claramente está sesgada a la derecha, la asimetría entre las dos barras
laterales es evidente. La tendencia se conserva conforme aumenta n, hasta que, en
la cuarta gráfica donde n=40, ya se aprecia una mayor simetría, aunque en las
barras vecinas al modo sigue apreciándose (aunque muy leve) la misma tendencia:
tomando como referencia la barra modal, que está en el centro, vemos que la que
se encuentra a su izquierda es mayor que la que está a su derecha. No perdamos
de vista que apenas llegamos a 40 ensayos. Según el Teorema del límite central, la
aproximación a una curva perfectamente simétrica –característica que, según
veremos, tiene la distribución normal- aumentará conforme aumente n, el número
de ensayos.
Por supuesto, el Teorema del límite central también se cumple con distribuciones
empíricas.
16. Aparte de la que acabamos de ver, existen muchas otras formas de plantear el
Teorema del límite central. Una de las más útiles es la que se formula en términos
de medias muestrales. En este caso tendríamos:
Sea
≡ Media muestral de una variable aleatoria
≡ Media poblacional
2 ≡ Varianza poblacional
n ≡ Tamaño de la muestra
entonces
[( -)/((2/n))]→Ň conforme n→
13
Debe observarse que ( -) es un error porque es la distancia entre que es un valor empírico y que es un
valor teórico.
14
Conforme a lo que vimos al principio de esta lección, podemos decir que - = EA.
9. El Teorema del límite central puede presentarse como “Ď→Ň conforme n→”.
¿Qué versión de la Ley de los grandes números se aplica aquí?
10. El Teorema del límite central también puede presentarse en la forma
“[( -)/((2/n))]→Ň conforme n→”. ¿Qué versión de la Ley de los grandes
números se aplica aquí?
11. Explique la relación entre la Ley de los grandes números y el Teorema del límite
central.
Para aprender más
1. Construya un ejemplo de aplicación de la Ley de los grandes números al diseño
de una encuesta.
2. Construya un ejemplo de aplicación de la Ley de los grandes números al diseño
de una entrevista.
3. Construya un ejemplo de aplicación de la Ley de los grandes números al diseño
de un test de memoria.
4. Suponga que medimos la conducta de fumar cigarrillos. Defina
operacionalmente a una población y proponga un esquema metodológico para
construir una tabla de normas.
Ejercicios
7.1. Por registros confiables se sabe que el promedio de edad en una población
estudiantil universitaria es de 19.36 años. Para medir el falseamiento de respuestas
en una encuesta realizada en dicha población, se incluyó como un reactivo de
control la fecha de nacimiento y se calculó la media muestral de edad a la misma
fecha en que se calculó para la población; se obtuvo una media muestral de 18.87
años
a) ¿Cuál es el error absoluto?
b) ¿Cuál es el error relativo?
7.2. Se realizaron cuatro series de lanzamientos de un dado de 6 caras y se registró
la frecuencia de ocurrencia de la cara 4. Se obtuvieron los siguientes resultados:
Serie n f(4)
1 1 0
2 25 7
3 50 3
4 100 23
a) Construya una tabla para calcular el error absoluto y el error relativo en cada
serie
b) Grafique los resultados con ambos tipos de error.
c) Analice los resultados a la luz de la Ley de los grandes números.
7.3. Sea una distribución binomial con p = 0.1321.
a) Construya las distribuciones para n1=1; n2=10, n3=25.
b) Construya las tres gráficas.
c) Discuta los resultados obtenidos a la luz del Teorema del límite central.
15
Una alternativa a las tablas es el uso de software. Un buen ejemplo de software son las funciones que
incorpora Excel. En este caso los cálculos son más directos, porque Excel acepta valores de z positivos y
negativos; además, como Excel no limita a dos el número de decimales, permite cálculos más precisos.
16
Nuevamente, cuando se utiliza software como Excel esto no es necesario; puede buscarse directamente
cualquier valor y esto hace que el cálculo sea más preciso.
17
Desde mi punto de vista, conocer un objeto no significa copiarlo, sino actuar sobre él. Significa construir
sistemas de transformaciones que puedan ejecutarse con dicho objeto o sobre él. Conocer la realidad significa
construir sistemas de transformaciones que se correspondan, en mayor o menor medida, con la realidad. Tales
sistemas son más o menos isomórficos a las transformaciones de la realidad. El conocimiento consiste en
estructuras de transformaciones que no son copias de las transformaciones de la realidad; son simplemente
posibles modelos isomórficos y la experiencia nos permite elegir entre ellos. El conocimiento, entonces, es un
sistema de transformaciones que progresivamente deviene más adecuado. (Traducción del autor).
operacionalizado.
Es claro que la distribución gaussiana puede aplicarse a cualquier modelo
normativo, siempre que se cumplan las condiciones señaladas en la sección 8.
Veamos dos de los modelos más utilizados en psicometría.
12. El modelo estanina establece nueve normas y queda definido porque cada una
de ellas abarca 0.5 z. El nombre del modelo en inglés es stanine, contracción de
standard nine. De este modo, en términos de porcentajes, el modelo estanina tiene
la siguiente distribución
Estanina Límite superior (z) Área En enteros (%)
1 −1.75 0.0401 4
2 −1.25 0.0656 7
3 −0.75 0.1210 12
4 −0.25 0.1747 17
5 0.25 0.1974 20
6 0.75 0.1747 17
7 1.25 0.1210 12
8 1.75 0.0656 7
9 0.0401 4
Observe que en la cuarta columna se presenta el valor en porcentaje, redondeado
a enteros. Este es el valor que suele presentarse en las tablas de estaninas. Sin
embargo, no debería perderse de vista que el redondeo a enteros reduce la
precisión; para evitarlo pueden utilizarse los valores más precisos de z que se
muestran en la segunda columna, aunque esto siempre puede ser convencional.
En este modelo, la estanina 5 es la zona de normalidad.
Continuemos utilizando el ejemplo de la sección 9; sabemos que =113.21 y
=12.87. Entonces, utilizando los límites de z, para obtener los puntos de corte, que
son valores de X, aplicamos
X = (z)+
Para la estanina 1:
X = (−1.7512.87)+113.21 = 90.69
repitiendo para las estaninas restantes, tenemos que los puntos de corte son:
Estanina Punto de corte (X)
1 90.69
2 97.12
3 103.56
4 109.99
5 116.43
6 122.86
7 129.30
8 135.73
9
Y discretizando la variable como se vio en la sección 9, la tabla de normas es:
Estanina Rango
1 0 90
2 91 97
3 98 103
4 104 109
5 110 116
6 117 122
7 123 129
8 130 135
9 136
Dijimos que Pedro tenía un puntaje de 125. Con este modelo se le asigna la estanina
7; Pedro tiene un razonamiento viso-espacial dos categorías por encima de lo
normal.
13. El modelo estén (del inglés sten, contracción de standard ten), como su nombre
lo indica, tiene diez categorías y presenta la siguiente distribución:
Estén Límite superior (z) Área En enteros (%)
1 −2.00 0.0228 2
2 −1.50 0.0441 4
3 −1.00 0.0918 9
4 −0.50 0.1499 15
5 0.00 0.1915 19
6 0.50 0.1915 19
7 1.00 0.1499 15
8 1.50 0.0918 9
9 2.00 0.0441 4
10 0.0228 2
Aplicamos ahora el modelo estén al ejemplo de la sección 9, con =113.21 y
=12.87. Calculando los puntos de corte:
Punto de corte
Estén (límite superior)
1 87.47
2 93.91
3 100.34
4 106.78
5 113.21
6 119.65
7 126.08
8 132.52
9 138.95
10
Y la tabla de normas es:
Estén Rango
1 0 87
2 88 93
3 94 100
Estén Rango
4 101 106
5 107 113
6 114 119
7 120 126
8 127 132
9 133 138
10 139
Ahora encontramos que el puntaje de 125 que obtuvo Pedro lo ubica en el estén 7.
En consecuencia, se diagnostica que Pedro queda en la segunda de las cinco
categorías superiores (en este modelo no hay normalidad) del grupo de referencia.
Es claro que aplicando el modelo estén, ningún sujeto puede ser diagnosticado
como normal.
zM = (7.0−6.89)/0.61 = 0.18
zH = (7.5−7.79)/1.02 = −0.28
Ahora transformamos a calificaciones NCE:
NCEM = (0.1821)+50 = 53.78
NCEH = (−0.2821)+50 = 44.12
Es claro que, utilizando la calificación estándar -en este caso NCE- Luis tuvo mayor
aprovechamiento en Matemáticas (NCEM=53.78) que en Historia (NCEH=44.12). En
cambio, utilizando puntajes brutos llegamos a la interpretación contraria: Luis obtuvo
menor calificación en Matemáticas (XM=7.0) que en Historia (XH=7.5). Puede
comprobar que utilizando cualquier otra calificación estándar llega a la misma
interpretación.
Desde luego, la calificación estándar permite interpretaciones más válidas que el
puntaje bruto, porque al comparar contra el grupo controla factores como la
dificultad de la asignatura. Es por esto que en la práctica lo más común es que se
utilicen calificaciones estándar derivadas de z; prácticamente se ha abandonado el
uso directo de puntajes brutos en la interpretación psicométrica.
Guía de evaluación
1. ¿Qué es un puntaje psicométrico?
2. ¿Cuál es el propósito principal de la interpretación psicométrica?
3. ¿En qué consiste la interpretación por criterio?
4. ¿Afecta el grupo a la interpretación por criterio? Justifique su respuesta.
5. ¿En qué consiste la interpretación por norma?
6. ¿Qué son las normas de interpretación?
7. ¿Cuáles son las cuatro condiciones que deben satisfacerse para aplicar
válidamente el modelo gaussiano a una población concreta?
8. ¿Qué es un puntaje bruto?
9. ¿Qué es un puntaje estandarizado?
10. ¿Cuántas normas debe tener un modelo normativo?
11. ¿Qué implica que un modelo normativo tenga un número par de categorías?
12. Analice los modelos estanina y estén en función del concepto de normalidad.
Para aprender más
1. La diferencia fundamental entre las calificaciones estándar T y NCE consiste en
que el rango de T va aproximadamente de 20 a 80, mientras que el rango de
NCE va de 0 a 100. Demuestre esta proposición y discuta sus implicaciones para
la interpretación psicométrica.
2. Investigue qué aplicaciones se ha dado en la práctica a cada uno de los modelos
de normalización que se presentan en la tabla de la sección 17 de esta lección.
3. Como se vio en esta lección, las calificaciones estándar permiten comparar dos
variables de naturaleza diferente, medidas en un mismo sujeto. Pero tienen otras
Conceptos básicos
1. En teoría del muestreo, el universo o población es el conjunto completo de
elementos que interesa estudiar.
Este es el concepto fundamental para analizar el muestreo y, por tanto, debe
definirse operacionalmente, de manera que cualquier investigador pueda replicar un
estudio particular.
La forma más eficaz de definir operacionalmente un universo de estudio es
estableciendo criterios de inclusión, los cuales indican de manera inequívoca las
condiciones que deben cumplirse para que un elemento cualquiera pueda o no
considerarse como integrante del universo de estudio.
Un ejemplo simple: supongamos que nos interesa estudiar el universo de electores
en el Estado de México para cierta fecha. Entonces, definimos como criterio de
inclusión la existencia de una persona en el padrón del Instituto Nacional Electoral,
siempre que su domicilio registrado se encuentre en el territorio del Estado de
México. Con este criterio podemos decidir inequívocamente si una persona dada es
o no elector en el Estado de México. Observe que con una definición como esta se
obvian criterios como edad, nacionalidad, residencia, estatus legal, etcétera.
Ciertamente el ejemplo anterior es bastante simple y, sin embargo, resulta
operativo; nos permite decidir inequívocamente y con confianza cuándo un individuo
es un elector en la población de interés. Pero también es cierto que existen casos
en los que resulta mucho más complejo establecer los criterios de inclusión. Sin
embargo, la metodología científica exige que las poblaciones se definan
operacionalmente.
2. Podemos dividir a los universos de estudio en dos clases:
a) Finitos. Se conoce el número de elementos que integra el universo de
estudio. Un ejemplo de esta clase es el padrón electoral citado.
b) Infinitos. No se puede establecer el número de elementos que integran el
universo de estudio. Un ejemplo de universo infinito es el conjunto de
personas que asistirá en cierta fecha a una feria del libro; en este caso no
podemos conocer el número de elementos que forma el universo de estudio
y tampoco pueden identificarse los individuos concretos que la componen.
Debe observarse que el término “infinito”, en el sentido en que lo aplicamos a la
segunda clase de poblaciones, no significa que pueda crecer indefinidamente, sino
simplemente que se desconoce la cardinalidad del conjunto. Esta distinción
resultará fundamental más adelante.
18
Por lo tanto, la verdadera lógica de este mundo es el cálculo de probabilidades, que toma en cuenta la
magnitud que la probabilidad tiene (o debería tener para un hombre razonable).
Representatividad
15. No debemos perder de vista que en cualquier estudio muestral los únicos datos
de que realmente disponemos son los correspondientes a la muestra. Pero los
elementos muestrales constituyen solo una parte del universo; la parte restante,
generalmente mucho más grande que la muestra, formada por aquellos elementos
de la población que no participaron en la muestra, es completamente desconocida
para el investigador porque nunca estudió a sus elementos.
Volvamos al ejemplo anterior. El padrón electoral federal en México tuvo
aproximadamente 83.6 millones de personas al corte del 15 de abril de 2015.
Suponga que realizamos una encuesta de intención de voto y que la muestra tuvo
2 300 elementos. Realmente, solo medimos la intención de voto de los elementos
muestrales, mientras que desconocemos al resto del universo de estudio; esto es
no estudiamos al 99.997% del universo.
Sin embargo, el propósito final del estudio consiste en concluir sobre la población y
no sobre la muestra. ¿Cómo puede ser esto?
La respuesta a esta pregunta es una de las mayores aportaciones de la teoría de la
probabilidad a las ciencias del comportamiento. Por desgracia, no es una respuesta
sencilla. Sin embargo, trataremos de aproximarnos a ella.
16. Se dice que una muestra es representativa cuando posee las mismas
características del universo del que fue extraída; a veces a esta característica se le
llama homomorfismo entre muestra y universo de estudio.
De este modo, conociendo las características de la muestra, podemos realizar una
inferencia estadística de las características de la población, ya sea con fines de
estimación o de comparación.
17. El problema, entonces, consiste en saber cómo lograr la representatividad de la
muestra. Existen tres condiciones fundamentales que deben considerarse para que
una muestra sea representativa del universo de estudio del que se extrae:
Suficiencia, estratificación y aleatoriedad. Veamos cada una de ellas.
Primera condición: La suficiencia de muestreo
18. Aplicada al estudio del error muestral, la Ley de los grandes números puede
expresarse así:
Sea
e ≡ Error muestral
n ≡ Tamaño de la muestra
entonces
un estimador de Pi.
n ≡ Tamaño de la muestra.
ni ≡ Tamaño del estrato muestral i-ésimo.
entonces
ni = Pin
De este modo puede asegurarse que en la muestra se preserva la estructura de
estratos poblacionales, lo que contribuye a su representatividad.
Ahora ya se sabe de qué tamaño será la muestra, qué estratos la integran y de qué
tamaño es cada estrato muestral.
Para elegir los elementos poblacionales que formarán la muestra debe muestrearse
por estrato.
Epílogo
Hemos revisado aspectos básicos de la teoría de la probabilidad aplicada a las
ciencias del comportamiento. Sin duda se puede, y se debería, profundizar en
muchos de los temas estudiados y no son pocos los que no fueron abordados, pero
si los temas trabajados fueron comprendidos, es razonable esperar que el
estudiante haya iniciado la construcción de una estructura conceptual que le
permitirá estudiar científicamente la conducta de los organismos vivos, en particular
−pero no exclusivamente− la conducta humana. Por sí mismo, esto no es poco.
Recapitulemos, en líneas muy generales, lo que se estudió en este curso.
La historia de la probabilidad permite recorrer la historia del pensamiento científico,
desde las concepciones mágico-animistas que atribuían a la divinidad el gobierno
de los fenómenos de la naturaleza que se comportan al azar, hasta la comprensión
y formalización matemática del azar mismo y su aplicación a la predicción y control
de los fenómenos aleatorios. La ciencia actual, cualquiera que sea su campo
disciplinario, no se comprende sin la teoría de la probabilidad y su complemento, la
estadística. En particular, podemos ver que las ciencias de la conducta no pudieron
nacer sino hasta que la humanidad desarrolló una nueva rama de la matemática,
encargada del estudio del azar. Hoy, si se quiere estudiar el comportamiento de los
organismos vivos, no puede prescindirse de la teoría de la probabilidad.
Un fenómeno aleatorio es un fenómeno natural que al ocurrir ofrece dos o más
resultados posibles. Cualquier análisis elemental demuestra que no es cierto que,
ante un estímulo específico, un organismo emitirá una y solo una respuesta posible.
El comportamiento que emiten los organismos vivos es, en consecuencia, un
fenómeno aleatorio porque, dada una situación-estímulo, el organismo puede emitir
una variedad de comportamientos. En consecuencia, el comportamiento que un
organismo emitirá ante una situación-estímulo (lo que constituye un objetivo central
de las ciencias de la conducta) no puede predecirse en forma determinista.
Digámoslo con claridad: toda predicción científica del comportamiento de los
organismos vivos es una predicción probabilista y ha de formularse a partir de
análisis matemáticos. Tal es la importancia de la teoría de la probabilidad para las
ciencias de la conducta.
Frecuencia, definida como el número de veces que aparece un dato en una masa
de datos, es un concepto fundamental de la estadística descriptiva. Evento, definido
como uno de los resultados posibles de un fenómeno aleatorio, es un concepto
fundamental en probabilidad; si podemos identificar el conjunto completo de eventos
posibles en un fenómeno aleatorio, tenemos entonces el espacio muestral.
Llamamos eventos favorables a aquellos que nos interesa estudiar. A partir de aquí
no es difícil establecer una analogía -bastante directa- entre eventos favorables y
frecuencia, por una parte, y tamaño del espacio muestral y tamaño de la masa de
datos, por otra. La teoría de la probabilidad, por tanto, toma a la estadística
descriptiva como base; posteriormente, ocurre que la teoría de la probabilidad es
base de la estadística inferencial.
Notación
+ Suma
− Resta
Multiplicación
/ División
Raíz cuadrada
Significa, denota, representa
= Igual a
Menor que
Menor o igual que
Mayor que
Mayor o igual que
X Evento
P(X) Probabilidad del evento X
XC Complemento de X, todos los eventos del espacio muestral diferentes de X.
H Hipótesis de investigación
H0 Hipótesis nula
H1 Hipótesis alternativa 1
H2 Hipótesis alternativa 2
HT Hipótesis de trabajo
N Tamaño de la población o universo
n Tamaño de la muestra
f Frecuencia con que aparece un dato
X! Factorial de X
Sumar todos los operandos
% Porcentaje
Media aritmética poblacional
Media aritmética muestral
Desviación estándar poblacional
S Desviación estándar muestral
2 Varianza poblacional
S2 Varianza muestral
[a,b] Intervalo entre a y b
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
Lección 3. Axiomas
Ejercicio 3.1.
Suponga que realizamos un complejo cálculo y llegamos al punto en que
P(X) = 0.6521- 0.7416
¿Qué debería concluir con base en los axiomas de la probabilidad? Justifique su respuesta.
Respuesta
En el punto del proceso es que estamos tendríamos que P(X) = -0.0895 y tal valor
negativo contradice el primer axioma de la teoría de la probabilidad. En
consecuencia, es indudable que se ha cometido un error y debe revisarse todo el
procedimiento.
Ejercicio 3.2.
En una encuesta, definimos al estado civil como una variable nominal con las categorías:
C = {soltero, casado, otro}
y encontramos las siguientes probabilidades:
P(soltero) = 0.4231
P(casado) = 0.4283
P(otro) = 0.3256
¿Qué debería concluir con base en los axiomas de la probabilidad? Justifique su respuesta.
Respuesta
Al sumar las probabilidades de los tres eventos se obtiene P(S) = 1.1770 y este
resultado contradice al segundo axioma. En consecuencia, tiene que revisarse todo
el proceso que condujo a estas probabilidades.
Ejercicio 3.3.
Cierta fábrica tiene los siguientes trabajadores por sección:
Producción: 89
Mantenimiento: 36
Vigilancia: 18
Transporte: 10
Se sorteará un premio. ¿Cuál es la probabilidad de que lo gane un trabajador que no sea de
producción?
Respuestas
Podemos resolver este ejercicio de dos formas.
Primera
Los trabajadores que no son de Producción corresponden a {Mantenimiento,
Vigilancia, Transporte}. Entonces, sea
X1 ≡ Mantenimiento
X2 ≡ Vigilancia
X3 ≡ Transporte
Aplicando el tercer axioma de la teoría de la probabilidad
P(X1X2X3) = P(X1)+P(X2)+ P(X3)
Aquí aplicamos la definición a posteriori de probabilidad P(X) = f/n, para lo que
primero calculamos
n = 89+36+18+10 = 153
Por lo que
P(X1X2X3) = (36/153)+(18/153)+(10/153) = 0.4183
Es decir, la probabilidad que de gane el sorteo un trabajador de Mantenimiento o de
Vigilancia o de Transporte es del 41.83%.
Segunda
Ahora calculamos la probabilidad de que gane un trabajador de Producción, para lo
D2
Administración Administración
21 21
Obreros
123
Producción
143
Supervisores
20
Almacén
12
Administración
294
Suministros Distribución
38 21
Transporte
5
Campo
81
Ventas
92
Coordinadores
11
combinaciones y justifíquelo.
Respuesta
Este caso es diferente. Ahora ya no importa el orden porque, por ejemplo,
(1,2) = (2,1) pues ambos sujetos serán sometidos a la misma condición
experimental. En consecuencia, aplican las combinaciones y tenemos
7C2 = 7!/((7-2)!2!) = 21
Como no importa el orden, se reduce el número de muestras posibles.
Lección 6. Distribuciones de probabilidad
Ejercicio 6.1.
Un banco de reactivos tiene la siguiente estructura:
Unidad Número de reactivos
1 38
2 52
3 65
4 25
5 52
6 31
a) Construya la distribución de probabilidad.
Se aplicará un reactivo elegido aleatoriamente:
b) ¿Cuál es la probabilidad de que pertenezca a la unidad 3 o a la unidad 6?
c) ¿Cuál es la probabilidad de que pertenezca a alguna de las primeras tres unidades?
d) ¿Cuál es la probabilidad de que no pertenezca a la unidad 3 ni a la 5?
Respuestas
a) Distribución de probabilidad
n = 263
Unidad P(X) Pacum
1 0.1445 0.1445
2 0.1977 0.3422
3 0.2471 0.5893
4 0.0951 0.6844
5 0.1977 0.8821
6 0.1179 1.0000
Observe que no hubo necesidad de ajustar los valores de P(X).
Se aplicará un reactivo elegido aleatoriamente:
b) ¿Cuál es la probabilidad de que pertenezca a la unidad 3 o a la unidad 6?
P(36) = P(3)+P(6) = 0.2471+0.1179 = 0.3650 = 36.50%
c) ¿Cuál es la probabilidad de que pertenezca a alguna de las primeras tres unidades?
P(123) = 0.5893
Que puede obtenerse directamente en Pacum hasta la unidad 3.
e) ¿Cuál es la probabilidad de que no pertenezca a la unidad 3 ni a la 5?
4 1/6
5 1/6
6 1/6
b) ¿Cuál es su media?
= (n+1)/2 = (6+1)/2 = 3.5
c) ¿Cuál es su varianza?
2 = (n2-1)/12 = (62-1)/12 = 2.92
d) ¿Cuál es la probabilidad de que caiga una cara impar?
P(123) = P(1)+P(2)+P(3) = (1/6)+(1/6)+(1/6) = 3/6 = 0.5000 = 50.00%
Ejercicio 6.5.
En una línea de producción industrial, cierta operación toma al operario entre 2.7 y 3.5 minutos y se
distribuye en forma uniforme continua.
a) ¿Cuál es su media?
b) ¿Cuál es su varianza?
c) ¿Cuál es la probabilidad de que dicha operación tome entre 3.2 y 3.5 minutos?
Respuestas
a) ¿Cuál es su media?
Sabemos que el límite inferior del rango es a = 2.7 y el superior b = 3.5, entonces:
= (a+b)/2 = (2.7+3.5)/2 = 3.10
b) ¿Cuál es su varianza?
2 = (b-a)2/12 = (3.5-2.7)2/12 = 0.05
c) ¿Cuál es la probabilidad de que dicha operación tome entre 3.2 y 3.5 minutos?
Aquí, sabemos que el límite inferior es X1 = 3.2 y X2 = 3.5, entonces:
P(3.2≤X≤3.5) = (X2-X1)/(b-a) = (3.5-3.2)/(3.5-2.7) = 0.3750 = 37.50%
Ejercicio 6.6.
En cierta empresa de transporte se reporta una probabilidad de daño menor a la carga de 16.23%
en cada viaje.
a) Construya la distribución de Bernoulli.
b) ¿Cuál es su media?
c) ¿Cuál es su varianza?
Respuestas
a) Construya la distribución de Bernoulli.
Primero observemos que en este ejemplo tenemos una variable discreta. Ahora, el
cálculo es directo:
p = 0.1623
q = 1-0.1623 = 0.8377
Y así queda definida toda la distribución.
b) ¿Cuál es su media?
= p = 0.1623
c) ¿Cuál es su varianza?
2 = p(1-p) = 0.1623(1-0.1623) = 0.1360
Ejercicio 6.7.
En un proceso industrial, la probabilidad de que cierta operación rebase el tiempo límite es de
34.56%.
a) Construya la distribución de Bernoulli.
b) ¿Cuál es su media?
Respuestas
b) Calcule la media.
c) Calcule la varianza
d) ¿Cuál es la probabilidad de que fume al menos 2 cigarrillos por día?
Respuestas
a) Construya la distribución de Poisson
Tenemos =3.4. La función de la distribución Poisson es:
P(X) = ((e-λ)(λX))/X!
Aplicada a la primera fila:
P(X=0) = ((e-3.4)(3.40))/0!
Completando las filas restantes tenemos:
X P(X) Pacum
0 0.0334 0.0334
1 0.1135 0.1468
2 0.1929 0.3397
3 0.2186 0.5584
4 0.1858 0.7442
5 0.1264 0.8705
6 0.0716 0.9421
7 0.0348 0.9769
8 0.0148 0.9917
9 0.0056 0.9973
10 0.0019 0.9992
Observe que nos detuvimos en Pacum = 0.9992
b) Calcule la media.
= λ = 3.4
c) Calcule la varianza
2 = λ = 3.4
d) ¿Cuál es la probabilidad de que fume al menos 2 cigarrillos por día?
P(X≤2) = 0.3397 = 33.97%
Lección 7. Probabilidad condicional
Ejercicio 7.1.
Registros históricos indican que de 12 324 sujetos a los que se aplicó una prueba antidoping, 222
fueron diagnosticados positivo en consumo de cocaína. Por estudios confirmatorios se sabe que de
los sujetos que fueron diagnosticados positivo, 2 no habían consumido cocaína; por otra parte, de
los sujetos que tuvieron diagnóstico negativo, 131 sí habían consumido.
a) Defina una simbología general para el caso de estudio.
b) Construya el árbol de probabilidades.
C (220)
P(B1) = 0.9910
Dx+ (222)
P(A1) = 0.0180
CC (2)
P(B2) = 0.0090
S (12 324)
C (131)
P(B1) = 0.0108
DX- (12 102)
P(A2) = 0.9820
CC (11 971)
P(B2) = 0.9892
Esta tabla de contingencias nos permite evaluar la prueba antidoping con un criterio
científico. Regrese a ver el árbol de probabilidades y se dará cuenta de que, aunque
se parte estrictamente de los datos de entrada, la aplicación del Teorema de Bayes
cambia radicalmente su interpretación. Por ejemplo, es cierto que la probabilidad de
acusar falsamente a un sujeto de consumir cocaína (un diagnóstico falso positivo)
es de apenas 2 diezmilésimos; pero también es cierto que la probabilidad de
detectar efectivamente a un consumidor es de apenas el 62.79%. Como puede
verse, se requiere una interpretación compleja.
Ejercicio 7.2.
La estadística sobre seguridad en cierta zona metropolitana registra la siguiente distribución:
Eventos Total Incidentes graves
Deportivos 87 15
Manifestaciones sociales 19 8
Violencia criminal 12 10
a) Defina una simbología general para el caso de estudio.
b) Construya el árbol de probabilidades.
c) ¿Cuál es la probabilidad de que se presente una manifestación social?
d) ¿Cuál es la probabilidad de que ocurran incidentes graves?
e) ¿Cuál es la probabilidad de que ocurra violencia criminal y no haya incidentes graves?
f) Se proyecta formar Grupos de Reacción Inmediata para intervenir en incidentes graves,
especializados en cada tipo de eventos. Dado que se presenta un incidente grave, ¿a qué tipo de
evento puede corresponder?
Respuestas
a) Defina una simbología general para el caso de estudio.
A1 ≡ Que ocurra un evento deportivo
A2 ≡ Que ocurra una manifestación social
A3 ≡ Que ocurra un evento con violencia criminal
B1 ≡ Que se presenten incidentes graves en el evento
B2 ≡ Que no se presenten incidentes graves en el evento
G (15)
P(B1) = 0.1724
D (87)
P(A1) = 0.7373
GC (72)
P(B2) = 0.8276
G (8)
P(B1) = 0.4211
M (19)
S (118)
P(A2) = 0.1610
GC (11)
P(B2) = 0.5789
G (10)
P(B1) = 0.8333
V (12)
P(A3) = 0.1017
GC (2)
P(B2) = 0.1667
aspirantes que tomaron el curso, 1 528 fueron admitidos; de los aspirantes que no tomaron el curso,
4 774 no fueron admitidos.
a) Defina una simbología general para el caso de estudio.
b) Construya el árbol de probabilidades.
c) ¿Cuál es la probabilidad de que un aspirante haya tomado el curso de preparación?
d) ¿Cuál es probabilidad de que un aspirante no haya tomado el curso de preparación y haya sido
admitido?
e) Se tiene un estudiante admitido. ¿De qué grupo proviene, del que tomó el curso de preparación o
del que no lo tomó?
Respuestas
a) Defina una simbología general para el caso de estudio.
A1 ≡ Tomó el curso
A2 ≡ No tomó el curso
B1 ≡ Admitido
B2 ≡ No admitido
b) Construya el árbol de probabilidades.
A (1 528)
P(B1) = 0.3399
C (4 495)
P(A1) = 0.3973
AC (2 967)
P(B2) = 0.6601
S (11 314)
A (2 045)
P(B1) = 0.2999
CC (6 819)
P(A2) = 0.6027
ACB2 (4 774)
P(B2) = 0.7001
Respuestas
a) ¿Cuál es el error absoluto?
En este ejemplo tenemos VR=19.36 y VM=18.87. Por tanto:
EA = |19.36-18.87| = 0.49.
b) ¿Cuál es el error relativo?
ER = 0.49/19.36 = 0.0253 = 2.53%
Ejercicio 8.2.
Se realizaron cuatro series de lanzamientos de un dado de 6 caras y se registró la frecuencia de
ocurrencia de la cara 4. Se obtuvieron los siguientes resultados:
Serie n f(4)
1 1 0
2 25 7
3 50 3
4 100 23
a) Construya una tabla para calcular el error absoluto y el error relativo en cada serie
b) Grafique los resultados con ambos tipos de error.
c) Analice los resultados a la luz de la Ley de los grandes números.
Respuestas
a) Construya una tabla para calcular el error absoluto y el error relativo en cada serie
Serie n f(4) Po(4) Pt(4) Ea Er
1 1 0 0.0000 0.1667 0.1667 1.0000
2 25 7 0.2800 0.1667 0.1133 0.6797
3 50 3 0.0600 0.1667 0.1067 0.6401
4 100 23 0.2300 0.1667 0.0633 0.3797
b) Grafique los resultados con ambos tipos de error.
Ejercicio 8.3.
Sea una distribución binomial con p = 0.1321.
a) Construya las distribuciones para n1=1; n2=10, n3=25.
b) Construya las tres gráficas.
Respuestas
a) Construya las distribuciones para n1=1; n2=10, n3=25.
n=1 n=10 n=25
X P(X) X P(X) X P(X)
0 0.8679 0 0.2425 0 0.0290
1 0.1321 1 0.3691 1 0.1102
2 0.2528 2 0.2012
3 0.1026 3 0.2348
4 0.0273 4 0.1966
5 0.0050 5 0.1257
6 0.0006 6 0.0638
7 0.0001 7 0.0263
8 0.0000 8 0.0090
9 0.0000 9 0.0026
10 0.0000 10 0.0006
11 0.0001
12 0.0000
13 0.0000
14 0.0000
15 0.0000
16 0.0000
17 0.0000
18 0.0000
19 0.0000
20 0.0000
21 0.0000
22 0.0000
23 0.0000
24 0.0000
25 0.0000
c) Discuta los resultados obtenidos a la luz del Teorema del límite central.
Primero, en las tres distribuciones se observa un claro sesgo derecho. Esta es una
característica de la distribución binomial. Sin embargo, cuando P→0.5000 el sesgo
Y este es el valor más preciso que puede dar la tabla. Si calculamos el valor
aplicando directamente la función de distribución en Excel obtenemos:
P=0.6512 corresponde a z=0.38856225...
Es claro que al redondear a dos decimales tenemos z=0.39, que el valor que
obtuvimos de tablas. Pero no debemos menospreciar la precisión, en la práctica
profesional se presentan muchos casos en que la diferencia (que es un error) puede
cambiar decisiones importantes.
En todo caso, la teoría y el procedimiento matemático es el mismo, lo que cambia
es la precisión del cálculo.
Ejercicio 9.9.
Suponga que tenemos una población en la que el cociente de memoria (CM) se distribuye con
=67.31 y =7.23; se ha probado que se ajusta a la distribución normal. Se extraerá al azar un sujeto
de la población:
a) ¿Cuál es la probabilidad de que el sujeto tenga CM mayor o igual a 70?
b) ¿Cuál es la probabilidad de que el sujeto tenga CM menor o igual a 59?
c) ¿Cuál es la probabilidad de que el sujeto tenga CM entre 48 y 71?
d) ¿Cuál es el puntaje que limita al 72% de los sujetos con menor CM?
Respuestas
a) ¿Cuál es la probabilidad de que el sujeto tenga CM mayor o igual a 70?
Comencemos por estandarizar el puntaje:
z = (X-µ)/σ
z = (70.00-67.31)/7.23
z = 0.37 Observe que el valor es positivo.
Ahora podemos encontrar el área:
P(z≥0.37) = 1-P(z≤0.37) = 1-0.6433 = 0.3567 = 35.67%
Esto es, hay una probabilidad de 35.67% de encontrar a un elemento de la población
estudiada con un cociente de memoria de 70 0 mayor.
b) ¿Cuál es la probabilidad de que el sujeto tenga CM menor o igual a 59?
z = (59.00-67.31)/7.23
z = -1.15 Observe que ahora el valor es negativo.
Por tanto:
P(z≤-1.15) = 1-P(z≤1.15) = 1-0.8749 = 0.1251 = 12.51%
La probabilidad de extraer al azar a un sujeto con CM menor o igual a 59 es del
12.51%.
c) ¿Cuál es la probabilidad de que el sujeto tenga CM entre 48 y 71?
Estandarizamos ambos valores:
z1 = (48.00-67.31)/7.23
z1 = -2.67
z2 = (71.00-67.31)/7.23)
z2 = 0.51 Observe que z1 es positivo mientras z2 es negativo.
Para calcular el área:
P(-2.67≤z≤0.51) = P(z1≤0.51)-(1-P(z2≤2.67))
P(-2.67≤z≤0.51) = 0.6950-(1-0.9962)
P(-2.67≤z≤0.51) = 0.6912 = 69.12%
La probabilidad de hallar un CM entre 48 y 71 es del 69.12%
d) ¿Cuál es el puntaje que limita al 72% de los sujetos con menor CM?
Ahora partimos de una probabilidad, P=0.7200, y queremos conocer el puntaje que
la limita. Tenemos el caso inverso a los anteriores.
Grupo 1 2 3 4 5 6 7 8 9 10
Elemento 2 18 17 13 11 16 8 6 14 9
Del primer grupo de 20 autobuses estudiaremos al número 2, del segundo grupo al
18 y así hasta completar la muestra. Tendremos una muestra aleatoria, sin sesgo
de investigación.
Observe que se puede considerar a cada grupo de 20 autobuses como un estrato
poblacional.
Ejercicio 11.2.
Se aplicará una encuesta de actitud hacia programas antitabaquismo en una empresa que tiene
5 386 empleados operativos, 456 de oficina y 112 directivos. Se sabe que el 23% de la población
fuma. Se establece un nivel de significación del 7% y un margen de error muestral también del 7%.
a) Calcule el tamaño de la muestra.
b) Estratifique la muestra por tipo de empleo.
c) Seleccione los primeros cinco elementos muestrales de cada estrato.
Respuestas
a) Calcule el tamaño de la muestra.
Aplica el Caso 2. Identificamos valores:
N = 5386+456+112 = 5954
p = 0.23
e = (1−precisión)/2 = (1−0.93)/2 = 0.035
z = 1.81, que es la z asociada con 1−(0.07/2) = 0.9650.
calculando:
n = (Nz2p(1-p)) / (((N-1)e2)+(z2p(1-p)))
n = (59541.8120.23(1-0.23)) / (((5954-1)0.0352)+(1.8120.23(1-0.23)))
n = 438.80
debemos tomar 439 elementos para integrar la muestra.
b) Estratifique la muestra por tipo de empleo.
Estrato Ni (Ni/N)n ni
Operativo 5 386 397.12 397
Oficina 456 33.62 34
Directivo 112 8.26 8
Total 5 954 439
Para integrar la muestra debemos tomar 397 empleados operativos, 34 de oficina y
8 directivos.
c) Seleccione los primeros cinco elementos muestrales de cada estrato.
Suponemos que tenemos la base de datos en una hoja de Excel. Entonces,
aplicamos el siguiente procedimiento:
Ordenamos la población por estrato y se crea una columna con un número aleatorio.
Elemento Elemento
muestral Estrato poblacional Datos Num. Aleat.
1 Operativo 790 xxxxxxx 6.817E-05
2 Operativo 2161 xxxxxxx 0.0005204
3 Operativo 2869 xxxxxxx 0.00076134
4 Operativo 3089 xxxxxxx 0.00102697
5 Operativo 408 xxxxxxx 0.00103674
... Operativo ... ... ...
397 Operativo 1137 xxxxxxx 0.08352354
1 Oficina 423 xxxxxxx 0.0013277
2 Oficina 416 xxxxxxx 0.002695
3 Oficina 302 xxxxxxx 0.00491048
4 Oficina 27 xxxxxxx 0.00821527
5 Oficina 186 xxxxxxx 0.00849261
... Oficina ... ... ...
112 Oficina 440 xxxxxxx 0.2347086
1 Directivo 106 xxxxxxx 0.00801697
2 Directivo 95 xxxxxxx 0.01098765
3 Directivo 95 xxxxxxx 0.02497245
4 Directivo 95 xxxxxxx 0.02988763
5 Directivo 95 xxxxxxx 0.08767658
... ... ... ... ...
8 Directivo 95 xxxxxxx 0.8798743
Se ha completado una muestra representativa.
Debe observarse que en caso de que se requiera sustituir algún elemento por baja
en la investigación, basta con tomar el elemento poblacional que sigue al último
elemento muestral seleccionado.
Ejercicio 11.3.
Para estandarizar un test de inteligencia en la población de un municipio, con adultos con edades
entre 20 y 60 años, se tomará una muestra representativa con un error muestral del 5% y un nivel
de confianza del 95%. La media en dicha población se ha estimado en 104.23 y la desviación
estándar en 15.38. La población se estratifica por nivel educativo en las categorías Bajo (primaria
terminada o menor) que representa el 26%; Medio (estudios de secundaria hasta preparatoria
completa) el 45 % y (estudios de licenciatura o superior) 29%. Se muestreará por área geoestadística
básica (AGEB), manzana, predio y habitante.
a) Calcule el tamaño de la muestra.
b) Estratifique la muestra por nivel educativo.
c) Diseñe un algoritmo de selección aleatoria de la muestra.
Respuestas
a) Calcule el tamaño de la muestra.
Se trata de conocer media y desviación estándar en una población infinita, por lo
que aplica el Caso 3. Identificamos valores:
= 104.23
= 15.38
e = (1−precisión)/2 = (1−0.95)/2 = 0.025
Bibliografía
Anastasi, A & Urbina, S. (1998). Tests psicológicos. Prentice Hall, México, 1998.
(729 pp.)
Texto clásico cuya primera edición se remonta a 1968 y que ha evolucionado a lo largo de múltiples
ediciones. La edición 1998 incorpora el impacto de la computadora y las influencias políticas sobre
la psicometría. Fundamental en las ciencias del comportamiento para comprender los aspectos
conceptuales que subyacen a todo el proceso psicométrico.
Aristóteles (2001). Tratados de lógica. Ed. Porrúa, Colección Sepan cuantos,
número 124. México. (534 pp.)
Poco se puede agregar a lo que se ha dicho sobre un clásico, en el sentido más estricto del término.
Se le cita en este trabajo para recordar que no siempre es cierto que nada hay nuevo bajo el sol: los
griegos no lograron siquiera atisbar a la probabilidad matemática.
Bertrand, J. (1889). Calcul des probabilités. Gauthier-Villars et Fils, Imprimeurs-
Libraires, France. (332 pp.) Disponible en
http://bibliotecadigital.uca.edu.ar/repositorio/investigacion/acerca-fundamentos-
teoria-probabilidad.pdf. Consultado el 6 de agosto de 2013.
Obra pionera en la teoría de la probabilidad. Cuando se lee este tipo de trabajos se recibe una
verdadera lección sobre historia de la ciencia.
Cochran, W. (1980). Técnicas de muestreo. Ed. C.E.C.S.A., México. (513 pp.)
Un tratado de muestreo amplio y cuidadoso, para quien quiera realmente profundizar en el problema
del muestreo, sus alcances y limitaciones.
Cochran W. y Cox, G. (1980). Diseños experimentales. Trillas, México. (661 pp.).
Es un libro más orientado a la metodología que a la estadística, sin embargo ofrece una muy buena
alternativa para comprender el estrecho vínculo que une a ambas disciplinas. No habría que olvidar
que el experimento es el tipo de investigación científica por excelencia.
Cowles, M. & Davis, C. (1982). “On the origins of the .05 level of statistical
significance”. American Psychologist, May 1982, Vol. 37, No. 5, 553-558.
Un artículo para entender el concepto de nivel de significación −fundamental en la psicología
científica− y su historia; un trabajo desmitificador.
Harman, P. (1990). The scientific letters and papers of James Clerk Maxwell. Vol. I
1846-1862. Cambridge University Press, N. Y. (748 pp.)
Este epistolario de James Clerk Maxwell permite ver la concepción no determinista de uno de los
físicos más importantes del siglo XIX, quien fue precursor nada menos que de Einstein.
Kerlinger, F. & Lee, H. (2001). Investigación del comportamiento: Métodos de
investigación en ciencias sociales. McGraw-Hill, México. (810 pp.).
Un tratado amplio de metodología indispensable para cualquier estudiante de ciencias del
comportamiento. Trata desde las bases de la epistemología científica, probabilidad y muestreo,
análisis e interpretación, prueba de hipótesis, diseño de investigación, medición y métodos de
observación y recolección, hasta la elaboración del reporte; en fin, un recorrido amplio y sistemático
por los temas que dan estatus científico al estudio del comportamiento.
Keynes, J. (2014). A Treatise of Probability. Project Gutenberg´s, Release Date:
February 9, 2014 [EBook #32625]. (Primera edición 1921).
Es un tratado que conjuga el rigor de las formulaciones matemáticas con los fundamentos filosóficos
de la probabilidad. El enfoque keynesiano sostiene que existe una relación estrictamente lógica entre
hipótesis y evidencia que abrió el camino a la lógica probabilista.
Tversky, A. & Kahneman, D. (1981). “The framing of decisions and the psychology
of choice”. Science, Vol. 211, 30 January 1981, 453-458.
Este artículo muestra la importancia de la matemática en el estudio de la conducta y hace un análisis
evolucionista que propone explicaciones sobre la renuencia a adoptar el pensamiento probabilista.
Kahneman, psicólogo norteamericano, compartió el Premio Nobel de Economía en 2002 “...por haber
integrado aspectos de la investigación psicológica en la ciencia económica, especialmente en lo que
respecta al juicio humano y la toma de decisiones bajo incertidumbre.” Debería leerlo todo estudiante
de psicología.
Landro, A. y González, M. (2011). “Acerca de los Fundamentos de la Teoría de la
Probabilidad de A. N. Kolmogorov”. Universidad Católica de Argentina. Disponible
en: http://www.uca.edu.ar/uca/common/grupo83/files/33-_Landro-Gonz-lez.pdf.
Un artículo que ayuda a comprender una de las aportaciones fundamentales a la formalización
matemática de la teoría de la probabilidad: su axiomatización.
Laplace, P. (1996). Ensayo filosófico sobre las posibilidades. Ediciones Altaya,
Barcelona. (142 pp.)
Publicado originalmente en 1814, es una obra pionera en la que Laplace aplica las matemáticas y,
en particular la geometría, al estudio del azar. Por supuesto, actualmente su interés es histórico.
Russell, B. (1938). The principles of mathematics. W. W. Norton & Company, Inc.
Publishers, New York. (534 pp.)
Russsell propone en este libro que todo lo que llamamos matemática se deriva de premisas lógicas
y, por tanto, lógica y matemática son, esencialmente, lo mismo. Más tarde se demostraría que esto
no es completamente cierto, pero la obra hizo aportaciones que impactaron profundamente al
pensamiento matemático dl siglo XX.
Schrödinger, E. (1997). ¿Qué es la vida? Tusquets Editores, Barcelona, España.
(144 pp.)
Texto de divulgación científica de gran utilidad para desengañar a quienes siguen pensando que la
física es una ciencia estrictamente determinista.
Kolmogorov, A. (1950). Foundations of the theory of probability. Chelsea Publishing
Company, New York. (71 pp.)
Lo interesante de esta obra, al menos para el curso, es que en ella se presenta la formalización de
la axiomática de la probabilidad. El solo año de su edición deja ver la juventud de la teoría de la
probabilidad.
Descartes, R. (1824). Discours de la méthode, Tomo I, Levrault, Paris. (212 pp.)
No pocas personas afirman que con esta obra nació el método de la ciencia. ¿Qué más se puede
decir sobre ella?
López A. (2011). Estadística descriptiva en ciencias del comportamiento.
Universidad Autónoma del Estado de México. (138 pp.)
Crestomatía para un primer curso universitario de estadística descriptiva.
López, A. (2013). El método en ciencias del comportamiento. Universidad Autónoma
del Estado de México. (142 pp.)
Crestomatía para un primer curso universitario de metodología científica.
López A. (2014). Estadística inferencial en ciencias del comportamiento.
Universidad Autónoma del Estado de México. (133 pp.)
Crestomatía para un primer curso universitario de estadística inferencial.
Meredith, W. (1977). Manual de tablas estadísticas con aplicación a las ciencias de
la conducta. Trillas, México. (345 pp.).
Como su nombre lo indica, se trata de un compendio de tablas, aunque no solo son estadísticas sino
que también incluye algunas tablas matemáticas. En los años 1970s este libro fue muy popular, de
consulta obligada para estudiantes y profesores, pero con la tecnología computacional actual ha
quedado obsoleto, pues todas las tablas que incluye han sido incorporadas en diversos software de
uso común, como Excel. Sin embargo, La estructura misma del libro, así como muchas de las notas
técnicas que incluye, pueden ser de gran utilidad para quien quiera profundizar en el estudio de la
probabilidad y la estadística.
Paulos, J. A. (1990). El hombre anumérico: El analfabetismo matemático y sus
consecuencias. Tusquets Editores, España. (216 pp.)
Un ensayo sobre las relaciones entre ciencia y matemática y sobre su importancia para entender el
mundo.
Piaget, J. (1971). Genetic Epistemology. English traslation by Eleanor Duckworth.
The Norton Library, New York. (84 pp.)
Cuatro conferencias que Jean Piaget dicta en la Universidad de Columbia. En lo que aquí interesa,
permiten ver el papel fundamental que la matemática juega en la teoría piagetiana.
Sheynin, O. (2005). Bernoulli, Jakob: On the law of large numbers, Part four of ars
conjectandi. English translation by Oscar Sheynin (1713/2005). Berlin, NG Verlag.
Disponible en http://www.sheynin.de/download/bernoulli.pdf. Consultado el 2 de
junio de 2015.
Este trabajo es un extracto de la traducción de una obra fundamental en la historia de la teoría de la
probabilidad.
Winkler, R. & Hays, W. (1970). Statistics, probability, inference and decision. Holt,
Rinehart and Winston, USA. (889 pp.)
Quizá lo más notable de esta obra sea la importancia que da a los conceptos. Lo más frecuente en
libros de estadística es que se presenten desarrollos matemáticos y fórmulas, sin que se discutan y
expliquen los conceptos que están bajo los procedimientos y fórmulas matemáticas. No es el caso
con esta obra, que analiza y discute ampliamente los conceptos antes de pasar a la formulación
matemática en un amplio recorrido por el campo de la probabilidad y la estadística.
Yamane, T. (1990). Estadística. Ed. Harla, México. (771).
Es un libro que da importancia a la aplicación, pero también muestra, desde el origen, de dónde
salen algunas de las fórmulas que aplicamos cotidianamente; se recomienda para quienes están
interesados en las demostraciones matemáticas. Está orientado a la economía y, por lo tanto, es
aplicable a las ciencias de la conducta.