Está en la página 1de 15

Factor estérico (P) es un término utilizado en teoría de la colisión.

Se define como el cociente entre el valor experimental de la constante de velocidad y la


predicha por la teoría de colisión. También se puede definir como la relación entre el
factor de preexponencial y la frecuencia de colisión , y es más a menudo menor que la
unidad. el factor estérico puede interpretarse como la relación de la sección transversal
de las colisiones reactivas a la sección transversal total de colisiones.

Por lo general, cuanto más complejo es el reactivo moléculas , el menor de los factores
estéricos. Sin embargo, algunas reacciones presentan factores estéricos mayor que la
unidad: el arpón reacciones , que implican que los electrones de los átomos de cambio,
produciendo iones.

La desviación de la unidad puede tener diferentes causas: las moléculas no son


esféricas, diferentes geometrías así son posibles, no toda la energía cinética se entrega
en el lugar correcto, la presencia de un disolvente (cuando se aplica a las soluciones) ...

Cuando la teoría de las colisiones se aplica a las reacciones en la solución de la jaula de


disolvente tiene un efecto sobre las moléculas de reactivo, ya que varias colisiones
pueden tener lugar en un solo encuentro, lo que lleva a predecir factores preexponencial
ser demasiado grande. ρ valores mayores que la unidad se puede atribuir a las
favorables contribuciones entrópica.

Por lo general, no hay forma sencilla de calcular con exactitud los factores estéricos sin
trayectoria o realizar cálculos de dispersión.

En cinética química , el factor preexponencial o factor A es la constante pre-


exponencial de la ecuación de Arrhenius , una relación empírica entre la temperatura y
coeficiente de velocidad . Por lo general, designado por A cuando se determina a partir
de experimento, mientras que Z se suele dejar de frecuencia de colisión .

Para una reacción de primer orden que tiene unidades de s-1, por eso a menudo se llama
factor de frecuencia.

El factor de frecuencia, A, depende de la frecuencia con las moléculas chocan cuando


todas las concentraciones son de 1 mol / L y de si las moléculas están bien orientadas
cuando chocan.

frecuencia de colisión se define en la cinética química , en el fondo de la cinética


teórica, ya que el número medio de colisiones entre las moléculas de reaccionar por
unidad de tiempo. Su símbolo es Z.

A diferencia del factor de preexponencial , A, que es una magnitud empírica, Z es una


magnitud teórico, calculado desde un principio. Cuanto más se acerque a la Z, mejor
una determinada teoría de la cinética química.

Para una fase de gas de reacción bimolecular Z es


• N A es el número de átomos de B por unidad de volumen (m ^ 3)
• σ AB es la reacción de la sección transversal
• k B es constante de Boltzmann
• μ AB es la masa reducida de los reactivos

Teoría de Colisiones

De acuerdo a la Teoría de Colisiones las reacciones ocurren cuando hay choques


efectivos entre moléculas donde la rapidez de la reacción es proporcional al número
de choques por unidad de tiempo multiplicada por la fracción del número total de
choque que son efectivos.

Los choques efectivos dependen de la naturaleza de los reactivos y su concentración,


la orientación cuando ocurre el choque y la temperatura que afecta la energía cinética
de las moléculas.

Ejemplo: 2 moléculas en la reacción: A + B º P que ocurre en un solo paso, podemos


establecer la ley de rapidez de segundo orden y con molecularidad de dos como:

r = k [A] [B]

Si la reacción ocurre en un solo paso a través de choques moleculares, podemos


predecir a base de la teoría de colisión la ley de rapidez de reacción.

Ejemplo: Efecto de orientación.

La teoría de las colisiones explica que la velocidad de una reacción química es función
del número de choques que se efectúan entre las moléculas de reactivos con
determinada energía. Imaginemos un recipiente cerrado en
el cual introducimos dos gases, A y B, a temperaturas bajas las moléculas se mezclan
homogéneamente en función de sus densidades; así si los dos gases son ligeros, como
N2 y O2 la composición será la misma en cualquier punto. Si calentamos este recipiente
las moléculas aumentan su energía y en consecuencia se llevarán a cabo un mayor
número de choques dentro del recipiente. A una temperatura determinada la fuerza y el
número de choques es tal que las moléculas de A y B tenderán a disminuir y a la vez un
nuevo tipo de moléculas aparecerán (los productos). El número de moléculas de A y B o
las nuevas que aparecen por combinación de A y B están ligadas a través de la
estequiometría y el mecanismo de la reacción. Si llamamos a la velocidadde la reacción:

rA = rB , α [A] [B]

entonces la velocidad de aparición (o desaparición de A o B) de las nuevas moléculas es


función del número de choques entre A y B, los cuales a su vez dependen de la
concentración de A y B.

En estudios de cinética se observa que la velocidad de reacción se ve afectada en


la practica con variaciones de presión y de temperatura. Sin embargo dichos cambios
son mucho más significativos a las fluctuaciones de las temperaturas y por lo tanto se
suele hacer el estudio dando prioridad a esta variable y despreciando los cambios que
experimenta a las variaciones de presión (esto se apoya en el supuesto de que los
cambios de presión aplicados en el sistema son pequeños y por lo tanto se pueden
considerar despreciables). Sin embargo es muy sensible a la temperatura. La ecuación
que relaciona la temperatura con la velocidad de una reacción (constante de velocidad)
es la ecuación de Arrhenius que se expresa mediante:

Donde 'A' es el factor de frecuencia, 'Ea' es la energía de activación, R es la


constante de los gases y 'T' es la temperatura.

De acuerdo con Arrhenius, la ecuación anterior indica que las moléculas deben
adquirir una cierta energía Ea antes de que puedan reaccionar, siendo el factor de
Boltzmann, exp(-Ea/RT), la fracción de moléculas que están en condiciones de alcanzar
la energía necesaria. Se suele suponer que el factor pre exponencial 'A' o factor de
frecuencia es un valor constante. Sin embargo como se verá mas adelante, este supuesto
no es del todo correcto. Igualmente se asume que la energía de activación es un valor
constante, pero en la realidad el valor de esta constante es un promedio y cuyo valor se
obtiene de:
Teoría de colisiones para las reacciones gaseosas.

Las velocidades de reacción se han medido en soluciones gaseosas, líquidas y


sólidas. Las más investigadas son las líquidas debido a su importancia pero desde un
punto de vista teórico es más asequible un enfoque mediante la teoría estadística de
gases. La primera teoría postula para reacciones gaseosas que para tener reacción, las
moléculas deben aproximarse unas a otras de modo que colisionen. En ciertas ocasiones
dicha interacción produce una reorganización de los enlaces químicos, formando nuevas
moléculas a partir de las primeras. La velocidad de reacción equivale al número de
choques por segundo, multiplicado por la fracción de choques que se puedan considerar
efectivos para producir el cambio químico. En este texto se presentan los resultados mas
significativos de esta teoría, los cuales se presentan a continuación:

Otros desarrollos nos llevan a una ecuación del tipo:

Donde P es un factor estérico o de probabilidad, que da cuenta de una zona


reactiva de interacción molecular. P es menor a la unidad en varios ordenes de
magnitud. Si los cuerpos son 2 átomos, estas ecuaciones son bastante precisas. Sin
embargo el defecto fundamental de la teoría de colisiones es que considera a las
moléculas reaccionantes como esferas rígidas mas que como estructuras fluctuantes de
núcleos y electrones. El factor P da cuenta de esta clase de deficiencia.
Haciendo un desarrollo por medio de teoría del estado de transición por medio de
complejo activado de modo que A + B  (AB)*  Productos, se llega a un resultado
del tipo:

Determinación experimental del orden de reacción y de la constante de


velocidad de reacción.

Sea la reacción del tipo A  Productos. Como se vio anteriormente, este sistema
es de fácil solución si la reacción se lleva a cabo en un paso. Pero no siempre se cuenta
con este tipo de información y es necesario determinar experimentalmente los valores
de ´k´y 'n'. Por tanto se debe resolver la ecuación del tipo:

Para esto se requiere calcular en pequeños intervalos de tiempo las distintas


variaciones de concentración. Es necesario para esto construir una tabla de
concentración en función del tiempo. Para medir estas dos variables se requiere de
alguna técnica experimental que permita tomar estos datos. Esto no es siempre posible
ya que medir la concentración en el tiempo de un reactivo o producto puede no ser
trivial. Una posibilidad es controlar el pH y por tanto calcular la concentración de H3O+
o OH-. Otra posibilidad es medir por absorbancia. Cualquiera sea la técnica,
asumiremos que es posible obtener los datos de concentración en el tiempo.

Asumiendo que la expresión de velocidad puede escribirse como intervalos de


concentración sobre intervalos de tiempo y aplicando logaritmo natural a la expresión
anterior se tiene:

Esta expresión corresponde a una ecuación de una recta del tipo Y = nX + b


donde:

Por tanto se puede hacer regresión lineal sobre 'X' e 'Y' y así se pueden despejar
los valores de 'k' y de 'n' despejando los valores.

Una pregunta interesante es cuestionar que sucede para A + B  Productos.


Para este sistema velocidad de desaparición de A es del tipo:
Para resolver este problema se deben determinar los valores de ´k´, ´n´ y ´m´. Es
necesario realizar varias corridas de datos de concentración versus tiempo de modo que
al tomar dos corridas de datos, se tenga para 'A' concentraciones iniciales distintas y
para 'B' concentraciones iguales. De este modo para ambas velocidades de reacción
(correspondientes a cada una de las corridas), la concentración de 'B' tiene la misma
incidencia y por tanto los cambios de velocidad son perceptibles solo para 'A'. Así se
puede obtener un sistema del tipo:

Esta expresión se resuelve del mismo modo que en el caso de tener un solo
reactivo, obteniendo el valor de 'n'. De igual forma se fija la concentración de A para
dos nuevas corridas de datos y se varía B de modo que se puede obtener el valor de 'm'.
Finalmente, tomando cualquier corrida de datos se puede calcular el valor de 'k'.

Esta metodología es aplicable a 3 o más reactivos, de modo que tan solo una
variable varíe tomando un número de corridas adecuado.

Problema:

Los datos siguientes dan la concentración del butadieno gaseoso a 500 K en


función del tiempo. Determine el orden de la reacción y calcular la constante de
velocidad.

Datos:

t (seg) C (mol/lt)
195 1.62E-02
604 1.47E-02
1246 1.29E-02
2180 1.10E-02
4140 8.90E-03
4655 8.00E-03
6210 6.80E-03
8135 5.70E-03

Solución:

Tomando la ecuación:
Se construye la siguiente tabla:

t (seg) C (mol/lt) dC dt ln(C) = X ln(-dC/dt) = Y


195 1.62E-02
604 1.47E-02 -1.50E-03 409 -4.220 -12.516
1246 1.29E-02 -1.80E-03 642 -4.351 -12.785
2180 1.10E-02 -1.90E-03 934 -4.510 -13.105
4140 8.90E-03 -2.10E-03 1960 -4.722 -13.747
4655 8.00E-03 -9.00E-04 515 -4.828 -13.257
6210 6.80E-03 -1.20E-03 1555 -4.991 -14.075
8135 5.70E-03 -1.10E-03 1925 -5.167 -14.375

Haciendo regresión lineal sobre los valores de X e Y se construye el siguiente


gráfico y se tiene despejando los valores de ´k´y ´n´:

ln (-dC/dt) = -4,5398 + 1,8933 ln(C)


Correlación: 0,951
Covarianza: 0,222

Luego k = 1,067E-2 y n = 1,89 es


aproximadamente 2.

Estrategia probabilística: el diagnóstico médico y la interpretación de las pruebas de


laboratorio poseen frecuentemente un considerable nivel de incertidumbre, lo cual
puede ser representado como asociación probabilística entre variables clínicas. Rara
vez, poseemos certeza absoluta en medicina, ejercemos de hecho, una ciencia inexacta e
incierta. La medicina es una ciencia de probabilidades y un arte de manejar la
incertidumbre (SirWillian Osler) (9,10).

Cuando los médicos usamos el interrogatorio y la exploración física para llegar a un


diagnóstico, expresamos esta incertidumbre o probabilidad no en forma de un
porcentaje real, sino más bien en términos como “casi siempre”, “frecuentemente”, “a
veces” o “rara vez”. Sin embargo, por no ser cuantitativos estos términos, no se les
puede asignar un significado estandarizado. La técnica más satisfactoria para interpretar
los datos clínicos es el uso formal de probabilidades, la relación de probabilidades y la
combinación cuantitativas de ellas.

Para combinar los hallazgos clínicos en forma de probabilidades se requiere una


rigurosa definición de enfermedad. Esta definición, referida como la prueba de oro, se
basa generalmente en hallazgos radiológicos, histológicos, bioquímicos o muchas veces
en criterios clínicos únicamente.

La primera tarea en la aplicación de la estrategia probabilística es estimar la


probabilidad inicial de todas las enfermedades de interés a partir de los datos
demográficos del paciente (género, edad, país, grupo poblacional, factores de riesgo) y
de la presentación de los hallazgos clínicos. El análisis cuidadoso de esta probabilidad
es crítico, porque su valor va a influenciar en grado importante la interpretación de
cualquier hallazgo clínico o pruebas de laboratorio posteriores.

La segunda tarea es determinar la frecuencia de los hallazgos asociados con la


enfermedad bajo hipótesis y con las enfermedades alternas. Se trata de responder
preguntas sobre la frecuencia de asociación de un hallazgo con la entidad clínica. La
sensibilidad y especificidad de los hallazgos asociados con las hipótesis diagnósticas
generan las probabilidades condicionales.

Los hallazgos clínicos y los resultados de laboratorio pueden ser interpretados de


acuerdo con principios matemáticos. El resultado del análisis cuantitativo, después de
interpretar las ayudas diagnósticas teniendo en cuenta la probabilidad inicial y las
probabilidades condicionales, conduce a estimar la probabilidad de que el paciente
presente la enfermedad, concepto conocido como probabilidad posterior. Los valores
numéricos de estos cálculos están basados en las cifras de prevalencia de cada
enfermedad hipotética, en las condiciones del paciente y en la sensibilidad o
especificidad de las pruebas diagnósticas relativas a la enfermedad en las condiciones
del laboratorio. Esta información puede estar disponible en estadísticas regionales, en la
literatura o en estimativos de las probabilidades condicionales, cuando no se conocen.

La estrategia probabilística puede ser una herramienta útil, porque proporciona un


significado explícito de la interpretación del hallazgo o prueba diagnóstica y por
consiguiente ayuda a guiar el proceso diagnóstico, o en casos de mayor complejidad,
genera hipótesis diagnósticas a partir de la frecuencia de asociación de los hallazgos
clínicos.

Dada la rica interrelación de nuestro razonamiento clínico, nosotros utilizamos todas las
estrategias. A causa de que nuestra práctica clínica generalmente es repetitiva y sencilla,
muchas de nuestras decisiones son guiadas por reglas determinísticas aprendidas. El
razonamiento probabilístico o el determinístico puede ser útil para iniciar inferencias de
las causas de los efectos observados o para identificar hipótesis razonables que formarán
el contexto del razonamiento causal. En general, las estrategias de razonamiento son
complementarias. Los modelos probabilísticos, son fuertes en la generación de hipótesis
diagnósticas, críticamente dependiente de la prevalencia de la enfermedad en el grupo
de población del paciente, pero una vez la hipótesis ha sido propuesta el razonamiento
causal permite verificar la causa que explique la observación. Aunque el razonamiento
probabilístico ha dominado la discusión del proceso diagnóstico, a causa de la propuesta
de corroboración iterativa de hipótesis, nuestro conocimiento del proceso diagnóstico
aún permanece muy limitado.

El proceso diagnóstico

El proceso diagnóstico, según la epidemiología clínica, es un proceso de estimación


probabilística. La recolección de datos (síntomas, signos, pruebas diagnósticas), termina
en una expresión probabilística que estima la probabilidad de que un paciente
determinado, tenga la enfermedad (E), y se encuentra entre 0 (certeza absoluta ausencia
de enfermedad) y 1 (certeza absoluta de su presencia) (Figura 1). La medicina no es una
ciencia exacta por ello los médicos rara vez pueden predecir un resultado con absoluta
certeza. La incertidumbre acompaña tanto el proceso diagnóstico como terapéutico y el
modo de cuantificar esta incertidumbre es mediante las probabilidades. No todos los
pacientes con glucemia elevada son diabéticos, ni una sangre oculta positiva en heces
significa con seguridad un cáncer de colon (11, 12).

0
__________________________1

P (E)

Figura1. El diagnóstico, una estimación probabilística de enfermedad.

Hay dos maneras principales de entender el concepto de probabilidad (13):

• Frecuentista (objetiva): la probabilidad de ocurrencia de un suceso, puede


definirse como la proporción de veces (frecuencia relativa) que ocurriría dicho
suceso si se repitiese un experimento o una observación en un número grande de
ocasiones bajo condiciones similares. Si por ejemplo, de cada 1000 personas de
60 años 50 desarrollan cáncer gástrico. La probabilidad de este cáncer en esta
población es: 50/1000: 0.05 :5%
• Bayesiano (subjetivo): refleja el grado de certeza que se posee sobre un suceso.
Es personal. Cuando un individuo llega a nuestra consulta, tenemos una idea a
priori sobre la probabilidad de que tenga una enfermedad (Nos ayudamos de la
incidencia o prevalencia). Una vez se aplica una prueba diagnóstica, nos
aportará una nueva información. La misma prueba ha sido evaluada con
anterioridad en sanos y enfermos. Así, de modo frecuentista se ha estimado
sensibilidad (verdaderos enfermos) y especificidad (verdaderos sanos). En
función del nuevo resultado tenemos una nueva idea (a posteriori) sobre la
probabilidad de que esté enfermo. Nuestra opinión a priori ha sido modificada
por el resultado de un experimento (con ayuda de los índices predictivos, a
través del teorema de Bayes).

La inferencia bayesiana es de gran utilidad en la valoración de pruebas diagnósticas en


la toma de decisiones clínicas dentro del proceso del diagnóstico clínico, y regresaremos
a él posteriormente.

Las pruebas diagnósticas se aplican para aumentar el conocimiento sobre la


probabilidad de una enfermedad en el paciente, pero es imprescindible conocer cómo
varía esa probabilidad a medida que se adquiere mayor información y ello va ligado a
un principio básico: la interpretación de cualquier resultado de una prueba diagnóstica
depende de la probabilidad de la enfermedad antes de realizar las pruebas, es decir la
probabilidad a priori o probabilidad pre-prueba o previa.

Probabilidad pre-prueba (14)

La probabilidad de presentar la enfermedad antes del examen se llama probabilidad pre-


prueba o probabilidad pre-examen. Si un individuo es totalmente asintomático para
alguna enfermedad, la probabilidad pre-prueba es igual a la prevalencia de la condición
en la población (Prevalencia poblacional). Pero, si es un individuo que se presenta con
una dolencia, la probabilidad pre- examen será dada por cada uno de los apartes de la
historia clínica y del examen físico; cada dato será una prueba diagnóstica que
aumentará o disminuirá la probabilidad de un trastorno objetivo.

A la hora de estimar la probabilidad de una enfermedad, la experiencia personal es la


que más influye, pero también depende de la experiencia publicada y de las
características particulares de cada paciente.

Muestreo probabilístico

Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de


equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma
probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente,
todas las posibles muestras de tamaño n tienen la misma probabilidad de ser elegidas.
Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la
muestra extraída y son, por tanto, los más recomendables. Dentro de los métodos de
muestreo probabilísticos encontramos los siguientes tipos:

El método otorga una probabilidad conocida de integrar la muestra a cada elemento de


la población, y dicha probabilidad no es nula para ningún elemento.
Los métodos de muestreo no probabilisticos no garantizan la representatividad de la
muestra y por lo tanto no permiten realizar estimaciones inferenciales sobre la
población.

(En algunas circunstancias los métodos estadísticos y epidemiológicos permiten


resolver los problemas de representatividad aun en situaciones de muestreo no
probabilistico, por ejemplo los estudios de caso-control, donde los casos no son
seleccionados aleatoriamente de la población.)

Entre los métodos de muestreo probabilísticos más utilizados en investigación


encontramos:

• Muestreo aleatorio simple


• Muestreo estratificado
• Muestreo sistemático
• Muestreo polietápico o por conglomerados

-2-

Muestreo aleatorio simple:

El procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de


la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de
números aleatorios, números aleatorios generados con una calculadora u ordenador,
etc.) se eligen tantos sujetos como sea necesario para completar el tamaño de muestra
requerido.

Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica
cuando la población que estamos manejando es muy grande.

Muestreo aleatorio sistemático:

Este procedimiento exige, como el anterior, numerar todos los elementos de la


población, pero en lugar de extraer n números aleatorios sólo se extrae uno. Se parte de
ese número aleatorio i, que es un número elegido al azar, y los elementos que integran
la muestra son los que ocupa los lugares i, i+k, i+2k, i+3k,...,i+(n-1)k, es decir se toman
los individuos de k en k, siendo k el resultado de dividir el tamaño de la población entre
el tamaño de la muestra: k= N/n. El número i que empleamos como punto de partida
será un número al azar entre 1 y k.

El riesgo este tipo de muestreo está en los casos en que se dan periodicidades en la
población ya que al elegir a los miembros de la muestra con una periodicidad constante
(k) podemos introducir una homogeneidad que no se da en la población. Imaginemos
que estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5
primeros son varones y los 5 últimos mujeres, si empleamos un muestreo aleatorio
sistemático con k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no
podría haber una representación de los dos sexos.

Muestreo aleatorio estratificado:


Trata de obviar las dificultades que presentan los anteriores ya que simplifican los
procesos y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste
en considerar categorías típicas diferentes entre sí (estratos) que poseen gran
homogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según
la profesión, el municipio de residencia, el sexo, el estado civil, etc.). Lo que se
pretende con este tipo de muestreo es asegurarse de que todos los estratos de interés
estarán representados adecuadamente en la muestra. Cada estrato funciona
independientemente, pudiendo aplicarse dentro de ellos el muestreo aleatorio simple o
el estratificado para elegir los elementos concretos que formarán parte de la muestra. En
ocasiones las dificultades que plantean son demasiado grandes, pues exige un
conocimiento detallado de la población. (Tamaño geográfico, sexos, edades,...).

La distribución de la muestra en función de los diferentes estratos se denomina


afijación, y puede ser de diferentes tipos:

Afijación Simple: A cada estrato le corresponde igual número de elementos muéstrales.

Afijación Proporcional: La distribución se hace de acuerdo con el peso (tamaño) de la


población en cada estrato.

Afijación Optima: Se tiene en cuenta la previsible dispersión de los resultados, de


modo que se considera la proporción y la desviación típica. Tiene poca aplicación ya
que no se suele conocer la desviación.

-3-

Muestreo aleatorio por conglomerados:

Los métodos presentados hasta ahora están pensados para seleccionar directamente los
elementos de la población, es decir, que las unidades muéstrales son los elementos de la
población.

En el muestreo por conglomerados la unidad muestral es un grupo de elementos de la


población que forman una unidad, a la que llamamos conglomerado. Las unidades
hospitalarias, los departamentos universitarios, una caja de determinado producto, etc.,
son conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no
naturales como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas
geográficas suele hablarse de "muestreo por áreas".

El muestreo por conglomerados consiste en seleccionar aleatoriamente un cierto numero


de conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en
investigar después todos los elementos pertenecientes a los conglomerados elegidos.

-4-

Métodos de muestreo no probabilísticos

A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente


costoso y se acude a métodos no probabilísticos, aun siendo conscientes de que no
sirven para realizar generalizaciones, pues no se tiene certeza de que la muestra extraída
sea representativa, ya que no todos los sujetos de la población tienen la misma
probabilidad de se elegidos. En general se seleccionan a los sujetos siguiendo
determinados criterios procurando que la muestra sea representativa.

· Muestreos No Probabilísticos:

• de Conveniencia
• de Juicios
• por Cuotas
• de Bola de Nieve
• Discrecional

Muestreo por cuotas:

También denominado en ocasiones "accidental". Se asienta generalmente sobre la base


de un buen conocimiento de los estratos de la población y/o de los individuos más
"representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto,
semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de
aleatoriedad de aquél.

En este tipo de muestreo se fijan unas "cuotas" que consisten en un número de


individuos que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25
a 40 años, de sexo femenino y residentes en Gijón. Una vez determinada la cuota se
eligen los primeros que se encuentren que cumplan esas características. Este método se
utiliza mucho en las encuestas de opinión.

Muestreo opinático o intencional:

Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras


"representativas" mediante la inclusión en la muestra de grupos supuestamente típicos.
Es muy frecuente su utilización en sondeos preelectorales de zonas que en anteriores
votaciones han marcado tendencias de voto.

Muestreo casual o incidental:

Se trata de un proceso en el que el investigador selecciona directa e intencionadamente


los individuos de la población. El caso más frecuente de este procedimiento el utilizar
como muestra los individuos a los que se tiene fácil acceso (los profesores de
universidad emplean con mucha frecuencia a sus propios alumnos).

Bola de nieve:

Se localiza a algunos individuos, los cuales conducen a otros, y estos a otros, y así hasta
conseguir una muestra suficiente. Este tipo se emplea muy frecuentemente cuando se
hacen estudios con poblaciones "marginales", delincuentes, sectas, determinados tipos
de enfermos, etc.

-5-
Muestreo Discrecional · A criterio del investigador los elementos son elegidos sobre lo
que él cree que pueden aportar al estudio. · Ej. : muestreo por juicios; cajeros de un
banco o un supermercado; etc.

Ventajas e inconvenientes de los distintos tipos de muestreo probabilístico

CARACTERISTICAS VENTAJAS INCONVENIENTES


• Sencillo y de
fácil
comprensión.
• Cálculo rápido Requiere que se posea
de medias y de antemano un
Se selecciona una
varianzas. listado completo de
muestra de tamaño n de
toda la población.
una población de N
• Se basa en la Cuando se trabaja con
Aleatorio simple unidades, cada elemento
teoría muestras pequeñas es
tiene una probabilidad
estadística, y posible que no
de inclusión igual y
por tanto represente a la
conocida de n/N.
existen población
paquetes adecuadamente.
informáticos
para analizar
los datos
• Fácil de
Conseguir un listado de aplicar.
los N elementos de la • No siempre es
población necesario tener
un listado de
Si la constante de
Determinar tamaño toda la
muestreo está asociada
muestral n. población.
con el fenómeno de
interés, las
Definir un intervalo k= • Cuando la
Sistemático estimaciones
N/n. población está
obtenidas a partir de la
ordenada
muestra pueden
Elegir un número siguiendo una
contener sesgo de
aleatorio, r, entre 1 y k tendencia
selección
(r= arranque aleatorio). conocida,
asegura una
Seleccionar los cobertura de
elementos de la lista. unidades de
todos los tipos.
Estratificado En ciertas ocasiones • Tiende a • Se ha de
resultará conveniente asegurar que la conocer la
estratificar la muestra muestra distribución en
según ciertas variables represente la población de
de interés. Para ello adecuadamente las variables
debemos conocer la a la población utilizadas para
composición en función de la
estratificada de la unas variables estratificación.
seleccionadas.

• Se obtienen
población objetivo a estimaciones
hacer un muestreo. Una más precisa
vez calculado el tamaño
muestral apropiado, este • Su objetivo es
se reparte de manera conseguir una
proporcional entre los muestra lo más
distintos estratos semejante
definidos en la posible a la
población usando una población en lo
simple regla de tres. que a la o las
variables
estratificadoras
se refiere.
• Es muy
eficiente
• El error
Se realizan varias fases cuando la
estándar es
de muestreo sucesivas población es
mayor que en
(polietápico) muy grande y
el muestreo
dispersa.
aleatorio
La necesidad de listados
Conglomerados simple o
de las unidades de una • No es preciso
estratificado.
etapa se limita a aquellas tener un listado
unidades de muestreo de toda la
• El cálculo del
seleccionadas en la etapa población, sólo
error estándar
anterior. de las unidades
es complejo.
primarias de
muestreo.

También podría gustarte