Está en la página 1de 21

La toma de decisiones bajo incertidumbre

En las ocasiones donde no pueden asignarse probabilidades a los eventos posibles, a


la hora de tomar una decisión, se llama toma de decisiones bajo incertidumbre. Se
basa en la experiencia de la persona que tiene que tomar la decisión y se presenta
cuando no se puede predecir el futuro en función de las experiencias pasadas
(normalmente va asociado con muchas variables incontrolables). En este tipo de
decisiones no se conoce como pueden variar o interactuar las diferentes variables del
problema por lo que hay que plantear las diferentes alternativas para la solución

Existen tres criterios a la hora de valorar los resultados de una decisión en


condiciones de incertidumbre;
 Criterio MAXIMIN: También llamado Criterio Wald, consiste en elegir aquella
estrategia que maximice el peor de los resultados posibles. Estaría asociado
a una persona pesimista e intentaría proporcionar el mayor nivel de
seguridad posible.
 Criterio MAXIMAX: según este criterio habría que optar por aquella estrategia
que maximice el mejor de los resultados posibles. También se llama criterio
optimista porque es el que usaría una persona optimista.
 Criterio de la frustración mínima: Ya que la mayoría de las personas no son
extremadamente optimistas ni pesimistas, este criterio establece que hay que
ordenar las estrategias y establecer diferencia entre el resultado obtenido y el
mayor posible con cada posible situación, escogiendo la estrategia que
minimice este resultado.
Tomar decisiones siempre es complicado, sobre todo cuando no se dispone suficiente
información para poder tomarlas con la mayor seguridad posible. Por eso, antes de
tomar cualquier decisión (y más en aquellas decisiones importantes en las que te
juegas el negocio) debes parar y analizar las alternativas. Pero ojo, recuerda que la
peor decisión es la que no se toma.

ECISIONES BAJO CONDICIONES DE


INCERTIDUMBRE
JUAN ANTONIO DEL VALLE FLORES

Para cada tipo de problema de decisi�n existe m�s de un criterio susceptible de


emplearse, cada uno denotando una distinta filosof�a, seg�n la actitud del
decisor y la naturaleza del problema.

La toma de decisiones en condiciones decertidumbre o certeza, ocurre


cuando el decisor conoce el estadode la naturaleza que ocurrir� con
absoluta certeza. En situaciones de esta naturaleza, el decisor conoce el
conjunto de alternativas factibles y las consecuencias de cada una. La
matriz de decisiones tiene una sola columna, dado que se conoce el
estado natural que se presentar�. Por lo tanto a cada alternativa factible
se le asigna un solo resultado posible. El criterio de decisi�n en
problemas bajo certeza consiste en elegir simplemente la alternativa de
mayor beneficio o menor p�rdida.

En cambio, en problemas de decisi�n bajo incertidumbre, como se


mencion� antes,se atiende a problemas de decisiones, en los que no se
conocen las probabilidades de ocurrencia de los estados naturales, por lo
tanto, hay que recurrir a criterios emp�ricos para tomar la decisi�n;
como los siguientes:

2.1 Principios Maximin y Minimax.

Fue sugerido por Abraham Wald y representa una filosof�a pesimista


para alcanzar los resultados. Se tratade asegurar una ganancia o una
p�rdida conservadora. El criterio consiste en identificar el peor resultado
de cada alternativa y de estos peores valores escoger el mejor, la
alternativa correspondiente ser� la elegida, es decir:

MAX [ Min A ] para ganancias �

MIN [ Max A ] para p�rdidas.

2.2 Principios Maximax y Minimin

Estos criterios denotan un optimismo extremo para los resultados de una


decisi�n. La regla es seleccionar la alternativa que ofrece la oportunidad
de obtener el mejor resultado.

MAX [ Max A ] para ganancias �

MIN [ Min A ] para p�rdidas.

2.3 Principio de Hurwics.

Este criterio distingue los resultados m�ximos y m�nimos posibles de


cada alternativa; hecho esto aplica el factor de ponderaci�n � llamado
"�ndice de optimismo relativo", para llegar a la decisi�n mediante el
c�lculo de utilidades esperadas. El criterio se aplica siguiendo la
secuencia:

1.- De la matriz de decisiones se seleccionan el mejor y el peor valor


para cada alternativa, dando lugar a un vector de �ptimos y a otro de
p�simos.

2.- El vector de �ptimos se afecta por el �ndice � y el vector de


p�simos por (1 - �)

El �ndice � varia entre 0 y 1;

   � = 0 para el caso m�s pesimista ( criterio


minimin )

� = 1 para el caso m�s optimista ( criterio maximax )

0 <= � => 1 para los casos intermedios.

3.- La suma de los vectores ( de �ptimos y p�simos ) ya


ponderados, es el vector de valores esperados. La alternativa
seleccionada es aquella que corresponde al m�ximo valor
esperado.

2.4 Criterio de Laplace.

El criterio de Laplace parte del hecho de que no se conocen las


probabilidades de ocurrencia de cada uno de los estados de la
naturaleza, propone que las probabilidades sean las mismas para cada
estado. Como ahora ya se cuenta con informaci�n de la probabilidad de
ocurrencia, se calcula la esperanza matem�tica asociada a cada
alternativa y por �ltimo se selecciona aquella alternativa que
corresponda al m�ximo valor monetario esperado.

Esto se puede expresar as�: P(E)=1/n ; donde n es el n�mero de


estados naturales.

Alternativa elegida ---MAXIMO(Si P(E)Aij )

2.5 Criterio de Savage,modelo de arrepentimiento.


Una vez tomada la decisi�n y producido el estado natural se obtiene un
resultado; Savage argumenta que despu�s de conocer el resultado, el
decisor puede arrepentirse de haber seleccionado una alternativa dada.
Savage sostiene que el decisor debe tratar de que ese arrepentimiento
se reduzca al m�nimo. El criterio es el siguiente:

1.- Formar la matriz de arrepentimientos o de costo de oportunidad. A


cada estado natural se determina el mejor valor para ese estado natural.
A cada estado natural le corresponde una columna en la matriz de
decisiones. En cada columna se determina el mejor valor para ese
estado natural y se sustituye por un cero; esto significa que si ocurre ese
estado natural y escogimos la alternativa que le corresponde a ese valor
�ptimo, nuestro arrepentimiento ser� nulo. En sustituci�n de los
valores del resto de la columna, se escribir� la diferencia entre el
resultado �ptimo y los dem�s resultados; esta diferencia es el costo de
oportunidad o arrepentimiento por no haber escogido la alternativa que
diera el valor �ptimo. La matriz as� formada se conoce como: matriz de
arrepentimientos, de costos de oportunidad o p�rdida de oportunidad.

2.- Una vez formada la matriz de p�rdida de oportunidad, Savage


aconseja escoger la estrategia que corresponde al m�nimo de los
arrepentimientos m�ximos, es decir, se aplica la regla m�nimax.

La alternativa seleccionada ser� aquella que minimiza el


arrepentimiento. Este criterio tiene el inconveniente de que el n�mero de
eventos considerados puede alterar la decisi�n. Adem�s, la regla
utilizada para seleccionar el m�nimo de los arrepentimientos m�ximos
es similar al criterio de Wald, por lo tanto tiene sus inconvenientes.

EJEMPLO

Se desea construir un edificio, y para su dise�o se presentan las


siguientes tres alternativas:

A 1 = Construirlo para que resista un sismo de 6 grados de intensidad.

A2 = Construirlo para que resista un sismo de 8 grados de intensidad.

A3 = Construirlo para que resista un sismo de 10 grados de intensidad.

Los posibles estados naturales son que se presente un sismo de:


E1 : Menos de 6 grados

E2 : Mas de 6 grados y menos de 8.

E3 : Mas de 8 grados y menos de 10.

La matriz de decisiones es:

  E E E
1 2 3

A
1 300 -400 -500
A
2 200 200 -300
A
3 100 100 100

Los resultados son beneficios en millones de pesos. (si son negativos se


trata de da�os)

SOLUCION:

Criterio maximin.

Los valores m�nimos se se�alan con rojo, siendo el maximo de estos


100 que apunta a la alternativa 3.

  E E E
1 2 3

A
1 300 -400 -500
A
2 200 200 -300
A
3 100 100 100

Criterio maximax

Los mejores valores se marcan con rojo y de estos el mejor, 300, apunta
hacia la alternativa 1.

  E E E
1 2 3

A
1 300 -400 -500
A
2 200 200 -300
A
3 100 100 100

Criterio de Hurwicz
Se eligen los mejores y peores valores para cada alternativa, (rojo y azul,
respectivamente)

  E E E
1 2 3

A 1 300 -400 -500


A 2 200 200 -300
A 3 100 100 100

Sea � = 0.80 entonces:

V(A ) = 0.80 (300) + 0.20(-500) = 240 - 100 = 140


1

V(A2) = 0.80(200) + 0.20(-300) = 160 - 60 = 100

V(A ) = 0.80(100) + 0.20(100) = 80 + 20 = 100


Con este criterio la alternativa a elegir es la 1.

Criterio de Laplace:

Siendo el n�mero de Estados de la naturaleza 3, las probabilidades de cada uno


son 0.33...33,por lo que su valor esperado de cada alternativa se muestra
enseguida:

VE(A ) = 0.33 (300) + 0.33(-400) + 0.33(-500) = 99 - 132 - 165 = -198


1

VE(A2) = 0.33(200) + 0.33(200) + 0.33(-300) = 66 + 66 - 99= 33

VE(A ) = 0.33(100) + 0.33(100) + 0.33(100) = 33 + 33 + 33 = 99


La alternativa 3 ser�a la elegida con este criterio.

Criterio de Arrepentimiento de Savage:

Siguiendo los pasos indicados, la matriz de arrepentimiento se empezar�a a


formar eligiendo los mejores valores de cada estado de la naturaleza, quedando la
matriz como la siguiente:

  E E E
1 2 3

A 1 300 -400 -500


A 2 200 200 -300
A 3 100 100 100

Estos mejores valores ser�n disminuidos por cada valor del elemento, la matriz
se ver�a as�:
 

  E 1 E 2 E 3

A 1 0 200-(-400) 100-(-500)
A 300-200
2 0 100-(-300)
A 300-100 200-100
3 0

Finalmente la matriz de arrepentimiento ser�a la siguiente

  E E E
1 2 3

A1 00 600 600
A2 100 00 400
A3 200 100 00

El vector de arrepentimientos m�ximos es [600,400, 200]T, siendo el valor


m�nimo aquel que apunta a la alternativa 3, la cual resulta seleccionada como la
mejor.

Es conveniente efectuar la aplicaci�n de cada uno de los criterios disponibles y


con los resultados en cada caso, reflexionar sobre la "filosof�a" que encierra cada
m�todo, eligiendo seg�n criterio que prevalezca.

UNIDAD 6

El muestreo es una herramienta de la investigación científica. Su función básica es


determinar que parte de una realidad en estudio (población o universo) debe examinarse
con la finalidad de hacer inferencias sobre dicha población. El error que se comete debido a
hecho de que se obtienen conclusiones sobre cierta realidad a partir de la observación de
sólo una parte de ella, se denomina error de muestreo. Obtener una muestra adecuada
significa lograr una versión simplificada de la población, que reproduzca de algún modo
sus rasgos básicos. 
Muestra: En todas las ocasiones en que no es posible o conveniente realizar un censo, lo
que hacemos es trabajar con una muestra, entendiendo por tal una parte representativa de la
población. Para que una muestra sea representativa, y por lo tanto útil, debe de reflejar las
similitudes y diferencias encontradas en la población, ejemplificar las características de la
misma. 
Cuando decimos que una muestra es representativa indicamos que reúne aproximadamente
las características de la población que son importantes para la investigación.

a. Población Los estadísticos usan la palabra población para referirse no sólo a personas
sino a todos los elementos que han sido escogidos para su estudio.

b. Muestra Los estadísticos emplean la palabra muestra para describir una porción escogida
de la población. Matemáticamente, podemos describir muestras y poblaciones al emplear
mediciones como la Media, Mediana, la moda, la desviación estándar. Cuando estos
términos describen una muestra se denominan estadísticas. 

Una estadística es una característica de una muestra, los estadísticos emplean letras latinas
minúsculas para denotar estadísticas y muestras. 

Tipos de muestreo Los autores proponen diferentes criterios de clasificación de los


diferentes tipos de muestreo, aunque en general pueden dividirse en dos grandes grupos:
métodos de muestreo probabilísticos y métodos de muestreo no probabilísticos.

Terminología

• Población objeto: conjunto de individuos de los que se quiere obtener una información.
• Unidades de muestreo: número de elementos de la población, no solapados, que se van a
estudiar. Todo miembro de la población pertenecerá a una y sólo una unidad de muestreo.
• Unidades de análisis: objeto o individuo del que hay que obtener la información.
• Marco muestral: lista de unidades o elementos de muestreo.
• Muestra: conjunto de unidades o elementos de análisis sacados del marco.
Muestreo probabilístico 
Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de
equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma
probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas
las posibles muestras de tamaño n tienen la misma probabilidad de ser elegidas. Sólo estos
métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra
extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo
probabilísticos encontramos los siguientes tipos: 

El método otorga una probabilidad conocida de integrar la muestra a cada elemento de la


población, y dicha probabilidad no es nula para ningún elemento. 

Los métodos de muestreo no probabilísticos no garantizan la representatividad de la


muestra y por lo tanto no permiten realizar estimaciones inferenciales sobre la población.

(En algunas circunstancias los métodos estadísticos y epidemiológicos permiten resolver


los problemas de representatividad aun en situaciones de muestreo no probabilístico, por
ejemplo los estudios de caso-control, donde los casos no son seleccionados aleatoriamente
de la población.) 

Entre los métodos de muestreo probabilísticos más utilizados en investigación


encontramos:

• Muestreo aleatorio simple

• Muestreo estratificado 

• Muestreo sistemático 

• Muestreo polietápico o por conglomerados 


Muestreo aleatorio simple: 

El procedimiento empleado es el siguiente:1) se asigna un número a cada individuo de la


población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de
números aleatorios, números aleatorios generados con una calculadora u ordenador, etc.) se
eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido.
Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la
población que estamos manejando es muy grande. 

Muestreo aleatorio sistemático: 

Este procedimiento exige, como el anterior, numerar todos los elementos de la población,
pero en lugar de extraer n números aleatorios sólo se extrae uno. Se parte de ese número
aleatorio i, que es un número elegido al azar, y los elementos que integran la muestra son
los que ocupa los lugares i, i+k, i+2k, i+3k,...,i+(n-1)k, es decir se toman los individuos de
k en k, siendo k el resultado de dividir el tamaño de la población entre el tamaño de la
muestra: k= N/n. El número i que empleamos como punto de partida será un número al azar
entre 1 y k. 

El riesgo este tipo de muestreo está en los casos en que se dan periodicidades en la
población ya que al elegir a los miembros de la muestra con una periodicidad constante (k)
podemos introducir una homogeneidad que no se da en la población. Imaginemos que
estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5 primeros
son varones y los 5 últimos mujeres, si empleamos un muestreo aleatorio sistemático con
k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una
representación de los dos sexos. 

Muestreo aleatorio estratificado: 


Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos
y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en
considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad
respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el
municipio de residencia, el sexo, el estado civil, etc.). Lo que se pretende con este tipo de
muestreo es asegurarse de que todos los estratos de interés estarán representados
adecuadamente en la muestra. Cada estrato funciona independientemente, pudiendo
aplicarse dentro de ellos el muestreo aleatorio simple o el estratificado para elegir los
elementos concretos que formarán parte de la muestra. En ocasiones las dificultades que
plantean son demasiado grandes, pues exige un conocimiento detallado de la población.
(Tamaño geográfico, sexos, edades,...). 
La distribución de la muestra en función de los diferentes estratos se denomina afijación, y
puede ser de diferentes tipos: 
Afijación Simple: A cada estrato le corresponde igual número de elementos muéstrales.
Afijación Proporcional: La distribución se hace de acuerdo con el peso (tamaño) de la
población en cada estrato. 

Afijación Optima: Se tiene en cuenta la previsible dispersión de los resultados, de modo


que se considera la proporción y la desviación típica. Tiene poca aplicación ya que no se
suele conocer la desviación. 

Muestreo aleatorio por conglomerados: 

Los métodos presentados hasta ahora están pensados para seleccionar directamente los
elementos de la población, es decir, que las unidades muéstrales son los elementos de la
población.

En el muestreo por conglomerados la unidad muestral es un grupo de elementos de la


población que forman una unidad, a la que llamamos conglomerado. Las unidades
hospitalarias, los departamentos universitarios, una caja de determinado producto, etc., son
conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no naturales
como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas
suele hablarse de "muestreo por áreas". 

El muestreo por conglomerados consiste en seleccionar aleatoriamente un cierto número de


conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en investigar
después todos los elementos pertenecientes a los conglomerados elegidos.

Métodos de muestreo no probabilísticos 

A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente


costoso y se acude a métodos no probabilísticos, aun siendo conscientes de que no sirven
para realizar generalizaciones, pues no se tiene certeza de que la muestra extraída sea
representativa, ya que no todos los sujetos de la población tienen la misma probabilidad de
se elegidos. En general se seleccionan a los sujetos siguiendo determinados criterios
procurando que la muestra sea representativa. 

Muestreos No Probabilísticos:
• De Conveniencia 

• De Juicios 

• Por Cuotas de Bola de Nieve Discrecional 

Muestreo por cuotas: 

También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de


un buen conocimiento de los estratos de la población y/o de los individuos más
"representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto,
semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad
de aquél. 

En este tipo de muestreo se fijan unas "cuotas" que consisten en un número de individuos
que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25 a 40 años, de
sexo femenino y residentes en Gijón. Una vez determinada la cuota se eligen los primeros
que se encuentren que cumplan esas características. Este método se utiliza mucho en las
encuestas de opinión. 

Muestreo opinático o intencional: 

Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras


"representativas" mediante la inclusión en la muestra de grupos supuestamente típicos. Es
muy frecuente su utilización en sondeos preelectorales de zonas que en anteriores
votaciones han marcado tendencias de voto. 

Muestreo casual o incidental: 

Se trata de un proceso en el que el investigador selecciona directa e intencionadamente los


individuos de la población. El caso más frecuente de este procedimiento el utilizar como
muestra los individuos a los que se tiene fácil acceso (los profesores de universidad
emplean con mucha frecuencia a sus propios alumnos). 

Bola de nieve:
 Se localiza a algunos individuos, los cuales conducen a otros, y estos a otros, y así hasta
conseguir una muestra suficiente. Este tipo se emplea muy frecuentemente cuando se hacen
estudios con poblaciones "marginales", delincuentes, sectas, determinados tipos de
enfermos, etc. 
Transformada integral
Ir a la navegaciónIr a la búsqueda
Para otros usos de este término, véase Transformada (desambiguación).
Una transformada integral es cualquier Transformación  aplicada sobre
una función  de la forma siguiente:
La entrada de esta función  es una función , y la salida otra función . Una
transformada es un tipo especial de operador matemático. En ella  y  son dos
valores que dependen de su definición, y pueden variar desde  hasta .
Hay numerosas transformadas integrales útiles. Cada una depende de la
función de dos variables escogida, llamada la función núcleo o kernel de la
transformación. Algunos núcleos tienen una función  inversa asociada,  , que (más
o menos) da una transformada inversa:

Un núcleo simétrico es el que es inalterado cuando las dos variables son permutadas.

La estadística es comúnmente considerada como una colección de hechos numéricos


expresados en términos de una relación sumisa, y que han sido recopilados a partir de
otros datos numéricos.
Kendall y Buckland (citados por Gini V. Glas / Julian C. Stanley, 1980) definen la estadística
como un valor resumido, calculado, como base en una muestra de observaciones que
generalmente, aunque no por necesidad, se considera como una estimación de parámetro de
determinada población; es decir, una función de valores de muestra.
"La estadística es una técnica especial apta para el estudio cuantitativo de los fenómenos de
masa o colectivo, cuya mediación requiere una masa de observaciones de otros fenómenos más
simples llamados individuales o particulares". (Gini, 1953.
Murria R. Spiegel, (1991) dice: "La estadística estudia los métodos científicos para recoger,
organizar, resumir y analizar datos, así como para sacar conclusiones válidas y tomar
decisiones razonables basadas en tal análisis.
"La estadística es la ciencia que trata de la recolección, clasificación y presentación de los
hechos sujetos a una apreciación numérica como base a la explicación, descripción y
comparación de los fenómenos". (Yale y Kendal, 1954).
Cualquiera sea el punto de vista, lo fundamental es la importancia científica que tiene la
estadística, debido al gran campo de aplicación que posee. Otros autores tienen definiciones de
la Estadística semejantes a las anteriores, y algunos otros no tan semejantes. Para Chacón esta
se define como "la ciencia que tiene por objeto el estudio cuantitativo de los colectivos"; otros la
definen como la expresión cuantitativa del conocimiento dispuesta en forma adecuada para el
escrutinio y análisis. La más aceptada, sin embargo, es la de Minguez, que define la Estadística
como "La ciencia que tiene por objeto aplicar las leyes de la cantidad a los hechos sociales para
medir su intensidad, deducir las leyes que los rigen y hacer su predicción próxima".

En qué campos se suele aplicar el muestreo estadístico?


Entre los campos de aplicación del muestreo probabilístico, no probabilístico y sus combinaciones, los
más comunes son:
1. Encuestas de opinión:

El muestreo sirve cuando queremos conocer la opinión de una población general sobre temas comunes
que suelen afectar a todos los miembros de una misma comunidad, como la economía o la política como,
por ejemplo:

 Encuestas de hogares
 Encuestas de población activa, desempleo, indicadores de salud, etc.
 Opinión política e intención de voto
 Barómetros de opinión
2. Estudios de medios:

El muestreo puede ayudar también a escoger una muestra representativa de medios o


contenidos presentes en los medios de comunicación de masas y las redes sociales.

 Encuestas de audiencia en radio y televisión


 Encuestas en Redes Sociales
3. Estudios de mercado:

En estudios de mercado y el marketing es crucial saber escoger bien el público


objetivo o target para no malgastar los recursos y conseguir muestras representativas más económicas.
Entre los estudios de mercado en los que más se suele recurrir a técnicas de muestreo, destacan los
siguientes:
 Comportamiento del consumidor de un bien o servicio
 Estudio de segmentación del mercado
 Posicionamiento de un bien o servicio
 Grado de importancia de la mezcla de mercado, por parte del consumidor
 Estudio de opinión de los consumidores, sobre un bien o servicio
 Grado de importancia de atributos comerciales de bienes y servicios
 Medición de la calidad del servicio percibido
 Cambios de tendencia de las ventas
 Métodos para rechazar o aceptar un cliente potencial
 Segmentación de zonas geográficas
 Predicciones de ventas por zonas, bienes, servicios, sucursales, canales de comercialización
 Relacionar características del mercado con características demográficas, geográficas,
psicográficas y sociales

En esta presentación (artículo) pretendo mostrar algunos conceptos básicos que es


necesario tener en cuenta al diseñar tanto un experimento como un plan de muestreo. Se trata
de conceptos ampliamente conocidos pero serán presentados de una forma sistematizada
para poder reflexionar sobre ellos. Una muestra es un conjunto (observado) de elementos
extraídos de un conjunto mayor o población (no observado) de la que se desea obtener
información sobre una variable. Lo importante de una muestra estadística radica en la forma
cómo se extraen sus elementos, y de una población en la forma de medir la variable de
interés. Es decir, las principales cuestiones que es necesario plantearse son: ¿cuál es el
objetivo del estudio?, ¿cómo se han de seleccionar los elementos de la muestra?, ¿cuántos
elementos deben constituir la muestra?, ¿cómo han de estimarse las características de la
población?, ¿cómo de fiables son esas estimas?

Objetivos del muestreo:


Estimación y Verificación de hipótesis
Dependiendo del objetivo del estudio, se pueden distinguir dos enfoques para el muestreo: ¿Se hace un
muestreo para estimar un parámetro poblacional o para tener una estima de las diferencias entre niveles de
un tratamiento?. Por ejemplo, ¿se hace un muestreo para estimar la población de Ceratitis  en una variedad de
naranja en la Comunidad Valenciana o para comparar que la población de mosca ha disminuido con respecto
al año anterior?. Aunque existe un gran parecido en las fórmulas para contestar a esas preguntas, ambos
casos representan dos objetivos o enfoques claramente diferenciados. El primer caso es característico de los
estudios de encuestas o, en el ámbito de esta charla, para conocer densidad de plagas; es decir; se desea
conocer valores absolutos de la variable de interés.
Por el contrario, en el segundo caso, un objetivo es estimar los valores de las medias de los tratamientos y
proporcionar estimas de las diferencias entre ellas así como de sus errores típicos, de modo que se pueda
tomar una decisión con respecto a una hipótesis propuesta. Igualmente, un objetivo de este tipo de estudios
en el caso de muestro por etapas puede ser estimar las varianzas de los diferentes componentes del modelo
para calcular posteriormente tamaños óptimos de muestra. Muchas veces se da demasiada importancia al
segundo enfoque en detrimento del primero. Perry (1986) hace notar que las pruebas de significación tienen
un papel limitado en Biología porque la significación está relacionada con plausibilidad, no con importancia
biológica.
El resultado de una prueba depende tanto del número de repeticiones como de la magnitud del efecto
estudiado; una hipótesis nula (por ejemplo, ausencia de efecto de insecticida frente a un control) puede
saberse que es falsa incluso antes de hacer el experimento; por tanto, probar esa hipótesis es redundante y
su nivel de significación carente de sentido pues debemos diferenciar entre lo que es la significación
estadística de la significación práctica o biológica. Muchas veces, el verdadero y principal interés debería ser
estimar la magnitud de los efectos de los tratamientos.
Aquí, una pregunta relevante no es si el aumento en la dosis de alimento aumenta la fecundidad sino ¿cuánto
aumenta la fecundidad por cada unidad de aumento en consumo de alimento?, y, ¿a qué nivel de dosis deja
de ser lineal esa relación?. En el mismo contexto, muchos autores han puesto de manifiesto los errores que
se cometen al realizar comparaciones múltiples de medias como la de Duncan. De hecho, según Johnson y
Berger, (1982), más de dos tercios de las casi 200 tablas y figuras presentados en Phytopathology abusaron o
hicieron uso erróneo de esas pruebas.

Muestreo y Diseño de Experimentos


En general, suele verse al muestreo y al diseño de experimentos como dos disciplinas separadas. Nada más
alejado de la realidad. El diseño de un experimento se puede definir como los pasos previos a la realización
del mismo, dirigidos a asegurar que los datos se obtengan de tal modo que permitan realizar un análisis
objetivo de los mismos encaminado a efectuar generalizaciones válidas con respecto al problema planteado.
Por tanto, implícito en la definición de diseño de experimentos está el hecho de que es una forma de tomar
datos; es decir, de hacer un muestreo, de modo que las generalizaciones sean válidas. Si los elementos de la
población muestran un cierto grado de homogeneidad, o de heterogeneidad no atribuible a ninguna causa o
estructura, se recomienda realizar un muestreo aleatorio simple; en términos de diseño este plan de muestreo
es equivalente a un diseño totalmente aleatorizado.
Por el contrario, si la variabilidad de las unidades experimentales no es homogénea pero se pueden identificar
partes o "estratos" que tienen una cierta homogeneidad, el muestreo recomendado es el estratificado
realizando un muestreo aleatorio dentro de cada estrato. En circunstancias similares, el experimentador
debería utilizar un diseño en bloques al azar de forma que los bloques serían los estratos, aleatorizando los
tratamientos dentro de los bloques dado que la máxima variabilidad se encuentra entre bloques. En otras
ocasiones se realiza un muestreo por etapas, por ejemplo haciendo un muestreo primero de árboles, después
ramas dentro de cada árbol y, por último, hojas dentro de una misma rama. Este proceder es idéntico al
diseño jerárquico o anidado. Por tanto, uno puede pensar en muestreo de la misma manera que lo haría en
diseño y viceversa.

Definición y cuantificación de la variable:


Distribuciones y patrón de dispersión espacial
Una vez definidos los objetivos del estudio, es necesario cuantificar la variable de interés. Esta etapa es
decisiva ya que una vez definida la forma de cuantificación, el análisis posterior de los datos queda
definitivamente fijado. Por ejemplo si se estudia un ataque de Pseudomonas en diversas variedades de olivo,
se puede cuantificar la variable por el peso total de los tumores o por su número, o simplemente por la
presencia o no de ellos. Cada uno de estas variables tiene un tipo diferente de distribución por lo que
demandará, en principio, un tipo diferente de análisis.
Así, en el caso del peso, que es una variable cuantitativa, es de esperar que se distribuya normalmente por lo
que un ANOVA sería el enfoque adecuado para estudiar las diferencias entre variedades. Sin embargo, es
posible que ese tipo de análisis no deba utilizarse con las otras dos formas de cuantificar la variable. La mayor
parte de los estudios en entomología se basan en conteos. Este tipo de variables según se expresen en
presencia/ausencia o en el número total de individuos, presentan un tipo diferente de distribución estadística.
Así, si el experimento está formado por un conjunto n de pruebas independientes (cada uno de los árboles
sobre los que se hace el muestreo, por ejemplo), cada una de ellas con un resultado que podemos clasificar
como éxito o fracaso (presencia o ausencia de tumores) y la probabilidad de éxito es constante a lo largo de
las pruebas, entonces, la variable se distribuye binomialmente.
Un caso claro de este tipo de variable es cuando la unidad de muestreo presenta o está afectada (o no) por la
plaga o enfermedad, siempre que se cumpla con el requisito de independencia y de equiprobabilidad.
Normalmente, este tipo de variables se expresa como porcentajes; sin embargo, no todos los porcentajes
conducen a una distribución binomial. El porcentaje correspondiente a "parte de un todo" (por ejemplo el
porcentaje o proporción de superficie de hoja atacada por el minador de los cítricos), no es una variable que
se distribuya según una binomial. Si el tamaño de la población sobre la que se hace el muestreo no es muy
grande en relación con la muestra tomada, la probabilidad de que aparezca la enfermedad variará en cada
prueba ya que el muestreo es sin reemplazamiento; en este caso la variable sigue una distribución llamada
hipergeométrica.
Si se utilizan conteos en valor absoluto, la distribución estadística de la variable dependerá del patrón de
dispersión espacial de la plaga. Si se puede considerar que está aleatoriamente dispersa, la variable sigue
una distribución Poisson. En este tipo de distribución la media y la varianza son iguales. Por el contrario, si el
patrón espacial no es aleatorio sino que está formando agregados o "manchas", la distribución de frecuencias
está generalmente más "extendida" por lo que la varianza es mayor que la esperada para una Poisson.
La distribución binomial negativa suele ajustarse mejor a ese tipo de distribución con colas más largas.
Cuando las unidades de muestreo se toman en grupos o "clusters", y el patrón de dispersión espacial muestra
agregados, la distribución beta-binomial suele usarse para caracterizar la distribución del número de unidades
de muestreo afectadas en el grupo. Si la variable sigue cualquiera de estas distribuciones, el analizar los
resultados mediante un ANOVA puede dar lugar a conclusiones erróneas y deben emplearse métodos
alternativos como los basados en el modelo lineal generalizable (M CCULLAGH Y NELDER, 1989). Sin embargo,
gracias el teorema del límite central, cualquiera que sea la distribución de la variable, la distribución de la
media de las muestras tiende a una distribución normal si el tamaño de muestra es suficientemente grande.
Además, se ha demostrado que el ANOVA es bastante robusto a ligeras discrepancias de la normalidad si el
diseño es equilibrado. De todos modos, esta afirmación no implica una excusa para creer que todos los
análisis son correctos. Cada situación debe ser estudiada con detalle para verificar que los términos "tiende
a", "suficientemente" y "ligeras" realmente se cumplen.

Tamaño de muestra
Ésta suele ser una pregunta muy repetida en la conversación investigador-estadístico. Es necesario
determinar el tamaño mínimo del experimento con objeto de que el diseño sea eficiente. Sin embargo, la
contestación ansiada por el investigador no es siempre fácil. A esta pregunta suelo contestar, con una serie
de preguntas. Si el experimentador no conoce las respuestas, lo normal es llegar a un compromiso basado en
el número máximo de unidades experimentales que es capaz de manejar de forma homogénea, siempre que
el presupuesto lo permita.
Supongamos que se hace un muestreo de hojas de cítricos para estimar la cantidad de unos ácaros. Si todas
las hojas tuvieran el mismo número de ácaros, bastaría con tomar solamente una hoja para obtener el valor
promedio representativo del numero de ácaros por hoja en la parcela. Por el contrario, es evidente que si la
variación entre hojas es grande, necesitamos tomar más de una hoja para efectuar la estima. El tamaño de
muestra depende, por tanto, de la variabilidad esperada.
Por otro lado, si queremos tener una gran precisión en la estima dada por la muestra (diferencia entre el valor
verdadero y el predicho por la estima) es lógico que debamos tomar una muestra de mayor tamaño que si la
precisión deseada es menor. Igualmente, si necesitamos tener una gran confianza en la estimación, la
muestra debe ser mayor. En menor medida, también influye en el tamaño de muestra el tamaño de la
población en la que se realizará el muestreo. Por tanto, la formula que da el tamaño de muestra para estimar
el valor medio con una confianza del (1 - ) por ciento es en donde 2 es la varianza poblacional, p la precisión
deseada y z (1 - )/2 el valor de una distribución normal correspondiente a un área del (1 - ); como este valor es
próximo a 2 para las confianzas usuales (90, 95, 99%), se suele aproximar por la expresión anterior. Si la
varianza poblacional es desconocida, se puede aproximar por la estimación a partir de una muestra piloto o
por su relación con el rango esperado; en este caso, la distribución normal debería sustituirse por un t de
Student mediante un proceso iterativo. Si el tamaño poblacional N no es muy grande con relación al muestral
n, la anterior fórmula debe modificarse ligeramente:
Para el caso de verificación de hipótesis, las fórmulas son algo más complejas pues es necesario determinar
el contraste más interesante o crítico para el estudio pero básicamente se sustentan en el mismo concepto.

Muestreo y submuestreo
Por repetición se entiende obtener más de una observación por combinación de factores; es decir que la
combinación de factores (tratamientos, bloques, etc.) más amplia se aplica a más de una unidad experimental.
De la misma forma, viendo la definición al revés, y aunque a veces es complicado definirla de forma precisa,
una unidad experimental es aquel ente (no necesariamente físico tal como una parcela, un árbol, etc.) que
recibe la combinación de factores de forma independiente de otra unidad experimental. El punto importante a
señalar es que la obtención se hace de forma independiente.

UNIDAD 7

La estimación de parámetros es el procedimiento utilizado para conocer las


características de un parámetro poblacional, a partir del conocimiento de la
muestra.
 

Con una muestra aleatoria, de tamaño n, podemos efectuar una estimación de un


valor de un parámetro de la población; pero también necesitamos precisar un:

Intervalo de confianza

Se llama así a un intervalo en el que sabemos que está un parámetro, con un nivel
de confianza específico

Máxima verosimilitud
Ir a la navegaciónIr a la búsqueda
En estadística, la estimación por máxima verosimilitud (conocida también
como EMV y, en ocasiones, MLE por sus siglas en inglés) es un método habitual
para ajustar un modelo y estimar sus parámetros
La idea de este método es la de encontrar primero la función de densidad conjunta de todas
las observaciones, que bajo condiciones de independencia, es
Observando esta función bajo un ángulo ligeramente distinto, se puede suponer que los
valores observados x1, x2, …, xn son fijos mientras que θ puede variar libremente. Esta es
la función de verosimilitud:
En ocasiones este estimador es una función explícita de los datos observados x1, …, xn, pero
muchas veces hay que recurrir a optimizaciones numéricas. También puede ocurrir que el
máximo no sea único o no exista.
En la exposición anterior se ha asumido la independencia de las observaciones, pero no es un
requisito necesario: basta con poder construir la función de probabilidad conjunta de los datos
para poder aplicar el método. Un contexto en el que esto es habitual es el del análisis
de series temporales.
En probabilidad y estadística, la distribución t (de Student) es una distribución de
probabilidad que surge del problema de estimar la media de una población normalmente
distribuida cuando el tamaño de la muestra es pequeño.
Aparece de manera natural al realizar la prueba t de Student para la determinación de las
diferencias entre dos varianzas muestrales y para la construcción del intervalo de
confianza para la diferencia entre las partes de dos poblaciones cuando se desconoce
la desviación típica de una población y esta debe ser estimada a partir de los datos de una
muestra.
Fue desarrollada por William Sealy Gosset, bajo el seudónimo Student
Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de
la optimización matemática, en la que, dados un conjunto de pares ordenados —variable
independiente, variable dependiente— y una familia de funciones, se intenta encontrar
la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor
ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las
ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los
correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados
promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso
por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el
residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un
gran número de iteraciones para converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método de
mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria.
El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de
sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución
normal. También es importante que los datos a procesar estén bien escogidos, para que
permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en
particular, véase mínimos cuadrados ponderados).

la distribución de Pearson, llamada también ji cuadrada(o) o chi


cuadrado(a) (χ²), es una distribución de probabilidad continua con un

parámetro   que representa los grados de libertad de la variable aleatoria

Donde   son variables aleatorias normales independientes de media cero

y varianza uno. El que la variable aleatoria   tenga esta distribución se


representa habitualmente así:  .

La distribución chi-cuadrado se utiliza en las pruebas de chi-cuadrado para


la bondad de ajuste de una distribución observada a una teórica, en el test de
independencia de dos criterios de clasificación de los datos cualitativos, y en la
estimación del intervalo de confianza para una desviación estándar de la
población de una distribución normal de una desviación estándar de la muestra.

En estadística, se llama intervalo de confianza a un par o varios pares de números entre los


cuales se estima que estará cierto valor desconocido con un determinado nivel de confianza.
Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de
una muestra, y el valor desconocido es un parámetro poblacional. El nivel de confianza
representa el porcentaje de intervalos que tomados de 100 muestras independientes distintas
contienen en realidad el valor desconocido. En estas circunstancias, α es el llamado error
aleatorio o nivel de significación, esto es, el número de intervalos sobre 100 que no contienen
el valor1
El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un
intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de confianza), mientras
que para un intervalo más pequeño, que ofrece una estimación más precisa, aumenta su
probabilidad de error.
Para la construcción de un determinado intervalo de confianza es necesario conocer
la distribución teórica que sigue el parámetro a estimar, θ.2 Es habitual que el parámetro
presente una distribución normal. También pueden construirse intervalos de confianza con
la desigualdad de Chebyshev.
En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un parámetro
poblacional θ que sigue una determinada distribución de probabilidad, es una expresión del
tipo [θ1, θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de distribución de probabilidad
de θ.

Qué es una prueba de hipótesis?


Más información sobre Minitab 18 

Una prueba de hipótesis es una regla que especifica si se puede aceptar o rechazar
una afirmación acerca de una población dependiendo de la evidencia proporcionada
por una muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es el enunciado que se
probará. Por lo general, la hipótesis nula es un enunciado de que "no hay efecto" o "no
hay diferencia". La hipótesis alternativa es el enunciado que se desea poder concluir
que es verdadero de acuerdo con la evidencia proporcionada por los datos de la
muestra.

Con base en los datos de muestra, la prueba determina si se puede rechazar la


hipótesis nula. Usted utiliza el valor p para tomar esa decisión. Si el valor p es menor
que el nivel de significancia (denotado como α o alfa), entonces puede rechazar la
hipótesis nula.

Un error común de percepción es que las pruebas estadísticas de hipótesis están


diseñadas para seleccionar la más probable de dos hipótesis. Sin embargo, al diseñar
una prueba de hipótesis, establecemos la hipótesis nula como lo que queremos
desaprobar. Puesto que establecemos el nivel de significancia para que sea pequeño
antes del análisis (por lo general, un valor de 0.05 funciona adecuadamente), cuando
rechazamos la hipótesis nula, tenemos prueba estadística de que la alternativa es
verdadera. En cambio, si no podemos rechazar la hipótesis nula, no tenemos prueba
estadística de que la hipótesis nula sea verdadera. Esto se debe a que no establecimos
la probabilidad de aceptar equivocadamente la hipótesis nula para que fuera pequeña.

También podría gustarte