Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Que Es Estimación
Que Es Estimación
Estimacin estadstica
Este artculo o seccin necesita referencias que aparezcan en una publicacin acreditada. Este
aviso fue puesto el 31 de marzo de 2010.
Puedes aadirlas o avisar al autor principal del artculo en su pgina de discusin pegando:
Estimacin puntual:2
Estimacin bayesiana.
ndice
[ocultar]
1Estimador
2Estimacin puntual
3.1Intervalo de confianza
3.3Error de la estimacin
3.4Lmite de Confianza
3.5Valor
3.6Valor crtico
4Vase tambin
5Referencias
Estimador[editar]
Un estimador es una regla que establece cmo calcular una estimacin basada en las
mediciones contenidas en una muestra estadstica.
Estimacin puntual[editar]
Consiste en la estimacin del valor del parmetro mediante un slo valor, obtenido de una
frmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado
grupo de individuos, puede extraerse una muestra y ofrecer como estimacin puntual la talla
media de los individuos. Lo ms importante de un estimador, es que sea un estimador
eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o
eficiente (varianza mnima) Estimacin puntual. Sea X una variable poblacional con
distribucin F , siendo desconocido. El problema de estimacin puntual consiste en,
seleccionada una muestra X1, ..., Xn, encontrar el estadstico T(X1, ..., Xn) que mejor estime
el parmetro . Una vez observada o realizada la muestra, con valores x1, ..., xn, se obtiene la
estimacin puntual de , T(x1, ..., xn) = .
Vemos a continuacin dos mtodos para obtener la estimacin puntual de un parmetro:
mtodo de los momentos y mtodo de mxima verosimilitud. Mtodo de los momentos:
consiste en igualar momentos poblacionales a momentos muestrales. Deberemos tener tantas
igualdades como parmetros a estimar. Momento poblacional de orden r r = E(Xr) Momento
muestral de orden r ar = Xn i=1 Xr i n
Mtodo de mxima verosimilitud: consiste en tomar como valor del parmetro aquel que
maximice la probabilidad de que ocurra la muestra observada. Si X1, ..., Xn es una muestra
seleccionada de una poblacin con distribucin F o densidad f(x), la probabilidad de que
ocurra una realizacin x1, ..., xn viene dada por: L(x1, ..., xn) = Yn i=1 f(xi)
A L(x1, ..., xn) se le llama funcin de verosimilitud.(credibilidad de la muestra observada).
Buscamos entonces el valor de que maximice la funcin de verosimilud, y al valor obtenido
se le llama estimacin por mxima verosimilitud de . Nota: si la variable X es discreta, en
lugar de f(xi ) consideramos la funcin masa de probabilidad p(xi).
Ejemplo 7.1: Sea X N(, ), con desconocido. Seleccionada una m.a.s. X1, ..., Xn, con
realizacin x1, ..., xn, estimamos el parmetro por ambos mtodos. Segn el mtodo de los
momentos: E(X) = Xn i=1 Xi n = X, y al ser = E(X) se obtiene que = x. Por el mtodo
de mxima verosimilitud: L(x1, ..., xn) = Yn i=1 f(xi ) = = Yn i=1 1 2 e (xi) 2 2
Estimacin por Intervalos de conanza 109 y maximizamos en tal funcin; en este caso
resulta ms fcil maximizar su logaritmo: lnL(x1, ..., xn) = 1 2 2 Xn i=1 (xi ) 2 n ln(
2) lnL(x1, ..., xn) = 1 2 Xn i=1 (xi ) = n x n 2 = 0 =
Intervalo de confianza[editar]
El intervalo de confianza es una expresin del tipo [1, 2] 1 2, donde es el
parmetro a estimar. Este intervalo contiene al parmetro estimado con un determinado nivel
de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un
axioma o un equivalente circunstancial.
Error de la estimacin[editar]
Es una medida de su precisin que se corresponde con la amplitud del intervalo de confianza.
Cuanta ms precisin se desee en la estimacin de un parmetro, ms estrecho deber ser el
intervalo de confianza y, si se quiere mantener o disminuir el error, ms observaciones
debern incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la
muestra, ms error se comete al aumentar la precisin. Se suele llamarE, segn la frmula E
= (2 - 1)/2.
Lmite de Confianza[editar]
Es la probabilidad de que el verdadero valor del parmetro estimado en la poblacin se site
en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-), aunque
habitualmente suele expresarse con un porcentaje ((1-)100%). Es habitual tomar como nivel
de confianza un 95% o un 99%, que se corresponden con valores de 0,05 y 0,01
respectivamente.
Valor [editar]
Tambin llamado nivel de significacin. Es la probabilidad (en tanto por uno) de fallar en
nuestra estimacin, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-). Por
ejemplo, en una estimacin con un nivel de confianza del 95%, el valor es (100-95)/100 =
0,05
Valor crtico[editar]
Se representa por Z/2. Es el valor de la abscisa en una determinada distribucin que deja a su
derecha un rea igual a /2, siendo 1- el nivel de confianza. Normalmente los valores crticos
estn tabulados o pueden calcularse en funcin de la distribucin de la poblacin. Por
ejemplo, para una distribucin normal, de media 0 y desviacin tpica 1, el valor crtico para
= 0,1 se calculara del siguiente modo: se busca en la tabla de la distribucin ese valor (o el
ms aproximado), bajo la columna "rea"; se observa que se corresponde con -1,28.
Entonces Z/2 = 1,64. Si la media o desviacin tpica de la distribucin normal no coinciden con
las de la tabla, se puede realizar el cambio de variable t =(X-)/ para su clculo.
Con estas definiciones, si tras la extraccin de una muestra se dice que "3 es una estimacin
de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos
interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una
probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando,
respectivamente, la mitad del error, para obtener el intervalo de confianza segn las
definiciones dadas.
Para un tamao fijo de la muestra, los conceptos de error y nivel de confianza van
relacionados. Si admitimos un error mayor, esto es, aumentamos el tamao del intervalo de
confianza, tenemos tambin una mayor probabilidad de xito en nuestra estimacin, es decir,
un mayor nivel de confianza.
Que es probabilidad
Probabilidad
La probabilidad es un mtodo por el cual se obtiene la frecuencia de un acontecimiento
determinado mediante la realizacin de experimentos aleatorios, de los que se conocen todos
los resultados posibles, bajo condicionessuficientemente estables. La probabilidad es un
evento o suceso que puede ser improbable, probable o seguro.
La teora de la probabilidad se usa extensamente en reas como la estadstica, la fsica,
la matemtica, lasciencias y la filosofa para sacar conclusiones sobre la probabilidad discreta
de sucesos potenciales y la mecnica subyacente discreta de sistemas complejos, por lo tanto
es la rama de las matemticas que estudia, mide o determina a los experimentos o fenmenos
aleatorios.
ndice
[ocultar]
1Historia
2Teora
2.1Regla de la adicin
2.2Regla de la multiplicacin
2.3Regla de Laplace
2.4Distribucin binomial
3Aplicaciones
3.1Investigacin biomdica
4Vase tambin
5Referencias
Historia[editar]
Artculo principal: Historia de la probabilidad
La definicin de probabilidad se produjo debido al deseo del ser humano por conocer con
certeza los eventos que sucedern en el futuro, es por eso que a travs de la historia se han
desarrollado diferentes enfoques para tener un concepto de la probabilidad y determinar sus
valores.
El diccionario de la Real Academia Espaola (R.A.E) define azar como una casualidad, un
caso fortuito, y afirma que la expresin al azar significa sin orden. 1 La idea de
Probabilidad est ntimamente ligada a la idea de azar y nos ayuda a comprender nuestras
posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon
Laplace afirm: "Es notable que una ciencia que comenz con consideraciones sobre juegos
de azar haya llegado a ser el objeto ms importante del conocimiento humano". Comprender y
estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar
decisiones en cualquier mbito.2
Segn Amanda Dure, "Antes de la mitad del siglo XVII, el trmino 'probable' (en latn probable)
significabaaprobable, y se aplicaba en ese sentido, unvocamente, a la opinin y a la accin.
Una accin u opinin probable era una que las personas sensatas emprenderan o
mantendran, en las circunstancias."3
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI,
la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise
Pascal (1654). Christiaan Huygens(1657) le dio el tratamiento cientfico conocido ms
temprano al concepto. Ars Conjectandi (pstumo, 1713) deJakob Bernoulli y Doctrine of
Chances (1718) de Abraham de Moivre trataron el tema como una rama de lasmatemticas.
Vase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para
una historia de los inicios del desarrollo del propio concepto de probabilidad matemtica.
La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea (pstumo,
1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa
en 1756) aplic por primera vez la teora para la discusin de errores de observacin. La
reimpresin (1757) de esta memoria expone los axiomas de que los errores positivos y
negativos son igualmente probables, y que hay ciertos lmites asignables dentro de los cuales
se supone que caen todos los errores; se discuten los errores continuos y se da una curva de
la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinacin
de observaciones a partir de los principios de la teora de las probabilidades. Represent la ley
de la probabilidad de error con una curva , siendo cualquier error e y su probabilidad, y
expuso tres propiedades de esta curva:
1. es simtrica al eje ;
2. el eje es una asntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una frmula para la media de tres observaciones. Tambin obtuvo (1781) una frmula
para la ley de facilidad de error (un trmino debido a Lagrange, 1774), pero una que llevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del mximo producto
de las probabilidades de un sistema de errores concurrentes.
El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en
su Nouvelles mthodes pour la dtermination des orbites des comtes (Nuevos mtodos para
la determinacin de las rbitas de los cometas). Ignorando la contribucin de Legendre, un
escritor irlands estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por
primera vez la ley de facilidad de error,
siendo y constantes que dependen de la precisin de la observacin. Expuso dos
demostraciones, siendo la segunda esencialmente la misma de John
Herschel (1850). Gauss expuso la primera demostracin que parece que se conoci en
Europa (la tercera despus de la de Adrain) en 1809. Demostraciones adicionales se
expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel(1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros
personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872)
y Giovanni Schiaparelli (1875). La frmula de Peters (1856) para , el error probable de una
nica observacin, es bien conocida.
En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre
Lacroix (1816), Littrow (1833),Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, yKarl Pearson. Augustus De
Morgan y George Boole mejoraron la exposicin de la teora.
En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando
teora de la medida.
Teora[editar]
Artculo principal: Teora de la probabilidad
Regla de la adicin[editar]
La regla de la adicin o regla de la suma establece que la probabilidad de ocurrencia
de cualquier evento en particular es igual a la suma de las probabilidades individuales,
si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden
ocurrir al mismo tiempo.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) =
P(A) + P(B) P(A y B) si A y B son no excluyentes.
Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de
ocurrencia del evento B. P(A y B) = probabilidad de ocurrencia simultnea de los
eventos A y B.
Regla de la multiplicacin[editar]
La regla de la multiplicacin establece que la probabilidad de ocurrencia de dos o ms
eventos estadsticamente independientes es igual al producto de sus probabilidades
individuales.
Regla de Laplace[editar]
La Regla de Laplace establece que:
Para aplicar la regla de Laplace es necesario que los experimentos den lugar a
sucesos equiprobables, es decir, que todos tengan o posean la misma probabilidad.
Distribucin binomial[editar]
La probabilidad de ocurrencia de una combinacin especfica de eventos
independientes y mutuamente excluyentes se determina con la distribucin binomial,
que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o
si/no.
1. Hay dos resultados posibles mutuamente excluyentes en cada ensayo u
observacin.
2. La serie de ensayos u observaciones constituyen eventos independientes.
3. La probabilidad de xito permanece constante de ensayo a ensayo, es decir
el proceso es estacionario.
Para aplicar esta distribucin al clculo de la probabilidad de obtener un nmero dado
de xitos en una serie de experimentos en un proceso de Bermnoulli, se requieren
tres valores: el nmero designado de xitos (m), el nmero de ensayos y
observaciones (n); y la probabilidad de xito en cada ensayo (p).
Entonces la probabilidad de que ocurran m xitos en un experimento de n ensayos es:
P (x = m) = (nCm)(Pm)(1P)nm
Siendo: nCm el nmero total de combinaciones posibles de m elementos en un
conjunto de n elementos.
En otras palabras P(x = m) = [n!/(m!(nm)!)](pm)(1p)nm
Ejemplo. La probabilidad de que un alumno apruebe la asignatura Clculo de
Probabilidades es de 0,15. Si en un semestre intensivo se inscriben 15 alumnos Cul
es la probabilidad de que aprueben 10 de ellos?
P(x = 10) = 15C10(0,15)10(0,85)5 = 15!/(10!(1510)!)(0,15)10(0,85)5 = 7,68 *
106 Generalmente existe un inters en la probabilidad acumulada de "m o ms "
xitos o "m o menos" xitos en n ensayos. En tal caso debemos tomar en cuenta que:
P(x < m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m 1)
P(x > m) = P(x = m+ 1) + P(x = m+ 2) + P(x = m+3) +....+ P(x = n)
P(x m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m)
P(x m) = P(x = m) + P(x = m+1) + P(x = m+2) +....+ P(x = n)
Supongamos que del ejemplo anterior se desea saber la probabilidad de que
aprueben:
a. al menos 5
b. ms de 12
a. la probabilidad de que aprueben al menos 5 es:
P(x 5) es decir, que:
1 - P(x < 5) = 1 - [P(x = 0)+P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)] =
1 - [0,0874 + 0,2312 + 0,2856 + 0,2184 + 0,1156] = 0,0618
Nota: Al menos, a lo menos y por lo menos son locuciones adverbiales sinnimas.
Ejemplo: La entrada al cine por lo menos tendr un costo de 10 soles (como mnimo
podra costar 10 soles o ms).
b. la probabilidad de que aprueben ms de 12 es P(x > 12) es decir, que:
P(x > 12) = P(x = 13)+P(x = 14)+P(x = 15)
P(x > 12) = 1,47 *109 +3,722 *1011 +4,38 *1013 = 1,507 *109
La esperanza matemtica en una distribucin binomial puede expresarse como:
E(x) = np = 15(0,15)=2,25
Y la varianza del nmero esperado de xitos se puede calcular directamente:
Var(x) = np(1p)= 15(0,15)(1-0,15)=1,9125 Estadsticas y probabilidades, con sus
diferentes diagramaciones como: diagrama de barras. diagrama de lnea. y diagrama
de crculos que se aplican de acuerdo al tipo de estadsticas y probabilidades
matemticas.
Aplicaciones[editar]
Dos aplicaciones principales de la teora de la probabilidad en el da a da son en el
anlisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican mtodos probabilsticos enregulacin ambiental donde
se les llama "anlisis de vas de dispersin", y a menudo miden el bienestar usando
mtodos que son estocsticos por naturaleza, y escogen qu proyectos emprender
basndose en anlisis estadsticos de su probable efecto en la poblacin como un
conjunto. No es correcto decir que la estadstica est incluida en el propio modelado,
ya que tpicamente los anlisis de riesgo son para una nica vez y por lo tanto
requieren ms modelos de probabilidad fundamentales, por ej. "la probabilidad de otro
11-S". Una ley de nmeros pequeos tiende a aplicarse a todas aquellas elecciones y
percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilsticas un tema poltico. Un buen ejemplo es el efecto de la probabilidad
percibida de cualquier conflicto generalizado sobre los precios del petrleo en Oriente
Medio - que producen un efecto domin en la economa en conjunto. Un clculo por
un mercado de materias primas en que la guerra es ms probable en contra de menos
probable probablemente enva los precios hacia arriba o hacia abajo e indica a otros
Investigacin biomdica[editar]
Vase tambin: Muestreo en estadstica
Cada uno de los resultados obtenidos al realizar un experimento recibe el nombre desuceso
elemental. Se llama espacio muestral el conjunto de todos los sucesos elementales
obtenidos, de forma que todo subconjunto del espacio muestral es un suceso.
Cuando hablamos de probabilidad tenemos que diferenciar los tipos de sucesos que pueden
ocurrir, pueden ser: sucesos naturales, son aquellos cuyo resultado podemos predecir;
y sucesos por azar, cuyo resultado no podemos predecir, pero que si se conoce los
resultados posibles que se pueden dar.
Los sucesos por azar se pueden clasificar en: suceso seguro, es aquel que es cierto, que
ocurrir sin lugar a dudas. Por ejemplo, si lanzamos un dado, es seguro que saldr un
nmero del 1 al 6. En suceso posible, es todo lo que compone un fenmeno determinado.
Por ejemplo, al lanzar una moneda, los sucesos posibles son cara o sello.
Y de ltimo, tenemos al suceso imposible, el que no pueden ocurrir y se contraponen a un
suceso seguro. Por ejemplo, que en una partida de domino dos jugadores tengan la
misma ficha, sera imposible porque son 28 fichas diferentes. La probabilidad
es 0 cuando el suceso es imposible y 1 cuando el suceso es seguro.
En la actualidad existen compaas de seguros que evalan las probabilidades de los
sucesos que les interesan (accidentes de coches, inundaciones, epidemias, etc.) y
as poderasignar las cuotas de manera justa. Tambin, las probabilidades son importantes
para laingeniera, especficamente la Civil: caractersticas de los materiales, dimensiones
de elementos estructurales, carga viva en edificios, carga ssmica y de viento, trnsito de
vehculos, entre otras.
Distribucin uniforme
Distribucin exponencial