Está en la página 1de 17

Que es estimacin

Estimacin estadstica
Este artculo o seccin necesita referencias que aparezcan en una publicacin acreditada. Este
aviso fue puesto el 31 de marzo de 2010.
Puedes aadirlas o avisar al autor principal del artculo en su pgina de discusin pegando:

{{sust:Aviso referencias|Estimacin estadstica}} ~~~~

En inferencia estadstica se llama estimacin al conjunto de tcnicas que permiten dar un


valor aproximado de un parmetro de una poblacin a partir de los datos proporcionados por
una muestra. Por ejemplo, una estimacin de la media de una determinada caracterstica de
una poblacin de tamao N podra ser la media de esa misma caracterstica para
una muestra de tamao n.1
La estimacin se divide en tres grandes bloques, cada uno de los cuales tiene distintos
mtodos que se usan en funcin de las caractersticas y propsitos del estudio:

Estimacin puntual:2

Mtodo de los momentos;

Mtodo de la mxima verosimilitud;

Mtodo de los mnimos cuadrados;

Estimacin por intervalos.

Estimacin bayesiana.
ndice
[ocultar]

1Estimador

2Estimacin puntual

3Estimacin por intervalos


o

3.1Intervalo de confianza

3.2Variabilidad del Parmetro

3.3Error de la estimacin

3.4Lmite de Confianza

3.5Valor

3.6Valor crtico

3.7Otros usos del trmino

4Vase tambin

5Referencias

Estimador[editar]
Un estimador es una regla que establece cmo calcular una estimacin basada en las
mediciones contenidas en una muestra estadstica.

Estimacin puntual[editar]
Consiste en la estimacin del valor del parmetro mediante un slo valor, obtenido de una
frmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado
grupo de individuos, puede extraerse una muestra y ofrecer como estimacin puntual la talla
media de los individuos. Lo ms importante de un estimador, es que sea un estimador
eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o
eficiente (varianza mnima) Estimacin puntual. Sea X una variable poblacional con
distribucin F , siendo desconocido. El problema de estimacin puntual consiste en,
seleccionada una muestra X1, ..., Xn, encontrar el estadstico T(X1, ..., Xn) que mejor estime
el parmetro . Una vez observada o realizada la muestra, con valores x1, ..., xn, se obtiene la
estimacin puntual de , T(x1, ..., xn) = .
Vemos a continuacin dos mtodos para obtener la estimacin puntual de un parmetro:
mtodo de los momentos y mtodo de mxima verosimilitud. Mtodo de los momentos:
consiste en igualar momentos poblacionales a momentos muestrales. Deberemos tener tantas
igualdades como parmetros a estimar. Momento poblacional de orden r r = E(Xr) Momento
muestral de orden r ar = Xn i=1 Xr i n
Mtodo de mxima verosimilitud: consiste en tomar como valor del parmetro aquel que
maximice la probabilidad de que ocurra la muestra observada. Si X1, ..., Xn es una muestra
seleccionada de una poblacin con distribucin F o densidad f(x), la probabilidad de que
ocurra una realizacin x1, ..., xn viene dada por: L(x1, ..., xn) = Yn i=1 f(xi)
A L(x1, ..., xn) se le llama funcin de verosimilitud.(credibilidad de la muestra observada).
Buscamos entonces el valor de que maximice la funcin de verosimilud, y al valor obtenido
se le llama estimacin por mxima verosimilitud de . Nota: si la variable X es discreta, en
lugar de f(xi ) consideramos la funcin masa de probabilidad p(xi).
Ejemplo 7.1: Sea X N(, ), con desconocido. Seleccionada una m.a.s. X1, ..., Xn, con
realizacin x1, ..., xn, estimamos el parmetro por ambos mtodos. Segn el mtodo de los
momentos: E(X) = Xn i=1 Xi n = X, y al ser = E(X) se obtiene que = x. Por el mtodo
de mxima verosimilitud: L(x1, ..., xn) = Yn i=1 f(xi ) = = Yn i=1 1 2 e (xi) 2 2
Estimacin por Intervalos de conanza 109 y maximizamos en tal funcin; en este caso
resulta ms fcil maximizar su logaritmo: lnL(x1, ..., xn) = 1 2 2 Xn i=1 (xi ) 2 n ln(
2) lnL(x1, ..., xn) = 1 2 Xn i=1 (xi ) = n x n 2 = 0 =

Estimacin por intervalos[editar]


Consiste en la obtencin de un intervalo dentro del cual estar el valor del parmetro estimado
con una cierta probabilidad. En la estimacin por intervalos se usan los siguientes conceptos:

Intervalo de confianza[editar]
El intervalo de confianza es una expresin del tipo [1, 2] 1 2, donde es el
parmetro a estimar. Este intervalo contiene al parmetro estimado con un determinado nivel
de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un
axioma o un equivalente circunstancial.

Variabilidad del Parmetro[editar]


Si no se conoce, puede obtenerse una aproximacin en los datos aportados por la literatura
cientfica o en un estudio piloto. Tambin hay mtodos para calcular el tamao de la muestra
que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad
la desviacin tpica poblacional y se denota .

Error de la estimacin[editar]
Es una medida de su precisin que se corresponde con la amplitud del intervalo de confianza.
Cuanta ms precisin se desee en la estimacin de un parmetro, ms estrecho deber ser el
intervalo de confianza y, si se quiere mantener o disminuir el error, ms observaciones
debern incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la
muestra, ms error se comete al aumentar la precisin. Se suele llamarE, segn la frmula E
= (2 - 1)/2.

Lmite de Confianza[editar]
Es la probabilidad de que el verdadero valor del parmetro estimado en la poblacin se site
en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-), aunque
habitualmente suele expresarse con un porcentaje ((1-)100%). Es habitual tomar como nivel
de confianza un 95% o un 99%, que se corresponden con valores de 0,05 y 0,01
respectivamente.

Valor [editar]
Tambin llamado nivel de significacin. Es la probabilidad (en tanto por uno) de fallar en
nuestra estimacin, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-). Por
ejemplo, en una estimacin con un nivel de confianza del 95%, el valor es (100-95)/100 =
0,05

Valor crtico[editar]
Se representa por Z/2. Es el valor de la abscisa en una determinada distribucin que deja a su
derecha un rea igual a /2, siendo 1- el nivel de confianza. Normalmente los valores crticos
estn tabulados o pueden calcularse en funcin de la distribucin de la poblacin. Por
ejemplo, para una distribucin normal, de media 0 y desviacin tpica 1, el valor crtico para
= 0,1 se calculara del siguiente modo: se busca en la tabla de la distribucin ese valor (o el
ms aproximado), bajo la columna "rea"; se observa que se corresponde con -1,28.
Entonces Z/2 = 1,64. Si la media o desviacin tpica de la distribucin normal no coinciden con
las de la tabla, se puede realizar el cambio de variable t =(X-)/ para su clculo.
Con estas definiciones, si tras la extraccin de una muestra se dice que "3 es una estimacin
de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos
interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una
probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando,
respectivamente, la mitad del error, para obtener el intervalo de confianza segn las
definiciones dadas.
Para un tamao fijo de la muestra, los conceptos de error y nivel de confianza van
relacionados. Si admitimos un error mayor, esto es, aumentamos el tamao del intervalo de

confianza, tenemos tambin una mayor probabilidad de xito en nuestra estimacin, es decir,
un mayor nivel de confianza.

Otros usos del trmino[editar]


El trmino estimacin tambin se utiliza en ciencias aplicadas para hacer referencia a un
clculo aproximado, que normalmente se apoya en la herramienta estadstica aunque puede
no hacerlo. En este sentido, un ejemplo clsico son los poco conocidos pero tiles en
economa problemas de Fermi.

Que es probabilidad
Probabilidad
La probabilidad es un mtodo por el cual se obtiene la frecuencia de un acontecimiento
determinado mediante la realizacin de experimentos aleatorios, de los que se conocen todos
los resultados posibles, bajo condicionessuficientemente estables. La probabilidad es un
evento o suceso que puede ser improbable, probable o seguro.
La teora de la probabilidad se usa extensamente en reas como la estadstica, la fsica,
la matemtica, lasciencias y la filosofa para sacar conclusiones sobre la probabilidad discreta
de sucesos potenciales y la mecnica subyacente discreta de sistemas complejos, por lo tanto
es la rama de las matemticas que estudia, mide o determina a los experimentos o fenmenos
aleatorios.
ndice
[ocultar]

1Historia

2Teora

2.1Regla de la adicin

2.2Regla de la multiplicacin

2.3Regla de Laplace

2.4Distribucin binomial
3Aplicaciones

3.1Investigacin biomdica

4Vase tambin

5Referencias

Historia[editar]
Artculo principal: Historia de la probabilidad

La definicin de probabilidad se produjo debido al deseo del ser humano por conocer con
certeza los eventos que sucedern en el futuro, es por eso que a travs de la historia se han
desarrollado diferentes enfoques para tener un concepto de la probabilidad y determinar sus
valores.
El diccionario de la Real Academia Espaola (R.A.E) define azar como una casualidad, un
caso fortuito, y afirma que la expresin al azar significa sin orden. 1 La idea de
Probabilidad est ntimamente ligada a la idea de azar y nos ayuda a comprender nuestras
posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon
Laplace afirm: "Es notable que una ciencia que comenz con consideraciones sobre juegos
de azar haya llegado a ser el objeto ms importante del conocimiento humano". Comprender y
estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar
decisiones en cualquier mbito.2
Segn Amanda Dure, "Antes de la mitad del siglo XVII, el trmino 'probable' (en latn probable)
significabaaprobable, y se aplicaba en ese sentido, unvocamente, a la opinin y a la accin.
Una accin u opinin probable era una que las personas sensatas emprenderan o
mantendran, en las circunstancias."3
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI,
la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise
Pascal (1654). Christiaan Huygens(1657) le dio el tratamiento cientfico conocido ms
temprano al concepto. Ars Conjectandi (pstumo, 1713) deJakob Bernoulli y Doctrine of
Chances (1718) de Abraham de Moivre trataron el tema como una rama de lasmatemticas.
Vase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para
una historia de los inicios del desarrollo del propio concepto de probabilidad matemtica.
La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea (pstumo,
1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa
en 1756) aplic por primera vez la teora para la discusin de errores de observacin. La
reimpresin (1757) de esta memoria expone los axiomas de que los errores positivos y
negativos son igualmente probables, y que hay ciertos lmites asignables dentro de los cuales

se supone que caen todos los errores; se discuten los errores continuos y se da una curva de
la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinacin
de observaciones a partir de los principios de la teora de las probabilidades. Represent la ley
de la probabilidad de error con una curva , siendo cualquier error e y su probabilidad, y
expuso tres propiedades de esta curva:
1. es simtrica al eje ;
2. el eje es una asntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una frmula para la media de tres observaciones. Tambin obtuvo (1781) una frmula
para la ley de facilidad de error (un trmino debido a Lagrange, 1774), pero una que llevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del mximo producto
de las probabilidades de un sistema de errores concurrentes.
El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en
su Nouvelles mthodes pour la dtermination des orbites des comtes (Nuevos mtodos para
la determinacin de las rbitas de los cometas). Ignorando la contribucin de Legendre, un
escritor irlands estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por
primera vez la ley de facilidad de error,
siendo y constantes que dependen de la precisin de la observacin. Expuso dos
demostraciones, siendo la segunda esencialmente la misma de John
Herschel (1850). Gauss expuso la primera demostracin que parece que se conoci en
Europa (la tercera despus de la de Adrain) en 1809. Demostraciones adicionales se
expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel(1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros
personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872)
y Giovanni Schiaparelli (1875). La frmula de Peters (1856) para , el error probable de una
nica observacin, es bien conocida.
En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre
Lacroix (1816), Littrow (1833),Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, yKarl Pearson. Augustus De
Morgan y George Boole mejoraron la exposicin de la teora.
En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando
teora de la medida.

En la parte geomtrica (vase geometra integral) los colaboradores de The Educational


Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas
Martin).
Vase tambin: Estadstica

Teora[editar]
Artculo principal: Teora de la probabilidad

La probabilidad constituye un importante parmetro en la determinacin de las diversas


casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadstico.
Existen diversas formas como mtodo abstracto, como la teora Dempster-Shafer y
la teora de la relatividad numrica, esta ltima con un alto grado de aceptacin si se toma
en cuenta que disminuye considerablemente las posibilidades hasta un nivel mnimo ya
que somete a todas las antiguas reglas a una simple ley de relatividad. [cita requerida]
La probabilidad de un evento se denota con la letra p y se expresa en trminos de una
fraccin y no en porcentajes[cita requerida], por lo que el valor de p cae entre 0 y 1. Por otra
parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se
denota con la letra q
Los tres mtodos para calcular las probabilidades son la regla de la adicin, la regla
de la multiplicacin y ladistribucin binomial.

Regla de la adicin[editar]
La regla de la adicin o regla de la suma establece que la probabilidad de ocurrencia
de cualquier evento en particular es igual a la suma de las probabilidades individuales,
si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden
ocurrir al mismo tiempo.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) =
P(A) + P(B) P(A y B) si A y B son no excluyentes.
Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de
ocurrencia del evento B. P(A y B) = probabilidad de ocurrencia simultnea de los
eventos A y B.

Regla de la multiplicacin[editar]
La regla de la multiplicacin establece que la probabilidad de ocurrencia de dos o ms
eventos estadsticamente independientes es igual al producto de sus probabilidades
individuales.

P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.


P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.
Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son
seleccionados uno despus del otro para ver si ellos son defectuosos. Suponga que
dos objetos son seleccionados sin reemplazo (significa que el objeto que se
selecciona al azar se deja por fuera del lote). Cul es la probabilidad de que los dos
objetos seleccionados sean defectuosos?
Solucin:
Sea los eventos
A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso}
entonces dos objetos seleccionados sern defectuosos, cuando ocurre el evento A1
A2 que es la interseccin entre los eventos A1 y A2. De la informacin dada se tiene
que:
P (A1) = 20/100 ; P (A2/A1) = 19/99
as probabilidad de que los dos objetos seleccionados sean defectuosos es
P (A1 A2) = P (A1) P (A2/A1)
(20/100)(19/99)
19/495 = 0.038
Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los
tres objetos seleccionados sean defectuosos es
P (A1 A2 A3) = P (A1) P (A2/A1) P (A3/A1A2)
(20/100)(19/99)(18/98)
19/2695 = 0.007

Regla de Laplace[editar]
La Regla de Laplace establece que:

La probabilidad de ocurrencia de un suceso imposible es 0.

La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1.

Para aplicar la regla de Laplace es necesario que los experimentos den lugar a
sucesos equiprobables, es decir, que todos tengan o posean la misma probabilidad.

La probabilidad de que ocurra un suceso se calcula as:

P(A) = N de casos favorables / N de resultados posibles


Esto significa que: la probabilidad del evento A es igual al cociente del nmero de
casos favorables (los casos dnde sucede A) sobre el total de casos posibles.

Distribucin binomial[editar]
La probabilidad de ocurrencia de una combinacin especfica de eventos
independientes y mutuamente excluyentes se determina con la distribucin binomial,
que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o
si/no.
1. Hay dos resultados posibles mutuamente excluyentes en cada ensayo u
observacin.
2. La serie de ensayos u observaciones constituyen eventos independientes.
3. La probabilidad de xito permanece constante de ensayo a ensayo, es decir
el proceso es estacionario.
Para aplicar esta distribucin al clculo de la probabilidad de obtener un nmero dado
de xitos en una serie de experimentos en un proceso de Bermnoulli, se requieren
tres valores: el nmero designado de xitos (m), el nmero de ensayos y
observaciones (n); y la probabilidad de xito en cada ensayo (p).
Entonces la probabilidad de que ocurran m xitos en un experimento de n ensayos es:
P (x = m) = (nCm)(Pm)(1P)nm
Siendo: nCm el nmero total de combinaciones posibles de m elementos en un
conjunto de n elementos.
En otras palabras P(x = m) = [n!/(m!(nm)!)](pm)(1p)nm
Ejemplo. La probabilidad de que un alumno apruebe la asignatura Clculo de
Probabilidades es de 0,15. Si en un semestre intensivo se inscriben 15 alumnos Cul
es la probabilidad de que aprueben 10 de ellos?
P(x = 10) = 15C10(0,15)10(0,85)5 = 15!/(10!(1510)!)(0,15)10(0,85)5 = 7,68 *
106 Generalmente existe un inters en la probabilidad acumulada de "m o ms "
xitos o "m o menos" xitos en n ensayos. En tal caso debemos tomar en cuenta que:
P(x < m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m 1)
P(x > m) = P(x = m+ 1) + P(x = m+ 2) + P(x = m+3) +....+ P(x = n)
P(x m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m)
P(x m) = P(x = m) + P(x = m+1) + P(x = m+2) +....+ P(x = n)
Supongamos que del ejemplo anterior se desea saber la probabilidad de que

aprueben:
a. al menos 5
b. ms de 12
a. la probabilidad de que aprueben al menos 5 es:
P(x 5) es decir, que:
1 - P(x < 5) = 1 - [P(x = 0)+P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)] =
1 - [0,0874 + 0,2312 + 0,2856 + 0,2184 + 0,1156] = 0,0618
Nota: Al menos, a lo menos y por lo menos son locuciones adverbiales sinnimas.
Ejemplo: La entrada al cine por lo menos tendr un costo de 10 soles (como mnimo
podra costar 10 soles o ms).
b. la probabilidad de que aprueben ms de 12 es P(x > 12) es decir, que:
P(x > 12) = P(x = 13)+P(x = 14)+P(x = 15)
P(x > 12) = 1,47 *109 +3,722 *1011 +4,38 *1013 = 1,507 *109
La esperanza matemtica en una distribucin binomial puede expresarse como:
E(x) = np = 15(0,15)=2,25
Y la varianza del nmero esperado de xitos se puede calcular directamente:
Var(x) = np(1p)= 15(0,15)(1-0,15)=1,9125 Estadsticas y probabilidades, con sus
diferentes diagramaciones como: diagrama de barras. diagrama de lnea. y diagrama
de crculos que se aplican de acuerdo al tipo de estadsticas y probabilidades
matemticas.

Aplicaciones[editar]
Dos aplicaciones principales de la teora de la probabilidad en el da a da son en el
anlisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican mtodos probabilsticos enregulacin ambiental donde
se les llama "anlisis de vas de dispersin", y a menudo miden el bienestar usando
mtodos que son estocsticos por naturaleza, y escogen qu proyectos emprender
basndose en anlisis estadsticos de su probable efecto en la poblacin como un
conjunto. No es correcto decir que la estadstica est incluida en el propio modelado,
ya que tpicamente los anlisis de riesgo son para una nica vez y por lo tanto
requieren ms modelos de probabilidad fundamentales, por ej. "la probabilidad de otro
11-S". Una ley de nmeros pequeos tiende a aplicarse a todas aquellas elecciones y
percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilsticas un tema poltico. Un buen ejemplo es el efecto de la probabilidad
percibida de cualquier conflicto generalizado sobre los precios del petrleo en Oriente
Medio - que producen un efecto domin en la economa en conjunto. Un clculo por
un mercado de materias primas en que la guerra es ms probable en contra de menos
probable probablemente enva los precios hacia arriba o hacia abajo e indica a otros

comerciantes esa opinin. Por consiguiente, las probabilidades no se calculan


independientemente y tampoco son necesariamente muy racionales. La teora de
las finanzas conductuales surgi para describir el efecto de este pensamiento de
grupo en el precio, en la poltica, y en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de mtodos rigurosos para
calcular y combinar los clculos de probabilidad ha tenido un profundo efecto en la
sociedad moderna. Por consiguiente, puede ser de alguna importancia para la
mayora de los ciudadanos entender cmo se calculan los pronsticos y las
probabilidades, y cmo contribuyen a la reputacin y a las decisiones, especialmente
en una democracia.
Otra aplicacin significativa de la teora de la probabilidad en el da a da es en
la fiabilidad. Muchos bienes de consumo, como los automviles y la electrnica de
consumo, utilizan la teora de la fiabilidad en el diseo del producto para reducir la
probabilidad de avera. La probabilidad de avera tambin est estrechamente
relacionada con la garanta del producto.
Se puede decir que no existe una cosa llamada probabilidad. Tambin se puede decir
que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situacin. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en un baraja sea la J de diamantes.
Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es
o bien 100% 0%, y la eleccin correcta puede ser hecha con precisin por el que ve
la carta. La fsica moderna proporciona ejemplos importantes de situaciones
deterministas donde slo la descripcin probabilstica es factible debido a informacin
incompleta y la complejidad de un sistema as como ejemplos de fenmenos
realmente aleatorios.
En un universo determinista, basado en los conceptos newtonianos, no hay
probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza
de la mano y el periodo de esta fuerza es conocido, entonces el nmero donde la bola
parar ser seguro. Naturalmente, esto tambin supone el conocimiento de la inercia
y la friccin de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la
velocidad de la mano durante el movimiento y as sucesivamente. Una descripcin
probabilstica puede entonces ser ms prctica que la mecnica newtoniana para
analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los fsicos se
encuentran con la misma situacin en la teora cintica de los gases, donde el sistema
determinstico en principio, es tan complejo (con el nmero de molculas tpicamente
del orden de magnitud de la constante de Avogadro ) que slo la descripcin
estadstica de sus propiedades es viable.

La mecnica cuntica, debido al principio de indeterminacin de Heisenberg, slo


puede ser descrita actualmente a travs de distribuciones de probabilidad, lo que le da
una gran importancia a las descripciones probabilsticas. Algunos cientficos hablan de
la expulsin del paraso.[cita requerida] Otros no se conforman con la prdida del
determinismo. Albert Einstein coment estupendamente en una carta a Max
Born: Jedenfalls bin ich berzeugt, da der Alte nicht wrfelt. (Estoy convencido de
que Dios no tira el dado). No obstante hoy en da no existe un medio mejor para
describir la fsica cuntica si no es a travs de la teora de la probabilidad. Mucha
gente hoy en da confunde el hecho de que la mecnica cuntica se describe a travs
de distribuciones de probabilidad con la suposicin de que es por ello un proceso
aleatorio, cuando la mecnica cuntica es probabilstica no por el hecho de que siga
procesos aleatorios sino por el hecho de no poder determinar con precisin sus
parmetros fundamentales, lo que imposibilita la creacin de un sistema de
ecuaciones determinista.

Investigacin biomdica[editar]
Vase tambin: Muestreo en estadstica

La mayora de las investigaciones biomdicas utilizan muestras de probabilidad, es


decir, aquellas que el investigador pueda especificar la probabilidad de cualquier
elemento en la poblacin que investiga. Las muestras de probabilidad permiten usar
estadsticas inferenciales, aquellas que permiten hacer inferencias a partir de datos.
Por otra parte, las muestras no probabilsticas solo permiten usarse estadsticas
descriptivas, aquellas que solo permiten describir, organizar y resumir datos. Se
utilizan cuatro tipos de muestras probabilsticas: muestras aleatorias simples,
muestras aleatorias estratificadas, muestra por conglomerados y muestras
sistemticas.

La Probabilidad es la mayor o menor posibilidad de que ocurra un determinado suceso.


En otras palabras, su nocin viene de la necesidad de medir o determinar
cuantitativamente la certeza o duda de que un suceso dado ocurra o no.
sta establece una relacin entre el nmero de sucesos favorables y el nmero total de
sucesos posibles. Por ejemplo, lanzar un dado, y que salga el nmero uno (caso favorable)
est en relacin a seis casos posibles (1, 2, 3, 4, 5 y 6); es decir, la probabilidad es 1/6.
La probabilidad est basada en el estudio de la combinatoria y es fundamento necesario
de la estadstica, adems de otras disciplinas como matemtica, fsica u
otra ciencia. En ellas se aplica una teora de probabilidades, la cual tiene como fin
examinar las formas y medios para obtener esas medidas de certeza, as como encontrar los
mtodos de combinarlos cuando intervienen varios sucesos en un experimento aleatorio
o prueba.

Cada uno de los resultados obtenidos al realizar un experimento recibe el nombre desuceso
elemental. Se llama espacio muestral el conjunto de todos los sucesos elementales
obtenidos, de forma que todo subconjunto del espacio muestral es un suceso.

Cuando hablamos de probabilidad tenemos que diferenciar los tipos de sucesos que pueden
ocurrir, pueden ser: sucesos naturales, son aquellos cuyo resultado podemos predecir;
y sucesos por azar, cuyo resultado no podemos predecir, pero que si se conoce los
resultados posibles que se pueden dar.
Los sucesos por azar se pueden clasificar en: suceso seguro, es aquel que es cierto, que
ocurrir sin lugar a dudas. Por ejemplo, si lanzamos un dado, es seguro que saldr un
nmero del 1 al 6. En suceso posible, es todo lo que compone un fenmeno determinado.
Por ejemplo, al lanzar una moneda, los sucesos posibles son cara o sello.
Y de ltimo, tenemos al suceso imposible, el que no pueden ocurrir y se contraponen a un
suceso seguro. Por ejemplo, que en una partida de domino dos jugadores tengan la
misma ficha, sera imposible porque son 28 fichas diferentes. La probabilidad
es 0 cuando el suceso es imposible y 1 cuando el suceso es seguro.
En la actualidad existen compaas de seguros que evalan las probabilidades de los
sucesos que les interesan (accidentes de coches, inundaciones, epidemias, etc.) y
as poderasignar las cuotas de manera justa. Tambin, las probabilidades son importantes
para laingeniera, especficamente la Civil: caractersticas de los materiales, dimensiones
de elementos estructurales, carga viva en edificios, carga ssmica y de viento, trnsito de
vehculos, entre otras.

Teorema del lmite central

El teorema del lmite central: las medias de muestras grandes y aleatorias


son aproximadamente normales
Ms informacin sobre Minitab 17

El teorema del lmite central es un teorema fundamental de probabilidad y


estadstica. El teorema establece que la distribucin de , que es la media
de una muestra aleatoria de una poblacin con varianza finita, tiene una
distribucin aproximadamente normal cuando el tamao de la muestra es
grande, independientemente de la forma de la distribucin de la poblacin.
Muchos procedimientos estadsticos comunes requieren que los datos sean
aproximadamente normales, pero el teorema del lmite central le permite
aplicar estos procedimientos tiles a poblaciones que son marcadamente
no normales. El tamao que debe tener la muestra depende de la forma de
la distribucin original. Si la distribucin de la poblacin es simtrica, un
tamao de muestra de 5 podra generar una aproximacin adecuada; si la
distribucin de la poblacin es marcadamente asimtrica, se requiere un
tamao de muestra de 50 o ms. Las siguientes grficas muestran ejemplos
de cmo la distribucin afecta el tamao de la muestra que usted necesita.

Distribucin uniforme

Medias de las muestras

Una poblacin que sigue una distribucin uniforme es simtrica, pero


marcadamente no normal, como lo indica el primer histograma. Sin
embargo, la distribucin de 1000 medias de la muestra (n=5) de esta
poblacin es aproximadamente normal debido al teorema del lmite central,
como lo demuestra el segundo histograma. Este histograma de medias de
la muestra incluye una curva normal superpuesta para ilustrar esta
normalidad.

Distribucin exponencial

Medias de las muestras

Una poblacin que sigue una distribucin exponencial es asimtrica y no


normal, como lo demuestra el primer histograma. Sin embargo, la
distribucin de medias de la muestra de 1000 muestras de tamao 50 de
esta poblacin es aproximadamente normal, debido al teorema del lmite
central, como lo demuestra el segundo histograma. Este histograma de
medias de la muestra incluye una curva normal superpuesta para ilustrar
esta normalidad.

También podría gustarte