Está en la página 1de 21

Cuartiles.

Los cuartiles son los tres valores que dividen al conjunto de datos
ordenados en cuatro partes porcentualmente iguales. Aparecen citados
en la literatura cientfica por primera vez en 1879 por D. McAlister.1
La diferencia entre el tercer cuartil y el primero se conoce como rango
intercuartlico. Se representa grficamente como la anchura de las cajas
en los llamados diagramas de cajas. Dada una serie de valores X1, X2,
X3...Xn ordenados en forma creciente, podemos pensar que su clculo
podra efectuarse:
Primer cuartil (Q1) como la mediana de la primera mitad de valores;
Segundo cuartil (Q2) como la propia mediana de la serie;
Tercer cuartil (Q3) como la mediana de la segunda mitad de valores.
Pero esto conduce a distintos mtodos de clculo de los cuartiles
primero (as como tercero) segn la propia mediana se incluya o excluya
en la serie de la primera (respecto de la segunda) mitad de valores.
Clculo con datos no agrupados
No hay uniformidad sobre su clculo. En la bibliografa se encuentran
hasta cinco mtodos que dan resultados diferentes.2 Uno de los
mtodos es el siguiente: dados n datos ordenados,
Para el primer cuartil:
\frac{n+1}{4}
Para el tercer cuartil:
\frac {3(n+1)}{4}.

Percentiles.
El percentil es una medida de tendencia central usada en estadstica que
indica, una vez ordenados los datos de menor a mayor, el valor de la
variable por debajo del cual se encuentra un porcentaje dado de
observaciones en un grupo de observaciones. Por ejemplo, el percentil
20 es el valor debajo del cual se encuentran el 20 por ciento de las
observaciones. Se representan con la letra P. Para el percentil i-simo,
donde la i toma valores del 1 al 99. El i % de la muestra son valores
menores que l y el 100-i % restante son mayores.

Sesgo estadstico
En estadstica se llama sesgo de un estimador a la diferencia entre su
esperanza matemtica y el valor numrico del parmetro que estima. Un
estimador cuyo sesgo es nulo se llama insesgado o centrado.
En notacin matemtica, dada una muestra X_1, \dots, X_n\, iid X y un
estimador T(x_1, \dots, x_n)\, del parmetro poblacional \theta\,, el sesgo
es:
E(T) - \theta\,
El no tener sesgo es una propiedad deseable de los estimadores. Una
propiedad relacionada con sta es la de la consistencia: un estimador
puede tener un sesgo pero el tamao de ste converge a cero conforme
crece el tamao muestral.

Dada la importancia de la falta de sesgo, en ocasiones, en lugar de


estimadores naturales se utilizan otros corregidos para eliminar el sesgo.
As ocurre, por ejemplo, con la varianza muestral.
Aparecen citados en la literatura cientfica por primera vez por Francis
Galton en 18851.
P25 = Q1.
P50 = Q2 = mediana.
P75 = Q3.
Ejemplo:
Clculo con datos no agrupados
Un mtodo para establecer un percentil sera el siguiente: Calculamos...
x = \frac{n\cdot i}{100} donde n es el nmero de elementos de la
muestra e i, el percentil. El resultado de realizar esta operacin es un
nmero real con parte entera E y parte decimal D. Teniendo en cuenta
estos dos valores, aplicamos la siguiente funcin:
P_i = \begin{cases}
Elemento (E+1), & \mbox{para }D<>0 \\
\frac{elemento(E)+elemento(E+1)}{2}, & \mbox{para }D=0
\end{cases}
Esta ltima operacin brinda el valor del percentil pedido.

Sesgo estadstico
En estadstica se llama sesgo de un estimador a la diferencia entre su
esperanza matemtica y el valor numrico del parmetro que estima. Un
estimador cuyo sesgo es nulo se llama insesgado o centrado.
En notacin matemtica, dada una muestra X_1, \dots, X_n\, iid X y un
estimador T(x_1, \dots, x_n)\, del parmetro poblacional \theta\,, el sesgo
es:
E(T) - \theta\,
El no tener sesgo es una propiedad deseable de los estimadores. Una
propiedad relacionada con sta es la de la consistencia: un estimador

puede tener un sesgo pero el tamao de ste converge a cero conforme


crece el tamao muestral.
Dada la importancia de la falta de sesgo, en ocasiones, en lugar de
estimadores naturales se utilizan otros corregidos para eliminar el sesgo.
As ocurre, por ejemplo, con la varianza muestral.

Curtosis

En teora de la probabilidad y estadstica, la Curtosis es una medida de


la forma. As, las medidas de Curtosis tratan de estudiar la proporcin de
la varianza que se explica por la combinacin de datos extremos
respecto a la media en contraposicin con datos poco alejados de la
misma. Una mayor Curtosis implica una mayor concentracin de datos
muy cerca de la media de la distribucin coexistiendo al mismo tiempo
con una relativamente elevada frecuencia de datos muy alejados de la
misma. Esto explica una forma de la distribucin de frecuencias con
colas muy elevadas y con un centro muy apuntado.
Definicin de Curtosis.
Un coeficiente de apuntamiento o de Curtosis: es el basado en el cuarto
momento con respecto a la media y se define como:
\beta_2=\frac{\mu_4}{\sigma^4}
Donde \mu_4 es el 4 momento centrado o con respecto a la media y
\sigma es la desviacin estndar.
No obstante, est ms extendida la siguiente definicin del coeficiente
de Curtosis:
g_2=\frac{\mu_4}{\sigma^4}-3
Donde al final se ha sustrado 3 (que es la Curtosis de la Normal) con
objeto de generar un coeficiente que valga 0 para la Normal y tome a
sta como referencia de apuntamiento:

Tomando, pues, la distribucin normal como referencia, una distribucin


puede ser:
Ms apuntada y con colas menos anchas que la normal leptocrtica.
Menos apuntada y con colas ms anchas que la normal - platicrtica.
la distribucin normal es mesocrtica.
En la distribucin normal se verifica que \mu_4=3\sigma^4, donde
\mu_4 es el momento de orden 4 respecto a la media y \sigma la
desviacin tpica.
As tendremos que:
Si la distribucin es leptocrtica \beta_2>3 y g_2>0
Si la distribucin es platicrtica \beta_2<3 y g_2<0
Si la distribucin es mesocrtica \beta_2=3 y g_2=0
Otra forma de medir la Curtosis se obtiene examinando la frmula de la
Curtosis de la suma de variables aleatorias. Si Y es la suma de n
variables aleatorias estadsticamente independientes, todas con igual
distribucin X, entonces Kurt[Y] = \frac{Kurt[X]}{n}, complicndose la
frmula si la Curtosis se hubiese definido como \frac{\mu_4}
{\sigma^4}.

Diagrama de rbol.

Un diagrama de rbol es una herramienta que se utiliza para determinar


todos los posibles resultados de un experimento aleatorio. En el clculo
de la probabilidad se requiere conocer el nmero de objetos que forman

parte del espacio muestral, estos se pueden determinar con la


construccin de un diagrama de rbol.
El diagrama de rbol es una representacin grfica de los posibles
resultados del experimento, el cual consta una serie de pasos, donde
cada uno de los pasos tiene un nmero finito de maneras de ser llevado
a cabo. Se utiliza en los problemas de conteo y probabilidad.
Para la construccin de un diagrama en rbol se partir poniendo una
rama para cada una de las posibilidades, acompaada de su
probabilidad. Cada una de estas ramas se conoce como rama de primera
generacin.
En el final de cada rama de primera generacin se constituye a su vez,
un nudo del cual parten nuevas ramas conocidas como ramas de
segunda generacin, segn las posibilidades del siguiente paso, salvo si
el nudo representa un posible final del experimento (nudo final).
Hay que tener en cuenta que la construccin de un rbol no depende de
tener el mismo nmero de ramas de segunda generacin que salen de
cada rama de primera generacin y que la suma de probabilidades de
las ramas de cada nudo ha de dar 1.
Existe un principio sencillo de los diagramas de rbol que hace que stos
sean mucho ms tiles para los clculos rpidos de probabilidad:
multiplicamos las probabilidades si se trata de ramas adyacentes
(contiguas), el ejemplo de alumna de la primera facultad, o bien las
sumamos si se trata de ramas separadas que emergen de un mismo
punto, el ejemplo de encontrar un alumno.
Ejemplos
Una universidad est formada por tres facultades:
La 1 con el 50% de estudiantes.
La 2 con el 25% de estudiantes.
La 3 con el 25% de estudiantes.
Las mujeres estn repartidas uniformemente, siendo un 60% del total en
cada facultad.
rbol con el planteamiento del problema.

Tcnicas de Conteo.
El principio fundamental en el proceso de contar ofrece un mtodo
general para contar el nmero de posibles arreglos de objetos dentro de

un solo conjunto o entre carios conjuntos. Las tcnicas de conteo son


aquellas que son usadas para enumerar eventos difciles de cuantificar.
Ejemplo.

Si un evento A puede ocurrir de n1 maneras y una vez que este ha


ocurrido, otro evento B puede n2 maneras diferentes entonces, el
nmero total de formas diferentes en que ambos eventos pueden ocurrir
en el orden indicado, es igual a n1 x n2.
De cuntas maneras pueden repartirse 3 premios a un conjunto de 10
personas, suponiendo que cada persona no puede obtener ms de un
premio?
Aplicando el principio fundamental del conteo, tenemos 10 personas que
pueden recibir el primer
Premio. Una vez que ste ha sido entregado, restan 9 personas para
recibir el segundo, y
Posteriormente quedarn 8 personas para el tercer premio. De ah que el
nmero de maneras
Distintas de repartir los tres premios.
N 10 x 9 x 8 = 720
Cuntas placas de automvil se pueden hacer utilizando dos letras
seguidas de tres cifras? No se
Admiten repeticiones.
26 x 25 x 10 x 9 x 8 = 468000
n un nmero entero positivo, el producto n (n-1) (n-2)...3 x 2 x 1 se llama
factorial de n.
El smbolo! se lee factorial y es el producto resultante de todos los
enteros positivos de 1 a n; es decir, sea
n
5! = 5 x 4 x 3 x 2 x 1 = 120
Por definicin 0! = 1

Si el nmero de posibles resultados de un experimento es pequeo, es


relativamente fcil listar y contar todos los posibles resultados. Al tirar
un dado, por ejemplo, hay seis posibles resultados.
Si, sin embargo, hay un gran nmero de posibles resultados tales como
el nmero de nios y nias por familias con cinco hijos, sera tedioso
listar y contar todas las posibilidades. Las posibilidades seran, 5 nios, 4
nios y 1 nia, 3 nios y 2 nias, 2 nios y 3 nias, etc.
Para facilitar el conteo examinaremos tres tcnicas:
* La tcnica de la multiplicacin
* La tcnica aditiva
* La tcnica de la suma o Adicin
* La tcnica de la permutacin
* La tcnica de la combinacin.

Nociones bsicas de probabilidad.


Experimento aleatorio
Definicin: Experimento: proceso mediante el cual podemos obtener un
resultado Aleatorio: interviene el azar.
Caractersticas:
Todos los resultados posibles son conocidos con anterioridad
No se puede predecir con certeza el resultado
El experimento puede repetirse todas las veces que se quiera
Un experimento aleatorio es un proceso que se puede repetir
indefinidamente en las mismas condiciones, cuyo resultado no se puede
predecir
Conceptos relacionados:
Espacio muestral: resultados posibles de un experimento aleatorio
Suceso: resultado de un experimento aleatorio, o subconjunto del
espacio muestral
Tipos:
Simple o elemental: consta de un solo resultado
Compuesto: consta de dos o ms resultados
Seguro: todo el espacio muestral, porque siempre ocurre
Imposible: suceso que no puede ocurrir nunca
Clculos:
Unin: A U B

Interseccin A B
Complementario: |A
Definicin de probabilidad
Clsica: la probabilidad de un suceso es igual al cociente entre el
nmero de casos favorables de que ocurra ese suceso y el nmero de
casos posibles en el supuesto de que todos los casos tengan la misma
probabilidad de ocurrir.
Nmero de casos favorables
Probabilidad de suceso = Nmero de casos posibles
Ej: P (A) = 1/6
Problema: requiere que los sucesos sean equiprobable (no siempre
ocurre) y, en muchos casos, puede resultar difcil la clasificacin de los
sucesos como favorables y posibles.
Estadstica: lmite al que tienen la frecuencia relativa de aparicin de
un suceso A cuando el nmero de ensayos, n, tiende al infinito
Problema: muchas veces no es posible repetir un experimento un gran
nmero de veces y, si lo es, no es prctico
Axiomtica: dado un espacio muestral E, llamamos probabilidad de un
suceso A, definido en el espacio muestral E y que designamos por P (A),
a un nmero real que asignamos al suceso A, tal que cumple las
siguientes propiedades:
0 < P(A) < 1
P(E) = 1
P(A) =1 (A)
Teorema de la suma: la probabilidad de que ocurra el suceso A o el
suceso B es igual a la probabilidad de que ocurra A ms la probabilidad
de que ocurran ambos:
P (A U B) = P (A) + P(B) P (A B)
Cuando los sucesos A y B son incompatibles:
P (A U B) = P (A) + P(B).

Espacios Mustrales Infinitos


En la teora de probabilidades, el espacio muestral o espacio de
muestreo (denotado E, S, o U) consiste en el conjunto de todos los
posibles resultados individuales de un experimento aleatorio.
Por ejemplo, si el experimento consiste en lanzar dos monedas, el
espacio de muestreo es el conjunto {(cara, cara), (cara, cruz), (cruz,
cara) y (cruz, cruz)}. Un evento o suceso es cualquier subconjunto del
espacio muestral con estructura de -lgebra,1 llamndose a los
sucesos que contengan un nico elemento sucesos elementales. En el
ejemplo, el suceso "sacar cara en el primer lanzamiento", o {(cara,
cara), (cara, cruz)}, estara formado por los sucesos elementales {(cara,
cara)} y {(cara, cruz)}.
Para algunos tipos de experimento puede haber dos o ms espacios de
muestreo posibles.
Por ejemplo, cuando se toma una carta de un mazo normal de 52
cartas, una posibilidad del espacio de muestreo podra ser el nmero
(del as al rey), mientras que otra posibilidad sera el palo (diamantes,
trboles, corazones y picas). Una descripcin completa de los resultados,
sin embargo, especificara ambos valores, nmero y palo, y se podra
construir un espacio de muestreo que describiese cada carta individual
como el producto cartesiano de los dos espacios de muestreo descritos.
Los espacios de muestreo aparecen de forma natural en una
aproximacin elemental a la probabilidad, pero son tambin importantes
en espacios de probabilidad. Un espacio de probabilidad (, F, P)
incorpora un espacio de muestreo de resultados, , pero define un
conjunto de sucesos de inters, la -lgebra F, por la cul se define la
medida de probabilidad P.
Ley de la probabilidad.
La probabilidad mide las posibilidades de que un evento ocurra.
Expresado matemticamente, es igual al nmero de formas que un
evento especfico puede ocurrir, dividido por el nmero total de posibles
eventos. Por ejemplo, si tienes una bolsa con tres canicas, una azul y dos
verdes, la probabilidad de tomar una canica azul sin mirar es de 1/3. Hay

slo un resultado posible de que se seleccione la canica azul, pero hay


tres posibles resultados en total, azul, verde, verde. Usando el mismo
razonamiento, la probabilidad de tomar una canica verde es de 2/3.
a probabilidad es un mtodo por el cual se obtiene la frecuencia de un
acontecimiento determinado mediante la realizacin de un experimento
aleatorio, del que se conocen todos los resultados posibles, bajo
condiciones suficientemente estables.
La teora de la probabilidad se usa extensamente en reas como la
estadstica, la fsica, la matemtica, las ciencias y la filosofa para sacar
conclusiones sobre la probabilidad discreta de sucesos potenciales y la
mecnica subyacente discreta de sistemas complejos, por lo tanto es la
rama de las matemticas que estudia, mide o determina a los
experimentos o fenmenos aleatorios.

Regla de la Multiplicacin.
Definicin Regla Adicin
Publicado: marzo 4, 2011 en Definicin Regla de Adicin.
Regla la adicin:
Establece que si dos eventos A y B son mutuamente excluyentes la
probabilidad de que uno u otro evento ocurra es igual a la suma de sus
probabilidades. De lo anterior se puede deducir que la probabilidad de
que ocurra A ms la probabilidad de que no ocurra A debe sumar 1. A
esto se le llama la regla del complemento. Esta regla establece que para
determinar la probabilidad de que ocurra un evento se puede restar de 1
la probabilidad de que no ocurra.
La Regla de la Adicin expresa que: la probabilidad de ocurrencia de al
menos dos sucesos A y B es igual a: P(A o B) = P(A) U P(B) = P(A) + P(B)
si A y B son mutuamente excluyente P(A o B) = P(A) + P(B) P(A y B) si
A y B son no excluyentes Siendo: P(A) = probabilidad de ocurrencia del
evento A P(B) = probabilidad de ocurrencia del evento B P(A y B) =
probabilidad de ocurrencia simultanea de los eventos A y B .
Ejemplos Regla de la Multiplicacin:
Publicado: marzo 4, 2011 en Definicin Regla de Adicin, Ejemplos Regla
Multiplicacin
0
Ejemplo 1:

Si una moneda equilibrada se lanza dos veces, la probabilidad de que


ambos lanzamientos den por resultado una cara es :
(1/2) x (1/2) = (1/4)

Probabilidad condicional
Probabilidad condicional es la probabilidad de que ocurra un evento A,
sabiendo que tambin sucede otro evento B. La probabilidad condicional
se escribe P(A|B), y se lee la probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A
puede preceder en el tiempo a B, sucederlo o pueden ocurrir
simultneamente. A puede causar B, viceversa o pueden no tener
relacin causal. Las relaciones causales o temporales son nociones que
no pertenecen al mbito de la probabilidad. Pueden desempear un
papel o no dependiendo de la interpretacin que se le d a los eventos.
Un ejemplo clsico es el lanzamiento de una moneda para luego
lanzar un dado. Cul es la probabilidad de obtener una cara (moneda) y
luego un 6 (dado)? Pues eso se escribira como P (Cara |
Artculo principal: Independencia:
Dos sucesos aleatorios A y B son independientes si y slo si:
P(A \cap B) \ = \ P(A) P(B).
O sea que si A y B son independientes, su probabilidad conjunta, P(A
\cap B) P(A, B).
Puede ser expresada como el
individuales. Equivalentemente:

producto

de

las

probabilidades

P(A|B) \ = \ P(A)
P(B|A) \ = \ P(B).
En otras palabras, si A y B son independientes, la probabilidad
condicional de A dado B es simplemente la probabilidad de A y
viceversa.
Exclusividad mutua
Los conjuntos A y B no intersecan. Son mutuamente excluyentes.

Dos sucesos A y B son mutuamente excluyentes si y slo si A \cap B =


\emptyset. Entonces, P(A \cap B) = 0.
Adems, si P(B) > 0 entonces P(A\mid B) es igual a 0.

La magnitud del error cometido con esta falacia se entiende mejor en


trminos de probabilidades condicionales
Supongamos un grupo de personas de las que el 1 % sufre una cierta
enfermedad, y el resto est bien. Escogiendo un individuo al azar:
P(enfermo) = 1% = 0.01 y P(sano) = 99% = 0.99
Supongamos que aplicando una prueba a una persona que no tiene la
enfermedad, hay una posibilidad del 1 % de conseguir un falso positivo,
esto es:
P(positivo sano) = 1% y P(negativo sano) = 99%
Finalmente, supongamos que aplicando la prueba a una persona que
tiene la enfermedad, hay una posibilidad del 1 % de un falso negativo,
esto es:
P(negativo|enfermo) = 1% y P(positivo|enfermo) = 99%
Ahora, uno puede calcular lo siguiente:
La fraccin de individuos en el grupo que estn sanos y dan negativo:

P( sano \cap negativo) = P(sano) \times P(negativo|sano)=99% \times


99%=98.01%
La fraccin de individuos en el grupo que estn enfermos y dan positivo:
P( enfermo \cap positivo) = P(enfermo) \times P(positivo|enfermo) =
1% \times 99% = 0.99%

La fraccin de individuos en el grupo que dan falso positivo:


P( sano \cap positivo) = P(sano) \times P(positivo|sano) = 99% \times 1%
= 0.99%
La fraccin de individuos en el grupo que dan falso negativo:

P( enfermo \cap negativo) = P(enfermo) \times P(negativo|enfermo) =


1% \times 1% = 0.01%
Adems, la fraccin de individuos en el grupo que dan positivo:
P( positivo ) = P ( sano \cap positivo ) + P ( enfermo \cap positivo ) =
0.99% + 0.99% = 1.98%
Finalmente, la probabilidad de que un individuo realmente tenga la
enfermedad, dado un resultado de la prueba positivo:
P(enfermo|positivo)
=
\frac{P(enfermo
{P(positivo)}=\frac{0.99%}{1.98%}=50%

\cap

positivo)}

En este ejemplo, debera ser fcil ver la diferencia entre las


probabilidades condicionadas P (positivo | enfermo) (que es del 99 %) y
P (enfermo | positivo) (que es del 50 %): la primera es la probabilidad de
que un individuo enfermo d positivo en la prueba; la segunda es la
probabilidad de que un individuo que da positivo en la prueba tenga
realmente la enfermedad. Con los nmeros escogidos aqu, este ltimo
resultado probablemente sera considerado inaceptable: la mitad de la
gente que da positivo en realidad est sana.
La probabilidad de tener una enfermedad rara es de 0,001: P(enfermo)
= 0,001
La probabilidad de que cuando el paciente est enfermo se acierte en el
diagnstico es de 0,99: P(positivo|enfermo) = 0,99
La probabilidad de falso positivo es de 0,05: P(positivo|sano) = 0,05
Pregunta: Me dicen que he dado positivo, Qu probabilidad hay de que
tenga la enfermedad?
P(enfermo|positivo)=\frac{P(enfermo)
{P(positivo)}

El Teorema de Bayes-

\times

P(positivo|enfermo)}

El teorema de Bayes, en la teora de la probabilidad, es una proposicin


planteada por el filsofo ingls Thomas Bayes ( 1702-1761)1 en 1763,2
que expresa la probabilidad condicional de un evento aleatorio A dado B
en trminos de la distribucin de probabilidad condicional del evento B
dado A y la distribucin de probabilidad marginal de slo.
En trminos ms generales y menos matemticos, el teorema de Bayes
es de enorme relevancia puesto que vincula la probabilidad de A dado B
con la probabilidad de B dado A. Es decir que sabiendo la probabilidad
de tener un dolor de cabeza dado que se tiene gripe, se podra saber (si
se tiene algn dato ms), la probabilidad de tener gripe si se tiene un
dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del
teorema en cuestin para la ciencia en todas sus ramas, puesto que
tiene vinculacin ntima con la comprensin de la probabilidad de
aspectos causales dados los efectos observados.
Aplicaciones.
El teorema de Bayes es vlido en todas las aplicaciones de la teora de la
probabilidad. Sin embargo, hay una controversia sobre el tipo de
probabilidades que emplea. En esencia, los seguidores de la estadstica
tradicional slo admiten probabilidades basadas en experimentos
repetibles y que tengan una confirmacin emprica mientras que los
llamados estadsticos bayesianos permiten probabilidades subjetivas. El
teorema puede servir entonces para indicar cmo debemos modificar
nuestras probabilidades subjetivas cuando recibimos informacin
adicional de un experimento. La estadstica bayesiana est demostrando
su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo
a priori y el hecho de permitir revisar esas estimaciones en funcin de la
evidencia emprica es lo que est abriendo nuevas formas de hacer
conocimiento. Una aplicacin de esto son los clasificadores bayesianos
que son frecuentemente usados en implementaciones de filtros de
correo basura o spam, que se adaptan con el uso. Otra aplicacin se
encuentra en la fusin de datos, combinando informacin expresada en
trminos de densidad de probabilidad proveniente de distintos sensores.

Introduccin.
La presente investigacin se refiere al tema de la Estadstica, que se puede definir
es la ciencia cuyo objetivo es reunir una informacin para facilitar al hombre el
estudio de datos masivos de individuos, grupos, series de hechos, etc. y deducir
de ello gracias al anlisis de estos datos unos significados precisos o unas
previsiones para el futuro.

Tambin se refiere a la importancia, mtodos e importancia de la estadstica ya


que est relacionada con el estudio de proceso cuyo resultado es ms o menos
imprescindible y con la finalidad de obtener conclusiones para tomar decisiones
razonables de acuerdo con tales observaciones
La Estadstica se ocupa de los mtodos cientficos para recolectar, organizar,
resumir, presentar y analizar datos, as como de sacar conclusiones vlidas y
tomar decisiones con base en este anlisis, as tambin realizar predicciones a
cerca del conjunto del cual se han seleccionado dichos datos. El empleo
cuidadoso de los mtodos estadsticos permite obtener informacin precisa de los
datos.
La Estadstica es una disciplina que utiliza recursos matemticos para organizar y
resumir una gran cantidad de datos obtenidos de la realidad, e inferir conclusiones
respecto de ellos.
Por ejemplo, la estadstica interviene cuando se quiere conocer el estado sanitario
de un pas, a travs de ciertos parmetros como la tasa de morbilidad o mortalidad
de la poblacin.
En este caso la estadstica describe la muestra en trminos de datos organizados
y resumidos, y luego infiere conclusiones respecto de la poblacin.
Aplicada a la investigacin cientfica, tambin infiere cuando provee los medios
matemticos para establecer si una hiptesis debe o no ser rechazada.
La estadstica puede aplicarse a cualquier mbito de la realidad, y por ello es
utilizada en fsica, qumica, biologa, medicina, astronoma, psicologa, sociologa,
lingstica, demografa, etc.

OBJETIVOS:

Comprender la importancia del estudio de la historia de la estadstica, para lo cual


es necesario un recorrido por sus conceptos, mtodos e importancia y ms
definiciones, con el fin de acercarnos un poco ms al tema de la Estadstica.
Conocer sobre el tema con el cual se trabajara a lo largo del semestre en aplicable
a la contabilidad.
Aplicar apropiadamente los mtodos estadsticos en la recoleccin de informacin
y procesos matemticos bsicos en clculos estadsticos.
Adquirir los conocimientos y habilidades sobre el tema, ser capaz de reconocer los
elementos habituales de la estadstica
Aplicar los fundamentos bsicos para realizar un buen trabajo en clase.

Conclusin.

Los conceptos antes mencionados han sido analizados e investigados de


tal manera de hacer ms fcil su comprensin y entendimientos ya que
la estadstica es la ciencia que trata de entender, organizar y tomar
decisiones que estn de acuerdo con los anlisis efectuados. La
estadstica juega un papel muy importante en nuestras vidas, ya que
actualmente sta se ha convertido en un mtodo muy efectivo para
describir con mucha precisin los valores de datos econmicos, polticos,
sociales, psicolgicos, biolgicos y fsicos, adems, sirve como
herramienta para relacionar y analizar dichos datos. El trabajo del
experto estadstico ha evolucionado mucho, ya no consiste slo en
reunir y tabular los datos, sino sobre todo en el proceso de
interpretacin de esa informacin, ahora tiene un papel mucho ms
importante del que tenia en aos pasados.
Es de vital importancia para nuestra vida profesional venidera, que
manejemos estos conceptos con facilidad, as mismo el que los usemos
de la manera apropiada, siempre en pro de buscar soluciones a los
problemas que se nos puedan presentar.

Universidad rural de Guatemala.


Sede No. 25 Mazatenango Suchitepquez.

Trabajo de investigacin.
Temas:

1) Cuartiles y Percentiles.
2) Sesgo y Curtosis.
3) Diagrama de rbol y Tcnicas de Conteo.
4) Nociones bsicas de probabilidad.
5) Espacios mustrales Finitos.
6) Leyes de probabilidad.
7) Regla de la adicin.
8) Probabilidad condicional.
9) Independencia y regla de la multiplicacin.
10)
Teorema de Bayes.

Nombres:
Esly Susana Arriola lutin
Anica sucely Lpez Ambrosio.
Debora Cifuentes Garca.
Dusty Ommar Veliz Monroy.
Jaime Ral Velsquez Lpez.
Servando Jos de Len Reyes

4to Semestre
Ambiental.

NO. Carnet.
13-025-0029.
11-026-0135.
14-025-0059.
14-025-0131.
14-025-0026.
14-083-0047

de

Ingeniera

También podría gustarte