Está en la página 1de 11

ESTADSTICA Y PROBABILIDADINTRODUCCI N O C I N Y U T I L I D A D D E L A E S T A D S T I C A .

. Por estadstica entendemos una batera de recursos cientficos por los cuales podemos recolectar, organizar, resumir, presentar y analizar datos numricos de un conjunto de observaciones .La estadstica se emplea en aquellos casos en los que tenemos una gran cantidad de observaciones y cuya aparicin se rige por las leyes del azar. Es decir, se aplica a fenmenos cuya medicin requiere una coleccin de observaciones, pues hay algunos fenmenos que se presentan en masa, pero para los que no se requiere observacin alguna, pues se conocen a priori. Para saber el porcentaje de hombres mayores de un metro setenta en una poblacin, son necesarias una serie de medidas. En cambio no es necesaria ninguna observacin para saber la cantidad que integran un matrimonio. Para que sean de utilidad los datos estadsticos tienen que tener dos caractersticas bsicas :Deben ser pertinentes: deben guardar una relacin con el tema en cuestin.Deben ser insesgados: no deben tener deformaciones provenientes de prejuicios o de errores de los instrumentos empleados en relacin al resultado del sucesos. DEFINICION DE LO QUE ES ESTADISTICA Y PROBABILIDAD : Es la rama de las Matemticas que se va a encargar de Recopilar, Organizar, y Procesar datos con el fin de inferir las caractersticas de la poblacin, Su objetivo es la obtencin de conclusiones basadas en los datos experimentales. La palabra estadstica, proviene del latn status, que significa situacin o estadio (estado). La palabra como tal, se comenz a utilizar a mediados del siglo XVII, onde los europeos, dieron un vuelco evolutivo a la estadstica, transformndola en una verdadera ciencia. Esto Mediante la perfeccin de las metodologas a utilizar. LOS TIPOS DE ESTADSTICA:1. Descriptiva: Es la tcnica que se va a encargar de la recopilacin, presentacin, tratamiento y anlisis de los datos, con el objeto de resumir, describir las caractersticas de un conjunto de datos y por lo general toman forma de tablas y grficas.2. Inferencia Estadstica: Tcnica mediante la cual se sacan conclusiones o generalizaciones acerca de parmetros de una poblacin basndose en el estadgrafo o estadgrafos de una muestra de poblacin. OBJETIVO DE LA INFERENCIA ESTADSTICA: Extraer las conclusiones tiles sobre la totalidad de todas las observaciones posibles basndose en la informacin recolectada. Las variables, tambin suelen ser llamados caracteres cuantitativos, son aquellos que pueden ser expresados mediante nmeros. Son caracteres susceptibles de medicin. Como por ejemplo, la estatura, el peso, elsalario, laedad, etc.Segn, Murray R. Spiegel, (1992) "una variable es un smbolo, tal como X, Y,Hx, que puede tomar un valor cualquiera de un conjunto determinado de ellos ,llamado dominio de la variable. Si la variable puede tomar solamente un valor, se llama constante."Todos los elementos de la poblacin poseen los mismos tipos de caracteres, pero como estos en general no suelen representarse con la misma intensidad, es obvio que las variables toman distintos valores. Por lo tanto estos distintos nmeros o medidas que toman los caracteres son los "valores de la variable. Todos ellos juntos constituyen una variable. DATOS ESTADSTICOS (VARIABLES): Los datos son agrupaciones de cualquier nmero de observaciones relacionadas. Para que se considere un dato estadstico debe tener 2 caractersticas: a) Que sean comparables entre s. b) Que tengan alguna relacin. VARIABLE CUANTITATIVA O ESCALAR: Ser una variable cuando pueda asumir sus resultados en medidas numricas. VARIABLE CUANTITATIVA DISCRETA: Es aquella que puede asumir slo ciertos valores, nmeros enteros. Ejemplo: El nmero de estudiantes (1, 2,3 ,4) Aquellas que toman valores aislados (nmeros naturales), y que no pueden tomar ningn valor intermedio entre dos consecutivos fijados. VARIABLE CUANTITATIVA CONTINUA: Es aquella que tericamente puede tomar cualquier valor en una escala de medidas, ya sea entero o fraccionario. Ejemplo: Estatura: 1.90m Aquellas que toman infinitos valores (nmeros reales) en un intervalo dado, de forma que pueden tomar cualquier valor intermedio, al menos tericamente, en su rango de variacin.p. ej. , , , , ... VARIABLES CUALITATIVAS O NOMINALES: Cuando no es posible hacer medidas numricas, son susceptibles de clasificacin. Ejemplo: Color de autos: rojo, verde, azul. EXPERIMENTO: Es una actividad planificada, cuyos resultados producen un conjunto de datos. VARIABLE INDEPENDIENTE: Son las que el investigador escoge para establecer agrupaciones en el estudio, clasificando intrnsecamente a los casos del mismo. Un tipo especial son las variables de confusin, que modifican al resto de las variables independientes y que de no tenerse en cuenta adecuadamente pueden alterar los resultados por medio de un sesgo. VARIABLE DEPENDIENTE:Son las variables de respuesta que se observan en el estudio y que podran estar influenciadas por los valores de las variables independientes Variable aleatoria Una variable es aleatoria si su valor est determinado por el azar. En gran nmero de experimentos aleatorios es necesario, para su tratamiento matemtico, cuantificar los resultados de modo que se asigne un nmero real a cada uno de los resultados posibles del

experimento. De este modo se establece una relacin funcional entre elementos del espacio muestral asociado al experimento y nmeros reales. En probabilidad y estadstica, una variable aleatoria o variable estocstica es una variable cuyos valores se obtienen de mediciones en algn tipo de experimento aleatorio. Formalmente, una variable aleatoria es una funcin, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) a nmeros reales (p.e., su suma). Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento an no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lgicos, funciones... El trmino elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo). Una variable aleatoria (v.a.) X es una funcin real definida en el espacio muestral, , asociado a un experimento aleatorio.1 Se llama rango de una v.a. X y lo denotaremos RX, a la imagen o rango de la funcin , es decir, al conjunto de los valores reales que sta puede tomar, segn la aplicacin X. Dicho de otro modo, el rango de una v.a. es el recorrido de la funcin por la que sta queda definida: Funcin de densidad de una v.a. contina. La funcin de densidad de probabilidad (FDP) o, simplemente, funcin de densidad, representada comnmente como f(x), se utiliza con el propsito de conocer cmo se distribuyen las probabilidades de un suceso o evento, Origen de la Probabilidad: Los juegos de azar: La probabilidad naci gracias a los juegos de azar. En el Renacimiento empiezan a surgir inquietudes entorno a contabilizar el nmero de posibles resultados de un dado lanzado varias veces, o problemas ms prcticos sobre cmo repartir las ganancias de los jugadores cuando el juego se interrumpe antes de finalizar. A los matemticos del siglo XVI como Pacioli, Cardano y Tartaglia se deben las primeras consideraciones sobre los juegos de azar. Nacimiento de la probabilidad: En 1654 Antoine Gombaud, el caballero de Mr, un jugador compulsivo, pidi a Blaise Pascal que le resolviese el problema del reparto de apuestas cuando se suspenda la partida antes de terminar. La solucin consisti en darse cuenta de que el reparto de las apuestas debe hacerse en funcin de la probabilidad de ganar que tuviese cada jugador en el momento de interrumpirse el juego. Haba nacido la probabilidad. Deterministico:se conocen sus resultados antes de realizarlos.no son de inters para la estadstica.. No deterministico:sus resultados se conocen una vez que se ha concluido el experiemento.se pueden describir los posibles resultados,sin poder deciar cual de ellos va a ocurrir. Probabilidad Cuando es imposible de que ocurra un evento, su probabilidad es 0. Probabilidad y eventos compuestos Cuando calculas probabilidades, a menudo tienes que tomar en consideracin dos o ms eventos, conocidos como eventos compuestos. En un evento compuesto, si el segundo evento no depende del resultado del primer evento, entonces los eventos son independientes. Si el resultado de un evento de un evento compuesto influye en el otro evento, entonces los eventos son dependientes. Probabilidad experimental : Sabes que debido a que un cubo numerado tiene seis posibles resultados, la probabilidad de obtener un uno al lanzar un cubo es de 1/6. Este tipo de probabilidad se llama probabilidad terica. Pero si lanzas un cubo un cierto nmero de veces, la fraccin de las veces que obtienes un uno puede que no sea exactamente de 1/6 . Este tipo de probabilidad se llama probabilidad experimental. Clarise llev a cabo un experimento para averiguar su probabilidad de acertar un tiro durante un partido de bsquetbol. Clarise acert 40 de sus 100 tiros libres. Cul es la probabilidad experimental de acertar un tiro libre?: Nmeros de tiros libres acertados probabilidad experimental------------------------------------------------------. Nmeros de tiros libres intentados Por lo tanto, su probabilidad experimental de acertar un tiro libre es de 40/100 2/5 1.1 Eventos incompatibles : Supongamos que tiras un dado y quieres determinar la probabilidad de que aparezca un nmero mltiplo de tres o divisor de 10. Para que sea mltiplo de tres, tenemos los casos: 3, 6 Para que sea un divisor de 10, tenemos los casos: 1, 2, 5

Observa que es imposible que se cumplan ambos eventos, ya que no hay ningn elemento comn. En este caso se dice que son eventos incompatibles. La probabilidad de que aparezca un nmero mltiplo de tres o divisor de 10 es, entonces: En general, si A y B son eventos incompatibles, la probabilidad del evento A o B se calcula mediante la suma de sus probabilidades. Se supone que puede ocurrir A o puede ocurrir B, pero la interseccin es vaca, pues no hay elementos compatibles. Por tanto: P(A U B) = P(A) + P(B) . Probabilidad de eventos compuestos Independiente: se dice que son dos eventos independientes cuando la ocurrencia de una afecta a la otra ocurrencia del otro.Ej=el lanzar una moneda 3 veces es un evento independiente ya que el resultado de un lanzamiento no afecta al otro . Compuesto: Cuando calculas probabilidades a menudo tienes que tomar una consideracion dos o mas eventos conocidos como eventos compuestos . En un evento compuesto si el 2do evento no depende del resultado del primer evento entonces son independientes. Eventos compuestos: se llaman eventos compuestos los que se forman combinando varios eventos simples. EJEMPLO: si se tira un dado cual es la probabilidad de obtener 1 numero par o un numero mayor que 4 evento A = numero par evento B = numero mayor que 4 espacio(1,2,3,4,5,6) 6 Pa=2,4,6 Pb=5,6 PA+PB-PA y B P=3/6+2/6-1/6=4/6=.66 PB=2/6 PA y B= 1/6 si se tira un dado cual es la probabilidad de que salga un cuatro o un cinco A= que salga un cuatro espacio= (123456) 6 PA=1 PB=1 1/6+1/6=2/6 P=.33 Experimento binomial: Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). Se designa por X a la variable que mide el nmero de xitos que se han producido en los n experimentos. Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de probabilidad binomial, y se denota B(n,p). La distribucin normal es tambin un caso particular de probabilidad de variable aleatoria contnua, fue reconocida por primera vez por el francs Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elabor desarrollos ms profundos y formul la ecuacin de la curva; de ah que tambin se le conozca, ms comnmente, como la "campana de Gauss". La distribucin de una variable normal est completamente determinada por dos parmetros, su media () y su desviacin estndar (). Con esta no tacin, la densidad de la normal viene dada por la ecuacin: Existen dos razones bsicas por las cuales la distribucin normal ocupa un lugar tan prominente en la estadstica: 1. Tiene algunas propiedades que la hacen aplicable a un gran nmero de situaciones en la que es necesario hacer inferencias mediante la toma de muestras.2. La distribucin normal casi se ajusta a las distribuciones de frecuencias reales observadas en muchos fenmenos, incluyendo caractersticas humanas, resultados de procesos fsicos y muchas otras medidas de inters para los administradores, tanto en el sector pblico como en el privado. Propiedad: No importa cules sean los valores de y para una distribucin de probabilidad normal, el rea total bajo la curva siempre es 1, de manera que podemos pensar en reas bajo la curva como si fueran probabilidades. Matemticamente es verdad que: Aproximadamente el 68% de todos los valores de una poblacin normalmente distribuida se encuentra dentro de 1 desviacin estndar de la media. Aproximadamente el 95.5% de todos los valores de una poblacin normalmente distribuida se encuentra dentro de 2 desviaciones estndar de la media.

Aproximadamente el 99.7% de todos los valores de una poblacin normalmente distribuida se encuentra dentro de 3 desviaciones

estndar de la media. Para cualquier distribucin normal de probabilidad, todos los intervalos que contienen el mismo nmero de desviaciones estndar a partir de la media contendrn la misma fraccin del rea total bajo la curva para cualquier distribucin de probabilidad normal. Esto hace que sea posible usar solamente una tabla de la distribucin de probabilidad normal estndar.

El valor de z est derivado de la frmula: En la que: x = valor de la variable aleatoria de inters. = media de la distribucin de la variable aleatoria. = desviacin estndar de la distribucin. z = nmero de desviaciones estndar que hay desde x a la media de la distribucin. (El uso de z es solamente un cambio de escala de medicin del eje horizontal) Teorema del lmite central El teorema del lmite central o teorema central del lmite indica que, en condiciones muy generales, si Sn es la suma de n variables aleatorias independientes, entonces la funcin de distribucin de Sn se aproxima bien a una distribucin normal (tambin llamada distribucin gaussiana, curva de Gauss o campana de Gauss). As pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande.

Definicin: Sea

la funcin de densidad de la distribucin normal definida como1. , a la distribucin se le conoce como normal

Con una media y una varianza 2. El caso en el que su funcin de densidad es estndar.

Se define Sn como la suma de n variables aleatorias, independientes, idnticamente distribuidas, y con una media y varianza 2 finitas (20): De manera que, la media de Sn es n y la varianza n2, dado que son variables aleatorias independientes. Con tal de hacer ms fcil la comprensin del teorema y su posterior uso, se hace una estandarizacin de Sn como: Para que la media de la nueva variable sea igual a 0 y la desviacin estndar sea igual a 1. As, las variables Zn convergern en distribucin a la distribucin normal estndar N(0,1), cuando n tienda a infinito. Como consecuencia, si (z) es la funcin de distribucin de N(0,1), para cada nmero real z: Donde Pr ( ) indica probabilidad y lim se refiere a lmite matemtico. Teorema del lmite central: Sea , , ..., un conjunto de variables aleatorias, independientes e idnticamente distribuidas con

media y varianza 2 distinta de cero. Sea

. Entonces:

Es muy comn encontrarlo con la variable estandarizada Zn en funcin de la media muestral

puesto que son equivalentes, as como encontrarlo en versiones no normalizadas como puede ser:4 5 Teorema (del lmite central): Sea , , ..., un conjunto de variables aleatoria, independientes e idnticamente distribuidas de

una distribucin con media y varianza 20. Entonces, si n es suficientemente grande, la variable aleatoria tiene aproximadamente una distribucin normal con MEDIDAS DE TENDENCIAS CENTRAL y .

Moda (estadstica): La moda es el dato ms repetido, el valor de la variable con mayor frecuencia absoluta.20 En cierto sentido se corresponde su definicin matemtica con la locucin "estar de moda", esto es, ser lo que ms se lleva. Su clculo es extremadamente sencillo, pues slo necesita de un recuento. En variables continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la interpolacin. Sus principales propiedades son: Clculo sencillo. Interpretacin muy clara. Al depender slo de las frecuencias, puede calcularse para variables cualitativas. Es por ello el parmetro ms utilizado cuando al resumir una poblacin no es posible realizar otros clculos, por ejemplo, cuando se enumeran en medios periodsticos las caractersticas ms frecuentes de determinado sector social. Esto se conoce informalmente como "retrato robot".21 Inconvenientes: Su valor es independiente de la mayor parte de los datos, lo que la hace muy sensible a variaciones muestrales. Por otra parte, en variables agrupadas en intervalos, su valor depende excesivamente del nmero de intervalos y de su amplitud. Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera de la moda, no afectan en modo alguno a su valor. No siempre se sita hacia el centro de la distribucin. Puede haber ms de una moda en el caso en que dos o ms valores de la variable presenten la misma frecuencia (distribuciones bimodales o multimodales). Mediana (estadstica). La mediana es un valor de la variable que deja por debajo de s a la mitad de los datos, una vez que estos estn ordenados de menor a mayor.22 Por ejemplo, la mediana del nmero de hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posicin central es 2:

En caso de un nmero par de datos, la mediana no correspondera a ningn valor de la variable, por lo que se conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso de doce datos como los anteriores:

Se toma como mediana En este ejemplo basado en una tabla real de percentiles usada en pediatra, puede comprobarse que una nia de 24 meses con un peso de 13 kg estara en el percentil 75, esto es, su peso es superior al 75% de las nias de su edad. La mediana correspondera, aproximadamente, a 12 kg (interseccin de la lnea curva ms oscura con la lnea horizontal correspondiente al valor 12 en el eje vertical, para esa misma edad). Las medidas de dispersin, tambin llamadas medidas de variabilidad, muestran la variabilidad de una distribucin, indicando por medio de un nmero, si las diferentes puntuaciones de una variable estn muy alejadas de la mediana media. Cuanto mayor sea ese valor, mayor ser la variabilidad, cuanto menor sea, ms homognea ser a la mediana media. As se sabe si todos los casos son parecidos o varan mucho entre ellos. Para calcular la variabilidad que una distribucin tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmtica. Pero la suma de las desviaciones es siempre cero, as que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviacin media) y otra es tomando las desviaciones al cuadrado (Varianza Rango estadstico: El rango o recorrido estadstico es la diferencia entre el valor mnimo y el valor mximo en un grupo de nmeros aleatorios. Se le suele simbolizar con R. Requisitos del rango: Ordenamos los nmeros segn su tamao. Restamos el valor mnimo del valor mximo Ejemplo: Para una muestra (8,7,6,9,4,5), el dato menor es 4 y el dato mayor es 9 (Valor unitario inmediatamente posterior al dato mayor menos el dato menor). Sus valores se encuentran en un rango de: Rango = 5

Medio rango: El medio rango de un conjunto de valores numricos es la media del menor y mayor valor, o la mitad del camino entre el dato de menor valor y el dato de mayor valor. En consecuencia, el medio rango es: Ejemplo: Para una muestra de valores (3, 3, 5, 6, 8), el dato de menor valor Min= 3 y el dato de mayor valor Max= 8. El medio rango resolviendolo mediante la correspondiente frmula sera:

Representacin del medio rango: La varianza es una medida estadstica que mide la dispersin de los valores respecto a un valor central (media), es decir, es el cuadrado de las desviaciones: .

Propiedades: La varianza es siempre positiva o 0: Si a los datos de la distribucin les sumamos una cantidad constante la varianza no se modifica.

c Si a los dato de la distribucin les multiplicamos una constante, la varianza queda multiplicada por el cuadrado de esa constante.

Propiedad distributiva:

cov

Desviacin tpica: La varianza a veces no se interpreta claramente, ya que se mide en unidades cuadrticas. Para evitar ese problema se define otra medida de dispersin, que es la desviacin tpica, o desviacin estndar, que se halla como la raz cuadrada positiva de la varianza. La desviacin tpica informa sobre la dispersin de los datos respecto al valor de la media; cuanto mayor sea su valor, ms dispersos estarn los datos. Esta medida viene representada en la mayora de los casos por S, dado que es su inicial de su nominacin en ingls.

Desviacin tpica muestral:

Desviacin tpica poblaciona: Primero hemos declarado un vector con nombre X, donde introduzco los nmeros de la serie. Luego con el comando stdev se hallar la desviacin tpica. La covarianza entre dos variables es un estadstico resumen indicador de si las puntuaciones estn relacionadas entre s. La formulacin clsica, se simboliza por la letra griega sigma () cuando ha sido calculada en la poblacin. Si se obtiene sobre una muestra, se designa por la letra " ".

La formula suele aparecer expresada como: Este tipo de estadstico puede utilizarse para medir el grado de relacin de dos variables si ambas utilizan una escala de medida a nivel de intervalo/razn (variables cuantitativas). La expresin se resuelve promediando el producto de las puntuaciones diferenciales por su tamao muestral (n pares de puntuaciones, n-1 en su forma insesgada). Este estadstico, refleja la relacin lineal que existe entre dos variables. El resultado numrico fluctua entre los

rangos de +infinito a -infinito. Al no tener unos lmites establecidos no puede determinarse el grado de relacin lineal que existe entre las dos variables, solo es posible ver la tendencia.

. Coeficiente de Correlacin de Pearson El coeficiente de correlacin de Pearson, r, permite saber si el ajuste de la nube de puntos a la recta de regresin obtenida es satisfactorio. Se define como el cociente entre la covarianza y el producto de las desviaciones tpicas (raz cuadrada de las varianzas).

Teniendo en cuenta el valor de la covarianza y las varianzas, se puede evaluar mediante cualquiera de las dos expresiones siguientes:

Propiedades: El coeficiente de correlacin, r, presenta valores entre 1 y +1. Cuando r es prximo a 0, no hay correlacin lineal entre las variables. La nube de puntos est muy dispersa o bien no forma una lnea recta. No se puede trazar una recta de regresin. Cuando r es cercano a +1, hay una buena correlacin positiva entre las variables segn un modelo lineal y la recta de regresin que se determine tendr pendiente positiva, ser creciente. Cuando r es cercano a -1, hay una buena correlacin negativa entre las variables segn un modelo lineal y la recta de regresin que se determine tendr pendiente negativa: es decreciente. El recorrido o rango de una variable estadstica es la diferencia entre el mayor y el menor valor que toma la misma. Es la medida de dispersin ms sencilla de calcular, aunque es algo burda porque slo toma en consideracin un par de observaciones. Basta con que uno de estos dos datos vare para que el parmetro tambin lo haga, aunque el resto de la distribucin siga siendo, esencialmente, la misma. Existen otros parmetros dentro de esta categora, como los recorridos o rangos intercuantlicos, que tienen en cuenta ms datos y, por tanto, permiten afinar en la dispersin. Entre los ms usados est el rango intercuartlico, que se define como la diferencia entre el cuartil tercero y el cuartil primero. En ese rango estn, por la propia definicin de los cuartiles, el 50% de las observaciones. Este tipo de medidas tambin se usa para determinar valores atpicos. En estadstica descriptiva, las medidas de posicin no central permiten conocer otros puntos caractersticos de la distribucin que no son los valores centrales. Entre las medidas de posicin no central ms importantes estn los cuantiles. El trmino cuantil fue usado por primera vez por Kendall en 1940. El cuantil de orden p de una distribucin (con 0 < p < 1) es el valor de la variable xp que marca un corte de modo que una proporcin p de valores de la poblacin es menor o igual que xp. Por ejemplo, el cuantil de orden 0.36 dejara un 36% de valores por debajo y el cuantil de orden 0.50 se corresponde con la mediana de la distribucin. Los cuantiles suelen usarse por grupos que dividen la distribucin en partes iguales; entendidas estas como intervalos que comprenden la misma proporcin de valores. Los ms usados son: Los Cuartiles, que dividen a la distribucin en cuatro partes (corresponden a los cuantiles 0.25, 0.50 y 0.75); Los Quintiles, que dividen a la distribucin en cinco partes (corresponden a los cuantiles 0.20, 0.40, 0.60 y 0.80) ; Los Deciles, que dividen a la distribucin en diez partes; Los Percentiles, que dividen a la distribucin en cien partes. En el clculo de cuantiles con distribuciones de variable continua (por ejemplo, con datos agrupados) puede conseguirse fcilmente que las partes en que se divide la distribucin sean exactamente iguales. Sin embargo, en las distribuciones de variable discreta (como el caso de datos aislados) debemos conformarnos con que estas partes sean aproximadamente iguales. Por desgracia, no hay consenso sobre la forma en que realizar esta aproximacin, existiendo en la literatura cientfica nueve mtodos diferentes, que conducen a resultados diferentes. Por ello, al calcular cualquier cuantil de datos no agrupados por medio de calculadora, software o manualmente, es bsico el saber e indicar el mtodo utilizado.

En estadstica, un histograma es una representacin grfica de una variable en forma de barras, donde la superficie de cada barra es proporcional a la frecuencia de los valores representados. En el eje vertical se representan las frecuencias, y en el eje horizontal los valores de las variables, normalmente sealando las marcas de clase, es decir, la mitad del intervalo en el que estn agrupados los datos. Tipos de histograma: Diagramas de barras simples: Representa la frecuencia simple (absoluta o relativa) mediante la altura de la barra la cual es proporcional a la frecuencia simple de la categora que representa. Diagramas de barras compuesta: Se usa para representar la informacin de una tabla de doble entrada o sea a partir de dos variables, las cuales se representan as; la altura de la barra representa la frecuencia simple de las modalidades o categoras de la variable y esta altura es proporcional a la frecuencia simple de cada modalidad. Diagramas de barras agrupadas: Se usa para representar la informacin de una tabla de doble entrada o sea a partir de dos variables, el cual es representado mediante un conjunto de barras como se clasifican respecto a las diferentes modalidades. Diagramas de barras: muestran los valores de las frecuencias absolutas sobre un sistema de ejes cartesianos, cuando la variable es discreta o cualitativa. Grfico circular, de sectores o pastel. Polgono de frecuencias. Se utiliza, al igual que el histograma, para representar distribuciones de frecuencias de variables cuantitativas continuas, pero como no se utilizan barras en su confeccin sino segmentos de recta, de ah el nombre de polgono. Habitualmente se usa cuando se quiere mostrar en el mismo grfico ms de una distribucin o una clasificacin cruzada de una variable cuantitativa continua con una cualitativa o cuantitativa discreta, ya que por la forma de construccin del histograma slo se puede representar una distribucin. DIAGRAMA DE CAJA O BLOX---PLOT....

EL DIAGRAMA DE CAJA O DE BLOX--PLOT ESTE No es ms que un grafico a traves del cual podemos representar los cuartiles 1,2,3 , la mediana asi mismo sirve para para establecer datos a tpicos los cuales los podemos encontrar o ubicar en el diagrma de cajas en el tambien neceitamos pasos y formulas a aplicar para asi determinar si las barreras ( interior superio, interior inferior, exterir inferior, exterior superior los establecemos alli o se encuentran fuera y determinamos los datos atpicos 1. barrera interior y barrera exterior: cuando los datos se encuentran alli los datos son a tpicos. 2. si se encuentran datos despues de la barrera exterior se les llama datos a atipicos externos. En estadstica, se denomina distribucin de frecuencias a la agrupacin de datos en categoras mutuamente excluyentes que indican el nmero de observaciones en cada categora. Esto proporciona un valor aadido a la agrupacin de datos. La distribucin de frecuencias presenta las observaciones clasificadas de modo que se pueda ver el nmero existente en cada clase. La frecuencia acumulada o frecuencia acumulativa es la frecuencia de ocurrencia de valores de un fenmeno menores que un valor de referencia. El fenmeno puede ser un variable aleatoria que varia en el tiempo o en el espacio. La frecuencia acumulada se llama tambin frecuencia de noexcedencia. El anlisis de la frecuencia acumulada se hace con el propsito de obtener una idea de cuantas veces ocurrira un cierto fenmeno lo que puede ser instrumental en describir o explicar una situacin en la cual el fenmeno juega un papel importante, o en planificar intervenciones, por ejemplo en el control de inundaciones. 1 La frecuencia acumulada es la frecuencia estadstica F(XXr) con que el valor de un variable aleatoria (X) es menor que o igual a un valor de referencia (Xr). La frecuencia acumulada relativa se deja escribir como Fc(XXr), o en breveFc(Xr), y se calcula de: Fc (Xr) = MXr / N. donde MXr es el nmero de datos X con un valor menor que o igual a Xr, y N es nmero total de los datos. Fc = M / N Cuando Xr=Xmin, donde Xmin es el valor mnimo observado, se ve que Fc=1/N, porque M=1. Por otro lado, cuando Xr=Xmax, donde Xmax es el valor mximo observado, se ve que Fc=1, porque M=N. En porcentaje la ecuacion es: Fc(%) = 100 M / N La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y el nmero total de datos. Se representa por Ni. Se puede expresar en tantos por ciento. La probabilidad es la parte de las matemticas que trata de manejar con nmeros la incertidumbre. La probabilidad se mide por un nmero entre cero y uno: si un suceso no ocurre nunca, su probabilidad asociada es cero, mientras que si ocurriese siempre su probabilidad sera igual a uno. As, las probabilidades suelen venir expresadas

como decimales, fracciones o porcentajes. CONCEPTUALIZACIN BSICA DE LA PROBABILIDAD : Para definir la probabilidad y determinar valores de probabilidad, se han desarrollado 3 enfoques conceptuales: a) Enfoque clsico de la probabilidad b) Enfoque de frecuencias relativas c) Enfoque subjetivo de la probabilidad A.ENFOQUE CLSICO DE LA PROBABILIDAD (a priori) : 1.Este enfoque permite determinar valores de probabilidad antes de ser observado el experimento por lo que se le denomina enfoque a priori. 2. El enfoque clsico es aplicado cuando todos los resultados son igualmente probables y no pueden ocurrir al mismo tiempo. 3. queremos conocer la probabilidad del evento A segn este enfoque debemos calcular el siguiente cociente: N(A) P(A) = ------------N(S) Donde: N(A): resultados elementales posibles son favorables en el evento A N(S): posibles resultados en el espacio muestral ENFOQUE DE FRECUENCIAS RELATIVAS (a posteriori o emprico) : Este enfoque permite determinar la probabilidad con base en la proporcin de veces que ocurre un resultado favorable en cierto nmero experimentos. No implica ningn supuesto previo de igualdad de probabilidades. A este enfoque se le denomina tambin enfoque emprico debido a que para determinar los valores de probabilidad se requiere de la observacin y de la recopilacin de datos. Tambin se le denomina a posteriori, ya que el resultado se obtiene despus de realizar el experimento un cierto nmero de veces. EJEMPLOS : 1) Antes de incluir la cobertura para ciertos tipos de problemas dentales en plizas de seguros mdicos para adultos con empleo, una compaa de seguros desea determinar la probabilidad de ocurrencia de esa clase de problemas, para que pueda fijarse la prima de seguros de acuerdo con esas cifras. Por ello, un especialista en estadstica recopila datos para 10,000 adultos que se encuentran en las categoras de edad apropiadas y encuentra que 100 de ellos han experimentado el problema dental especfico durante el ao anterior. Por ello, la probabilidad de ocurrencia es: 100 P(A) = --------------- = 0.01, o 1% = 10,000 2) Se sabe que una moneda est cargada. Para determinar la probabilidad de que caiga guila se lanza 60 veces la moneda al aire, de las cuales 25 veces cay guila. Si aplicamos la frmula: P ( cae guila ) = 25 = 0.41= 60 ENFOQUE SUBJETIVO DE LA PROBABILIDAD (personalista) : Se diferencia de lo dos enfoques anteriores, debido a que tanto el enfoque clsico como el de frecuencia relativa producen valores de probabilidad objetivos. El enfoque seala que la probabilidad de un evento es el grado de confianza que una persona tiene en que el evento ocurra, con base en toda la evidencia que tiene disponible, fundamentado en la intuicin, opiniones, creencias personales y otra informacin indirecta. Este enfoque no depende de la repetitividad de ningn evento y permite calcular la probabilidad de sucesos nicos y se da el caso de que ocurra o no esa nica vez. Debido a que el valor de la probabilidad es un juicio personal, al enfoque subjetivo se le denomina tambin enfoque personalista. EJEMPLOS : 1) Hay una probabilidad del 80% de que el Amrica le gane a las Chivas. 2) Hay una probabilidad del 90% de que las ventas mejoren el ao prximo . 3) Hay una alta probabilidad de sacarme un 100. 4) A causa de los impuestos y de otros posibles usos de sus fondos, un inversionista ha determinado que la compra de terrenos slo se justifica si existe al menos una probabilidad de 0.90 de que los terrenos aprecien su valor en 50% o ms en los cuatro aos siguientes.