Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Pia Probabilidad
Pia Probabilidad
DE NUEVO LEON
UANL
FACULTAD DE INGENIERIA CIVIL
Unidad de aprendizaje:
PROBABILIDAD Y ESTADISTICA
Docente:
Alumna:
Matricula:
2078411
Semestre:
Agosto-Diciembre
Indice.......................................................................................................................................1
Introuccion..............................................................................................................................3
Estadistica...............................................................................................................................3
Estadísticas descriptivas..........................................................................................................8
Probabilidad............................................................................................................................8
Modelos discretos.................................................................................................................13
Distribución binomial...........................................................................................................13
Distribución hipergeométrica................................................................................................14
Distribución de poisson.........................................................................................................14
Binomial-poisson..................................................................................................................15
Modelos continuos................................................................................................................15
Distribución uniforme...........................................................................................................15
Distribución exponencial......................................................................................................16
Distribución normal..............................................................................................................16
Inferencia estadística.............................................................................................................17
Resumen general...................................................................................................................18
1
INTROUCCION
La probabilidad y estadística, las ramas de las matemáticas relacionadas con las leyes que
rigen los eventos aleatorios, incluida la recopilación, el análisis, la interpretación y la
visualización de datos numéricos. La probabilidad tiene su origen en el estudio de los
juegos de azar y los seguros en el siglo XVII, y ahora es una herramienta indispensable
tanto de las ciencias sociales como de las naturales. Se puede decir que las estadísticas
tienen su origen en los censos realizados hace miles de años; Sin embargo, como disciplina
científica distinta, se desarrolló a principios del siglo XIX como el estudio de las
poblaciones, las economías y las acciones morales y más tarde en ese siglo como la
herramienta matemática para analizar tales números. A continuación, se hablará más a
detalle de cada una de las ramas incluyendo algunos conceptos importantes para cada una
así mismo de su historia y origen.
ESTADISTICA
La palabra estadística fue utilizada por primera vez por un erudito alemán Gottfried
Achenwall a mediados del siglo XVIII como la ciencia del arte de gobernar relacionada con
la recopilación y el uso de datos por parte del estado. Aquí vemos la breve historia de la
Estadística.
juegos de azar
Las matemáticas modernas del azar suelen fecharse en una correspondencia entre los
matemáticos franceses Pierre de Fermat y Blaise Pascal en 1654. Su inspiración provino de
un problema sobre juegos de azar, propuesto por un jugador notablemente filosófico, el
chevalier de Meré. De Meré preguntó sobre la división adecuada de las apuestas cuando se
2
interrumpe un juego de azar. Supongamos que dos jugadores, A y B, están jugando un
juego de tres puntos, cada uno de los cuales ha apostado 32 pistolas, y son interrumpidos
después de que A tiene dos puntos y B tiene uno. Para lo cual se realiza la siguiente
pregunta; “¿Cuánto debe recibir cada uno?”
Pascal pensó que la solución de Fermat era difícil de manejar y propuso resolver el
problema no en términos de posibilidades sino en términos de la cantidad que ahora se
llama "expectativa". Supongamos que B ya había ganado la siguiente ronda. En ese caso,
las posiciones de A y B serían iguales, habiendo ganado cada uno dos juegos, y cada uno
tendría derecho a 32 pistolas. A debe recibir su parte, en cualquier caso. Los 32 de B, por el
contrario, dependen de la suposición de que ganó la primera ronda. Esta primera ronda
ahora se puede tratar como un juego justo para esta apuesta de 32 pistolas, de modo que
cada jugador tiene una expectativa de 16. Por lo tanto, el lote de A es 32 + 16, o 48, y el de
B es solo 16.
Los juegos de azar como este proporcionaron problemas modelo para la teoría de las
probabilidades durante su período inicial y, de hecho, siguen siendo elementos básicos de
los libros de texto. Un trabajo póstumo de 1665 de Pascal sobre el “triángulo aritmético”
ahora vinculado a su nombre (ver teorema del binomio) mostró cómo calcular números de
combinaciones y cómo agruparlos para resolver problemas elementales de juego. Fermat y
3
Pascal no fueron los primeros en dar soluciones matemáticas a problemas como estos. Más
de un siglo antes, el matemático, médico y jugador italiano Girolamo Cardano calculó las
probabilidades de los juegos de suerte contando los casos igualmente probables. Su librito,
sin embargo, no se publicó hasta 1663, momento en el que los matemáticos de Europa ya
conocían bien los elementos de la teoría de las probabilidades. Nunca se sabrá qué hubiera
pasado si Cardano hubiera publicado en la década de 1520. No se puede suponer que la
teoría de la probabilidad hubiera despegado en el siglo XVI. Cuando comenzó a florecer, lo
hizo en el contexto de la “nueva ciencia” de la revolución científica del siglo XVII, cuando
el uso del cálculo para resolver problemas complicados había ganado una nueva
credibilidad. Cardano, además, no tenía mucha fe en sus propios cálculos de probabilidades
de juego, ya que también creía en la suerte, particularmente en la suya propia. En el mundo
renacentista de monstruosidades, maravillas y similitudes, el azar aliado al destino no se
naturalizaba fácilmente y el cálculo sobrio tenía sus límites.
4
La palabra estadística se define como una disciplina que incluye procedimientos y técnicas
que se utilizan para recopilar, procesar y analizar los datos numéricos para hacer inferencias
y tomar decisiones adecuadas en situaciones de incertidumbre (la incertidumbre se refiere a
la incompletitud, no implica ignorancia). En este sentido, la palabra estadística se usa en
sentido singular. Denota la ciencia de basar las decisiones en datos numéricos.
En otras palabras, la estadística es una rama de las matemáticas aplicadas que implica la
recopilación, descripción, análisis e inferencia de conclusiones a partir de datos
cuantitativos. Las teorías matemáticas detrás de las estadísticas se basan en gran medida en
el cálculo diferencial e integral, el álgebra lineal y la teoría de la probabilidad.
Los estadísticos, las personas que hacen estadísticas, están particularmente interesados en
determinar cómo sacar conclusiones confiables sobre grupos grandes y eventos generales a
partir del comportamiento y otras características observables de muestras pequeñas. Estas
pequeñas muestras representan una parte del grupo grande o un número limitado de
instancias de un fenómeno general.
5
casi todos los departamentos de todas las empresas y también son una parte integral de la
inversión.
Las estadísticas se utilizan en prácticamente todas las disciplinas científicas, como las
ciencias físicas y sociales, así como en los negocios, las humanidades, el gobierno y la
fabricación. La estadística es fundamentalmente una rama de las matemáticas aplicadas que
se desarrolló a partir de la aplicación de herramientas matemáticas que incluyen el cálculo y
el álgebra lineal a la teoría de la probabilidad.
Se utilizan dos tipos de métodos estadísticos para analizar datos: estadísticas descriptivas y
estadísticas inferenciales. Los estadísticos miden y recopilan datos sobre los individuos o
elementos de una muestra, luego analizan estos datos para generar estadísticas descriptivas.
Luego pueden usar estas características observadas de los datos de la muestra, que se
denominan correctamente "estadísticas", para hacer inferencias o conjeturas informadas
sobre las características no medidas (o no medidas) de la población más amplia, conocidas
como parámetros.
ESTADÍSTICAS DESCRIPTIVAS
Las estadísticas descriptivas se centran en la tendencia central, la variabilidad y la
distribución de los datos de la muestra. La tendencia central significa la estimación de las
características, un elemento típico de una muestra o población, e incluye estadísticas
descriptivas como la media, la mediana y la moda. La variabilidad se refiere a un conjunto
de estadísticas que muestran cuánta diferencia hay entre los elementos de una muestra o
población a lo largo de las características medidas, e incluye métricas como el rango, la
varianza y la desviación estándar.
PROBABILIDAD
La probabilidad conocida como la lógica de la incertidumbre. El clérigo inglés Joseph
Butler, en su muy influyente Análoga of Religion (1736), llamó a la probabilidad “la guía
misma de la vida”. La frase, sin embargo, no se refería al cálculo matemático sino
simplemente a los juicios hechos donde la demostración racional es imposible. La palabra
probabilidad se usó en relación con las matemáticas del azar en 1662 en la Lógica de Port-
Royal, escrita por los compañeros jansenistas de Pascal, Antoine Arnauld y Pierre Nicole.
7
Pero desde la época medieval hasta el siglo XVIII e incluso hasta el XIX, una creencia
probable era más a menudo simplemente una que parecía plausible, provenía de una buena
autoridad o era digna de aprobación. La probabilidad, en este sentido, fue enfatizada en
Inglaterra y Francia desde finales del siglo XVII como respuesta al escepticismo. Es posible
que el hombre no pueda alcanzar un conocimiento perfecto, pero puede saber lo suficiente
para tomar decisiones sobre los problemas de la vida diaria. La nueva filosofía natural
experimental de finales del siglo XVII se asoció con esta ambición más modesta, que no
insistía en la prueba lógica.
En 1812, Laplace publicó su Théorie Analytique des Probabilités en la que dio la definición
clásica de la probabilidad de un evento discreto, que es la proporción del número de
resultados favorables al número finito total de todos los resultados posibles, dado que todos
los resultados son igualmente probables.
8
Los métodos utilizados para calcular estas probabilidades fueron principalmente
combinatorios. Hasta finales del siglo XIX, la contribución de Laplace siguió siendo la más
influyente de la teoría matemática de la probabilidad.
De acuerdo con esta extensión, el espacio muestral podría ser cualquier región con una
medida bien definida (longitud, área, volumen, etc.), donde el número de puntos es
incontable. Muchos problemas de probabilidad geométrica se resolvieron usando esta
extensión.
La teoría matemática de la probabilidad tal como la conocemos hoy en día fue desarrollada
por Andrey Kolmogorov. En 1933, Kolmogorov publicó sus Fundamentos de la teoría de la
probabilidad, donde combinó la noción de espacio muestral y la teoría de la medida para
axiomatizar la probabilidad.
En este desarrollo teórico de la medida, los eventos aleatorios están representados por
conjuntos y la probabilidad de un evento es simplemente una medida normada definida en
estos conjuntos. Además de convertirse en la base axiomática indiscutible de la teoría de la
probabilidad moderna, el trabajo de Kolmogorov proporcionó una base lógicamente
consistente para la teoría de la probabilidad y la unió a la corriente principal de las
matemáticas modernas.
9
En 1986, Liang y Zeger introdujeron el concepto de ecuaciones de estimación
generalizadas (GEE). Los modelos GEE eliminan la suposición de independencia y
acomodan datos altamente correlacionados al especificar una estructura para la matriz de
correlación de trabajo. Una de las limitaciones de los modelos GEE es que no acomodan
datos que tienen una estructura jerárquica anidada. En 1992, Bryk y Raudenbush
introdujeron el concepto de modelos multinivel, también conocidos como modelos lineales
jerárquicos.
Estos modelos se diferencian de los modelos GLM y GEE en que las ecuaciones que
definen los modelos lineales jerárquicos contienen un término de error en cada jerarquía, lo
que permite estimar la varianza en cada nivel de anidamiento. Además, estos modelos
tienen en cuenta tanto los efectos fijos como los aleatorios.
10
MODELOS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Una distribución de probabilidad queda definida y caracterizada por la especificación de la
variable aleatoria y su campo de variación y la especificación de su asignación de
probabilidades, mediante la función de distribución.
Nos apoyamos, por tanto, en el concepto de proceso experimental para definir muchos de
los modelos de probabilidad que vamos a estudiar.
11
Un proceso experimental es el conjunto de características que rigen la realización de un
determinado fenómeno aleatorio. Un proceso quedará definido por una serie de
características o hipótesis que puedan aplicarse a cierta categoría de experimentos o
experiencias en las que participa el azar. Cada proceso dará cuenta de un conjunto de
fenómenos similares que se producen con las mismas características o bajo las mismas
hipótesis.
A partir de las características del fenómeno que analicemos (partiendo del proceso
experimental del que se trate) podremos, identificando la variable aleatoria que nos
interesa, estudiar y determinar la estructura matemática de su distribución. Podremos
agrupar los modelos de probabilidad a aplicar.
MODELOS DISCRETOS
Aunque en adelante hablemos de distribución "tal", nos estaremos refiriendo al modelo tal.
Los modelos discretos, son modelos de probabilidad de discreta. Los más importante son
los modelos de BERNOUILLI.
DISTRIBUCIÓN BINOMIAL.
Nos encontramos con un modelo derivado de un proceso experimental puro, en el
que se plantean las siguientes circunstancias. Se realiza un número n de pruebas
(separadas o separables). Cada prueba puede dar dos únicos resultados A y Ã. La
probabilidad de obtener un resultado A es p y la de obtener un resultado à es q,
con q= 1-p, en todas las pruebas.
Esto implica que las pruebas se realizan exactamente en las mismas condiciones
y son, por tanto, independientes en sus resultados. Si se trata de extracciones,
(muestreo), las extracciones deberán ser con devolución (reemplazamiento), o
bien población grande (M.A.S). A este respecto hagamos una consideración: si el
proceso consiste en extraer individuos de una población y observar si poseen
12
cierta característica: el parámetro n será el número de extracciones (tamaño
muestral) y el parámetro p la proporción de individuos de la población que
poseen la característica en cuestión.
DISTRIBUCIÓN HIPERGEOMÉTRICA
La distribución hipergeométrica es especialmente útil en todos aquellos casos en
los que se extraigan muestras o se realizan experiencias repetidas sin devolución
del elemento extraído o sin retornar a la situación experimental inicial.
13
DISTRIBUCIÓN DE POISSON
Esta distribución es una de las más importantes distribuciones de variable
discreta. Sus principales aplicaciones hacen referencia a la modelización de
situaciones en las que nos interesa determinar el número de hechos de cierto tipo
que se pueden producir en un intervalo de tiempo o de espacio, bajo presupuestos
de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus usos frecuentes
es la consideración límite de procesos dicotómicos reiterados un gran número de
veces si la probabilidad de obtener un éxito es muy pequeña.
BINOMIAL-POISSON.
Se puede probar que la distribución binomial tiende a converger a la
distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro p
tiende a ser cero, de manera que el producto de n por p sea una cantidad
constante. De ocurrir esto la distribución binomial tiende a un modelo de Poisson
de parámetro l igual a n por p
14
MODELOS CONTINUOS
Los modelos continuos, son modelos de probabilidad de variable aleatoria continua. Los
más importante son, entre otros:El modelo Uniforme. El modelo Exponencial . El modelo o
distribución Normal
DISTRIBUCIÓN UNIFORME
La distribución o modelo uniforme puede considerarse como proveniente de un
proceso de extracción aleatoria. El planteamiento radica en el hecho de que la
probabilidad se distribuye uniformemente a lo largo de un intervalo. Así: dada
una variable aleatoria continua, x, definida en el intervalo [a] de la recta real,
diremos que x tiene una distribución uniforme en el intervalo [a]
DISTRIBUCIÓN EXPONENCIAL
A pesar de la sencillez analítica de sus funciones de definición, la distribución
exponencial tiene una gran utilidad práctica ya que podemos considerarla como
un modelo adecuado para la distribución de probabilidad del tiempo de espera
entre dos hechos que sigan un proceso de Poisson. De hecho, la distribución
exponencial puede derivarse de un proceso experimental de Poisson con las
mismas características que las que enunciábamos al estudiar la distribución de
Poisson, pero tomando como variable aleatoria, en este caso, el tiempo que tarda
en producirse un hecho
Obviamente, entonces, la variable aleatoria será continua. Por otro lado, existe
una relación entre el parámetro a de la distribución exponencial, que más tarde
aparecerá, y el parámetro de intensidad del proceso , esta relación es a = l
Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los
siguientes casos:
15
Distribución del tiempo de espera entre sucesos de un proceso de Poisson.
Distribución del tiempo que transcurre hasta que se produce un fallo, si se
cumple la condición que la probabilidad de producirse un fallo en un instante no
depende del tiempo transcurrido. Aplicaciones en fiabilidad y teoría de la
supervivencia.
DISTRIBUCIÓN NORMAL
La distribución normal es la más importante de todas las distribuciones de probabilidad. Es
una distribución de variable continua con campo de variación [-,], que queda
especificada a través de dos parámetros (que acaban siendo la media y la desviación
típica de la distribución).
Una variable aleatoria continua, X, definida en [-,] seguirá una distribución normal de
parámetros m y s.
Muchas de las demás distribuciones de uso frecuente, tienden a distribuirse según una
Normal, bajo ciertas condiciones.
INFERENCIA ESTADÍSTICA
La inferencia estadística es el conjunto de métodos y técnicas que permiten
inducir, a partir de la información empírica proporcionada por una muestra, cual
16
es el comportamiento de una determinada población con un riesgo de error
medible en términos de probabilidad.
17
contenida en la muestra. Los supuestos que se establecen respecto a los
parámetros se llaman hipótesis paramétricas.
RESUMEN GENERAL
Finalmente, para concluir podemos resumir que la probabilidad y la estadística se encargan
de examinar las posibilidades desde un punto de vista matemático, en este sentido la
probabilidad ofrece modelos de fenómenos estocásticos, es decir, aquellos a partir de los
cuales se pueden hacer predicciones, y estudia sus consecuencias lógicas. Por otro lado, las
estadísticas proporcionan métodos y técnicas para comprender los datos de los patrones.
El cálculo de probabilidades es así una teoría matemática, mientras que la estadística es una
ciencia aplicada, donde el concepto de probabilidad debe tener un contenido específico.
18
entorno, ya que hoy en día es casi imposible tener algún medio de comunicación,
periódicos, radio, televisión, etc. que nos brinde algún tipo de estadística en el día a día.
Solo cuando nos trasladamos a un mundo más concreto, por ejemplo, el campo de la
investigación en ciencias sociales: medicina, biología, psicología, entre otros. Estamos
empezando a entender que la estadística no es solo algo más, sino que hoy en día se está
convirtiendo en la única herramienta que puede iluminar y lograr resultados, por lo que su
movimiento y correlaciones en cualquier tipo de investigación se benefician de su inherente
variabilidad y no pueden aprovechar el ángulo de las leyes deterministas a resolver.
19