Está en la página 1de 20

UNIVERSIDAD AUTONOMA

DE NUEVO LEON

UANL
FACULTAD DE INGENIERIA CIVIL

Unidad de aprendizaje:

PROBABILIDAD Y ESTADISTICA

PRODUCTO INTEGRADOR DE APRENDIZAJE

Docente:

Ing. Oscar Manuel Robles

Alumna:

Itzi Alejandra García Serrano

Matricula:

2078411

Semestre:

Agosto-Diciembre

San Nicolás de los Garza, Nuevo León,24 de noviembre de 2022


INDICE

Indice.......................................................................................................................................1

Introuccion..............................................................................................................................3

Estadistica...............................................................................................................................3

Estadística descriptiva e inferencial........................................................................................7

Estadísticas descriptivas..........................................................................................................8

Probabilidad............................................................................................................................8

Modelos de las distribuciones de probabilidad.....................................................................11

Modelos discretos.................................................................................................................13

Distribución binomial...........................................................................................................13

Distribución hipergeométrica................................................................................................14

Distribución de poisson.........................................................................................................14

Binomial-poisson..................................................................................................................15

Modelos continuos................................................................................................................15

Distribución uniforme...........................................................................................................15

Distribución exponencial......................................................................................................16

Distribución normal..............................................................................................................16

Importancia de la distribución normal..................................................................................17

Inferencia estadística.............................................................................................................17

Resumen general...................................................................................................................18

1
INTROUCCION
La probabilidad y estadística, las ramas de las matemáticas relacionadas con las leyes que
rigen los eventos aleatorios, incluida la recopilación, el análisis, la interpretación y la
visualización de datos numéricos. La probabilidad tiene su origen en el estudio de los
juegos de azar y los seguros en el siglo XVII, y ahora es una herramienta indispensable
tanto de las ciencias sociales como de las naturales. Se puede decir que las estadísticas
tienen su origen en los censos realizados hace miles de años; Sin embargo, como disciplina
científica distinta, se desarrolló a principios del siglo XIX como el estudio de las
poblaciones, las economías y las acciones morales y más tarde en ese siglo como la
herramienta matemática para analizar tales números. A continuación, se hablará más a
detalle de cada una de las ramas incluyendo algunos conceptos importantes para cada una
así mismo de su historia y origen.

ESTADISTICA
La palabra estadística fue utilizada por primera vez por un erudito alemán Gottfried
Achenwall a mediados del siglo XVIII como la ciencia del arte de gobernar relacionada con
la recopilación y el uso de datos por parte del estado. Aquí vemos la breve historia de la
Estadística.

La palabra estadística proviene de la palabra latina “Estatus” o la palabra italiana “Statistia”


o la palabra alemana “Statistia” o la palabra francesa “Statistique”; significa un estado
político, y originalmente significaba información útil para el estado, como información
sobre el tamaño de la población tanto humana, animal, de productos, etc., y las fuerzas
armadas.

juegos de azar

Las matemáticas modernas del azar suelen fecharse en una correspondencia entre los
matemáticos franceses Pierre de Fermat y Blaise Pascal en 1654. Su inspiración provino de
un problema sobre juegos de azar, propuesto por un jugador notablemente filosófico, el
chevalier de Meré. De Meré preguntó sobre la división adecuada de las apuestas cuando se

2
interrumpe un juego de azar. Supongamos que dos jugadores, A y B, están jugando un
juego de tres puntos, cada uno de los cuales ha apostado 32 pistolas, y son interrumpidos
después de que A tiene dos puntos y B tiene uno. Para lo cual se realiza la siguiente
pregunta; “¿Cuánto debe recibir cada uno?”

Fermat y Pascal propusieron soluciones algo diferentes, aunque coincidieron en la respuesta


numérica. Cada uno se comprometió a definir un conjunto de casos iguales o simétricos, y
luego a responder el problema comparando el número de A con el de B. Fermat, sin
embargo, dio su respuesta en términos de chances o probabilidades. Razonó que dos juegos
más serían suficientes en cualquier caso para determinar una victoria. Hay cuatro resultados
posibles, cada uno igualmente probable en un juego de azar justo. A podría ganar dos
veces, AA; o primero A, luego B podría ganar; o B luego A; o B.B. De estas cuatro
secuencias, solo la última daría como resultado una victoria para B. Por lo tanto, las
probabilidades para A son 3:1, lo que implica una distribución de 48 pistolas para A y 16
pistolas para B.

Pascal pensó que la solución de Fermat era difícil de manejar y propuso resolver el
problema no en términos de posibilidades sino en términos de la cantidad que ahora se
llama "expectativa". Supongamos que B ya había ganado la siguiente ronda. En ese caso,
las posiciones de A y B serían iguales, habiendo ganado cada uno dos juegos, y cada uno
tendría derecho a 32 pistolas. A debe recibir su parte, en cualquier caso. Los 32 de B, por el
contrario, dependen de la suposición de que ganó la primera ronda. Esta primera ronda
ahora se puede tratar como un juego justo para esta apuesta de 32 pistolas, de modo que
cada jugador tiene una expectativa de 16. Por lo tanto, el lote de A es 32 + 16, o 48, y el de
B es solo 16.

Los juegos de azar como este proporcionaron problemas modelo para la teoría de las
probabilidades durante su período inicial y, de hecho, siguen siendo elementos básicos de
los libros de texto. Un trabajo póstumo de 1665 de Pascal sobre el “triángulo aritmético”
ahora vinculado a su nombre (ver teorema del binomio) mostró cómo calcular números de
combinaciones y cómo agruparlos para resolver problemas elementales de juego. Fermat y

3
Pascal no fueron los primeros en dar soluciones matemáticas a problemas como estos. Más
de un siglo antes, el matemático, médico y jugador italiano Girolamo Cardano calculó las
probabilidades de los juegos de suerte contando los casos igualmente probables. Su librito,
sin embargo, no se publicó hasta 1663, momento en el que los matemáticos de Europa ya
conocían bien los elementos de la teoría de las probabilidades. Nunca se sabrá qué hubiera
pasado si Cardano hubiera publicado en la década de 1520. No se puede suponer que la
teoría de la probabilidad hubiera despegado en el siglo XVI. Cuando comenzó a florecer, lo
hizo en el contexto de la “nueva ciencia” de la revolución científica del siglo XVII, cuando
el uso del cálculo para resolver problemas complicados había ganado una nueva
credibilidad. Cardano, además, no tenía mucha fe en sus propios cálculos de probabilidades
de juego, ya que también creía en la suerte, particularmente en la suya propia. En el mundo
renacentista de monstruosidades, maravillas y similitudes, el azar aliado al destino no se
naturalizaba fácilmente y el cálculo sobrio tenía sus límites.

Según el pionero en estadística Yule, la palabra estadística apareció al principio en el libro


"El elemento de la erudición universal" de Barón (1770). En 1787 una definición más
amplia utilizada por E.A.W. Zimmermann en “Un estudio político del estado actual de
Europa”. Apareció en la enciclopedia de británica en 1797 y fue utilizado por Sir John
Sinclair en Gran Bretaña en una serie de volúmenes publicados entre 1791 y 1799 dando
cuenta estadística de Escocia. En el siglo XIX, la palabra estadística adquirió un significado
más amplio que abarca datos numéricos de casi cualquier tema y también la interpretación
de datos a través del análisis adecuado. Eso es todo sobre la breve historia de la estadística
sin embargo cabe resaltar que Ahora veamos cómo se utilizan las estadísticas en diferentes
significados hoy en día.

Ahora las estadísticas se están utilizando en diferentes significados.

Las estadísticas se refieren a “hechos numéricos que se organizan sistemáticamente en


forma de tablas o gráficos, etc. En este sentido, siempre se usa en plural, es decir, un
conjunto de información numérica. Por ejemplo, estadísticas de precios, accidentes de
tráfico, delitos, nacimientos, instituciones educativas, etc.

4
La palabra estadística se define como una disciplina que incluye procedimientos y técnicas
que se utilizan para recopilar, procesar y analizar los datos numéricos para hacer inferencias
y tomar decisiones adecuadas en situaciones de incertidumbre (la incertidumbre se refiere a
la incompletitud, no implica ignorancia). En este sentido, la palabra estadística se usa en
sentido singular. Denota la ciencia de basar las decisiones en datos numéricos.

La palabra estadística son cantidades numéricas calculadas a partir de observaciones de


muestra; una cantidad única calculada a partir de observaciones de muestra se denomina
estadística como la media. Aquí la palabra estadística es plural.

“Calculamos estadísticas a partir de estadísticas por estadísticas”

El primer lugar de estadísticas es plural de estadísticas, en segundo lugar, está plural


sentido datos y en tercer lugar en singular sentido métodos.

En otras palabras, la estadística es una rama de las matemáticas aplicadas que implica la
recopilación, descripción, análisis e inferencia de conclusiones a partir de datos
cuantitativos. Las teorías matemáticas detrás de las estadísticas se basan en gran medida en
el cálculo diferencial e integral, el álgebra lineal y la teoría de la probabilidad.

Los estadísticos, las personas que hacen estadísticas, están particularmente interesados en
determinar cómo sacar conclusiones confiables sobre grupos grandes y eventos generales a
partir del comportamiento y otras características observables de muestras pequeñas. Estas
pequeñas muestras representan una parte del grupo grande o un número limitado de
instancias de un fenómeno general.

En conclusión, la estadística es el estudio y la manipulación de datos, incluidas las formas


de recopilar, revisar, analizar y sacar conclusiones de los datos, las dos áreas principales de
la estadística son la estadística descriptiva y la inferencial, las estadísticas se pueden
comunicar en diferentes niveles que van desde descriptores no numéricos (nivel nominal)
hasta numéricos en referencia a un punto cero (nivel de relación).Se pueden utilizar varias
técnicas de muestreo para recopilar datos estadísticos, incluido el muestreo aleatorio
simple, sistemático, estratificado o por conglomerados. Las estadísticas están presentes en

5
casi todos los departamentos de todas las empresas y también son una parte integral de la
inversión.

Las estadísticas se utilizan en prácticamente todas las disciplinas científicas, como las
ciencias físicas y sociales, así como en los negocios, las humanidades, el gobierno y la
fabricación. La estadística es fundamentalmente una rama de las matemáticas aplicadas que
se desarrolló a partir de la aplicación de herramientas matemáticas que incluyen el cálculo y
el álgebra lineal a la teoría de la probabilidad.

En la práctica, la estadística es la idea de que podemos aprender sobre las propiedades de


grandes conjuntos de objetos o eventos (una población) al estudiar las características de un
número menor de objetos o eventos similares (una muestra). Debido a que en muchos casos
la recopilación de datos completos sobre una población completa es demasiado costosa,
difícil o completamente imposible, las estadísticas comienzan con una muestra que se
puede observar de manera conveniente o económica.

Se utilizan dos tipos de métodos estadísticos para analizar datos: estadísticas descriptivas y
estadísticas inferenciales. Los estadísticos miden y recopilan datos sobre los individuos o
elementos de una muestra, luego analizan estos datos para generar estadísticas descriptivas.
Luego pueden usar estas características observadas de los datos de la muestra, que se
denominan correctamente "estadísticas", para hacer inferencias o conjeturas informadas
sobre las características no medidas (o no medidas) de la población más amplia, conocidas
como parámetros.

Las estadísticas se remontan informalmente a siglos atrás. Un registro temprano de


correspondencia entre los matemáticos franceses Pierre de Fermat y Blaise Pascal en 1654
se cita a menudo como un ejemplo temprano de análisis de probabilidad estadística.

ESTADÍSTICA DESCRIPTIVA E INFERENCIAL


Las dos áreas principales de la estadística se conocen como estadística descriptiva, que
describe las propiedades de los datos de muestra y población, y estadística inferencial, que
6
utiliza esas propiedades para probar hipótesis y sacar conclusiones. Las estadísticas
descriptivas incluyen la media (promedio), la varianza, la asimetría y la curtosis. Las
estadísticas inferenciales incluyen análisis de regresión lineal, análisis de varianza
(ANOVA), modelos logit/Probit y pruebas de hipótesis nulas.

ESTADÍSTICAS DESCRIPTIVAS
Las estadísticas descriptivas se centran en la tendencia central, la variabilidad y la
distribución de los datos de la muestra. La tendencia central significa la estimación de las
características, un elemento típico de una muestra o población, e incluye estadísticas
descriptivas como la media, la mediana y la moda. La variabilidad se refiere a un conjunto
de estadísticas que muestran cuánta diferencia hay entre los elementos de una muestra o
población a lo largo de las características medidas, e incluye métricas como el rango, la
varianza y la desviación estándar.

La distribución se refiere a la "forma" general de los datos, que se puede representar en un


gráfico como un histograma o un gráfico de puntos, e incluye propiedades como la función
de distribución de probabilidad, la asimetría y la curtosis. Las estadísticas descriptivas
también pueden describir las diferencias entre las características observadas de los
elementos de un conjunto de datos. Las estadísticas descriptivas nos ayudan a comprender
las propiedades colectivas de los elementos de una muestra de datos y forman la base para
probar hipótesis y hacer predicciones utilizando estadísticas inferenciales.

PROBABILIDAD
La probabilidad conocida como la lógica de la incertidumbre. El clérigo inglés Joseph
Butler, en su muy influyente Análoga of Religion (1736), llamó a la probabilidad “la guía
misma de la vida”. La frase, sin embargo, no se refería al cálculo matemático sino
simplemente a los juicios hechos donde la demostración racional es imposible. La palabra
probabilidad se usó en relación con las matemáticas del azar en 1662 en la Lógica de Port-
Royal, escrita por los compañeros jansenistas de Pascal, Antoine Arnauld y Pierre Nicole.

7
Pero desde la época medieval hasta el siglo XVIII e incluso hasta el XIX, una creencia
probable era más a menudo simplemente una que parecía plausible, provenía de una buena
autoridad o era digna de aprobación. La probabilidad, en este sentido, fue enfatizada en
Inglaterra y Francia desde finales del siglo XVII como respuesta al escepticismo. Es posible
que el hombre no pueda alcanzar un conocimiento perfecto, pero puede saber lo suficiente
para tomar decisiones sobre los problemas de la vida diaria. La nueva filosofía natural
experimental de finales del siglo XVII se asoció con esta ambición más modesta, que no
insistía en la prueba lógica.

La teoría de la probabilidad tuvo su origen en los juegos de azar y las apuestas. La


probabilidad se originó a partir de la disputa de un jugador en 1654 sobre la división de una
apuesta entre dos jugadores cuyo juego se interrumpió antes de su cierre. El problema fue
propuesto por un jugador acomodado, el Chevalier de Mere, a destacados matemáticos,
incluido Blaise Pascal, quien compartió sus pensamientos con Pierre de Fermat.

La correspondencia que se produjo entre los dos matemáticos fue fundamental en el


desarrollo de los conceptos modernos de probabilidad. Desde un punto de vista matemático,
los juegos de azar son experimentos que generan varios tipos de eventos aleatorios, cuya
probabilidad se puede calcular utilizando las propiedades de probabilidad en un espacio
finito de eventos.

La obra de Christiaan Huygens, de 1657, es un tratado sistemático de probabilidad y trata


de los juegos de azar y el problema de los puntos, lo que hoy se conoce como valores
esperados.

El primer intento de cierto rigor matemático se atribuye a Pierre-Simón Laplace.

En 1812, Laplace publicó su Théorie Analytique des Probabilités en la que dio la definición
clásica de la probabilidad de un evento discreto, que es la proporción del número de
resultados favorables al número finito total de todos los resultados posibles, dado que todos
los resultados son igualmente probables.

8
Los métodos utilizados para calcular estas probabilidades fueron principalmente
combinatorios. Hasta finales del siglo XIX, la contribución de Laplace siguió siendo la más
influyente de la teoría matemática de la probabilidad.

Una extensión de la definición clásica de Laplace incorporó las probabilidades de eventos


con resultados infinitos, donde la noción de igual probabilidad de eventos fue fundamental
en su desarrollo.

De acuerdo con esta extensión, el espacio muestral podría ser cualquier región con una
medida bien definida (longitud, área, volumen, etc.), donde el número de puntos es
incontable. Muchos problemas de probabilidad geométrica se resolvieron usando esta
extensión.

La teoría matemática de la probabilidad tal como la conocemos hoy en día fue desarrollada
por Andrey Kolmogorov. En 1933, Kolmogorov publicó sus Fundamentos de la teoría de la
probabilidad, donde combinó la noción de espacio muestral y la teoría de la medida para
axiomatizar la probabilidad.

En este desarrollo teórico de la medida, los eventos aleatorios están representados por
conjuntos y la probabilidad de un evento es simplemente una medida normada definida en
estos conjuntos. Además de convertirse en la base axiomática indiscutible de la teoría de la
probabilidad moderna, el trabajo de Kolmogorov proporcionó una base lógicamente
consistente para la teoría de la probabilidad y la unió a la corriente principal de las
matemáticas modernas.

De la escena internacional: En 1972, Nelder y Wedderburn introdujeron el concepto de


Modelos Lineales Generalizados (GLM), que extendieron los Modelos de Regresión para
acomodar cualquier distribución en la familia exponencial de distribuciones. Una
suposición fundamental de los GLM es que las respuestas son independientes y que estos
modelos no son apropiados para datos longitudinales o anidados. Esta limitación abrió el
camino a dos metodologías diferentes adecuadas para la dependencia y correlación entre las
observaciones.

9
En 1986, Liang y Zeger introdujeron el concepto de ecuaciones de estimación
generalizadas (GEE). Los modelos GEE eliminan la suposición de independencia y
acomodan datos altamente correlacionados al especificar una estructura para la matriz de
correlación de trabajo. Una de las limitaciones de los modelos GEE es que no acomodan
datos que tienen una estructura jerárquica anidada. En 1992, Bryk y Raudenbush
introdujeron el concepto de modelos multinivel, también conocidos como modelos lineales
jerárquicos.

Estos modelos se diferencian de los modelos GLM y GEE en que las ecuaciones que
definen los modelos lineales jerárquicos contienen un término de error en cada jerarquía, lo
que permite estimar la varianza en cada nivel de anidamiento. Además, estos modelos
tienen en cuenta tanto los efectos fijos como los aleatorios.

La probabilidad de ganar el premio completo de la lotería Super 5 es aproximadamente


nueve veces la probabilidad de morir en un accidente aéreo.

La probabilidad de ser alcanzado por un rayo en algún momento de su vida es alrededor de


22 veces la probabilidad de ser atacado por un tiburón. La probabilidad de morir por el
impacto de un meteorito local, un asteroide o un cometa es casi la misma que la
probabilidad de obtener seis, en el lanzamiento de un dado justo, ocho veces seguidas. La
probabilidad de nacer con 11 dedos de manos o pies es alrededor de 23 veces la
probabilidad de ganar un Oscar.

La probabilidad de encontrar una perla en una ostra es aproximadamente 775 veces la


probabilidad de ser bombardeado por un terrorista. La probabilidad de estar involucrado en
un accidente automovilístico es alrededor de 24 veces mayor que la probabilidad de
resbalar fatalmente en la bañera o la ducha.

Modelo probabilístico o estadístico es la forma que pueden tomar un conjunto de datos


obtenidos de muestreos con comportamiento que se supone aleatorio.

10
MODELOS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Una distribución de probabilidad queda definida y caracterizada por la especificación de la
variable aleatoria y su campo de variación y la especificación de su asignación de
probabilidades, mediante la función de distribución.

Si un conjunto dado de distribuciones tiene sus funciones de distribución con la misma


estructura funcional, diremos que pertenece a la misma familia de distribuciones, al mismo
modelo de probabilidad o a la misma distribución-tipo.

La estructura matemática de las funciones de definición que caracterizan un modelo de


probabilidad suele depender de uno o más parámetros. estos parámetros son los parámetros
de la distribución(tipo), y tienen una importancia fundamental, en estadística matemática y
sobre todo en inferencia estadística.

Muchos modelos de probabilidad pueden establecerse teóricamente sin necesidad de


recurrir a un sistema de aleatorización racional. Sin embargo, en muchos casos resulta
conveniente definir los modelos de probabilidad recurriendo a un claro sistema de
aleatorización sobre determinado tipo de fenómeno aleatorio. Procediendo de esta manera
podremos disponer de un sistema para identificar el modelo a aplicar en un gran número de
situaciones prácticas semejantes.

El procedimiento es sencillo: primero haremos una clasificación de los fenómenos


aleatorios de más fácil determinación (procesos experimentales), después determinaremos
algunas aleatorizaciones que nos generan variables aleatorias cargadas de gran significado
práctico y, por último, obtendremos la estructura funcional de las funciones de definición
de su distribución, partiendo, para ello, de la probabilidad inducida para la variable por el
fenómeno aleatorio.

Nos apoyamos, por tanto, en el concepto de proceso experimental para definir muchos de
los modelos de probabilidad que vamos a estudiar.

11
Un proceso experimental es el conjunto de características que rigen la realización de un
determinado fenómeno aleatorio. Un proceso quedará definido por una serie de
características o hipótesis que puedan aplicarse a cierta categoría de experimentos o
experiencias en las que participa el azar. Cada proceso dará cuenta de un conjunto de
fenómenos similares que se producen con las mismas características o bajo las mismas
hipótesis.

A partir de las características del fenómeno que analicemos (partiendo del proceso
experimental del que se trate) podremos, identificando la variable aleatoria que nos
interesa, estudiar y determinar la estructura matemática de su distribución. Podremos
agrupar los modelos de probabilidad a aplicar.

MODELOS DISCRETOS
Aunque en adelante hablemos de distribución "tal", nos estaremos refiriendo al modelo tal.

Los modelos discretos, son modelos de probabilidad de discreta. Los más importante son
los modelos de BERNOUILLI.

DISTRIBUCIÓN BINOMIAL.
Nos encontramos con un modelo derivado de un proceso experimental puro, en el
que se plantean las siguientes circunstancias. Se realiza un número n de pruebas
(separadas o separables). Cada prueba puede dar dos únicos resultados A y Ã. La
probabilidad de obtener un resultado A es p y la de obtener un resultado Ã es q,
con q= 1-p, en todas las pruebas.

Esto implica que las pruebas se realizan exactamente en las mismas condiciones
y son, por tanto, independientes en sus resultados. Si se trata de extracciones,
(muestreo), las extracciones deberán ser con devolución (reemplazamiento), o
bien población grande (M.A.S). A este respecto hagamos una consideración: si el
proceso consiste en extraer individuos de una población y observar si poseen

12
cierta característica: el parámetro n será el número de extracciones (tamaño
muestral) y el parámetro p la proporción de individuos de la población que
poseen la característica en cuestión.

Se ha comentado que para que la probabilidad, de que en cada extracción


obtengamos un individuo poseedor de la característica sea constante en todas la
pruebas es necesario que las proporciones poblacionales no cambien tras cada
extracción es decir se reemplace cada individuo extraído .Sin embargo si la
población es muy grande, aunque no reemplacemos los individuos extraídos las
variaciones en las proporciones de la población restante serán muy pequeñas y,
aunque de hecho las probabilidades de, obtener un éxito varíen tras cada prueba,
esta variación será muy pequeña y podremos considerar que son constantes .

DISTRIBUCIÓN HIPERGEOMÉTRICA
La distribución hipergeométrica es especialmente útil en todos aquellos casos en
los que se extraigan muestras o se realizan experiencias repetidas sin devolución
del elemento extraído o sin retornar a la situación experimental inicial.

Modeliza, de hecho, situaciones en las que se repite un número determinado de


veces una prueba dicotómica de manera que con cada sucesivo resultado se ve
alterada la probabilidad de obtener en la siguiente prueba uno u otro resultado.

Es una distribución. fundamental en el estudio de muestras pequeñas de


poblaciones. pequeñas y en el cálculo de probabilidades de, juegos de azar y
tiene grandes aplicaciones en el control de calidad en otros procesos
experimentales en los que no es posible retornar a la situación de partida.

13
DISTRIBUCIÓN DE POISSON  
Esta distribución es una de las más importantes distribuciones de variable
discreta. Sus principales aplicaciones hacen referencia a la modelización de
situaciones en las que nos interesa determinar el número de hechos de cierto tipo
que se pueden producir en un intervalo de tiempo o de espacio, bajo presupuestos
de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus usos frecuentes
es la consideración límite de procesos dicotómicos reiterados un gran número de
veces si la probabilidad de obtener un éxito es muy pequeña.  

Proceso experimental del que se puede hacer derivar. Esta distribución se puede


hacer derivar de un proceso experimental de observación en el que tengamos las
siguientes características

BINOMIAL-POISSON.
Se puede probar que la distribución binomial tiende a converger a la
distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro p
tiende a ser cero, de manera que el producto de n por p sea una cantidad
constante. De ocurrir esto la distribución binomial tiende a un modelo de Poisson
de parámetro l igual a n por p

Este resultado es importante a la hora del cálculo de probabilidades, o, incluso a


la hora de inferir características de la distribución binomial cuando el número de
pruebas sea muy grande y la probabilidad de éxito sea muy pequeña.

El resultado se prueba, comprobando como la función de cuantía de una


distribución binomial con y tiende a una función de cuantía de una distribución
de Poisson con   siempre que este producto sea una cantidad constante (un valor
finito)

14
MODELOS CONTINUOS
Los modelos continuos, son modelos de probabilidad de variable aleatoria continua. Los
más importante son, entre otros:El modelo Uniforme. El modelo Exponencial . El modelo o
distribución Normal

DISTRIBUCIÓN UNIFORME
 La distribución o modelo uniforme puede considerarse como proveniente de un
proceso de extracción aleatoria. El planteamiento radica en el hecho de que la
probabilidad se distribuye uniformemente a lo largo de un intervalo. Así: dada
una variable aleatoria continua, x, definida en el intervalo [a] de la recta real,
diremos que x tiene una distribución uniforme en el intervalo [a]

DISTRIBUCIÓN EXPONENCIAL
A pesar de la sencillez analítica de sus funciones de definición, la distribución
exponencial tiene una gran utilidad práctica ya que podemos considerarla como
un modelo adecuado para la distribución de probabilidad del tiempo de espera
entre dos hechos que sigan un proceso de Poisson. De hecho, la distribución
exponencial puede derivarse de un proceso experimental de Poisson con las
mismas características que las que enunciábamos al estudiar la distribución de
Poisson, pero tomando como variable aleatoria, en este caso, el tiempo que tarda
en producirse un hecho

Obviamente, entonces, la variable aleatoria será continua. Por otro lado, existe
una relación entre el parámetro a de la distribución exponencial, que más tarde
aparecerá, y el parámetro de intensidad del proceso , esta relación es a = l

Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los
siguientes casos:

15
Distribución del tiempo de espera entre sucesos de un proceso de Poisson.
Distribución del tiempo que transcurre hasta que se produce un fallo, si se
cumple la condición que la probabilidad de producirse un fallo en un instante no
depende del tiempo transcurrido. Aplicaciones en fiabilidad y teoría de la
supervivencia.

DISTRIBUCIÓN NORMAL
La distribución normal es la más importante de todas las distribuciones de probabilidad. Es
una distribución de variable continua con campo de variación [-,], que queda
especificada a través de dos parámetros (que acaban siendo la media y la desviación
típica de la distribución).

Una variable aleatoria continua, X, definida en [-,] seguirá una distribución normal de
parámetros m y s.

IMPORTANCIA DE LA DISTRIBUCIÓN NORMAL.


Enorme número de fenómenos que puede modelizar: Casi todas las características
cuantitativas de las poblaciones muy grades tienden a aproximar su distribución a una
distribución normal.

Muchas de las demás distribuciones de uso frecuente, tienden a distribuirse según una
Normal, bajo ciertas condiciones.

La probabilidad de cualquier intervalo se calcularía integrando la función de densidad a lo


largo de ese de intervalo, pero no es necesario nunca resolver la integral pues existen tablas
que nos evitan este problema.

INFERENCIA ESTADÍSTICA
La inferencia estadística es el conjunto de métodos y técnicas que permiten
inducir, a partir de la información empírica proporcionada por una muestra, cual

16
es el comportamiento de una determinada población con un riesgo de error
medible en términos de probabilidad.

Los métodos paramétricos de la inferencia estadística se pueden dividir,


básicamente, en dos: métodos de estimación de parámetros y métodos de
contraste de hipótesis. Ambos métodos se basan en el conocimiento teórico de la
distribución de probabilidad del estadístico muestral que se utiliza como
estimador de un parámetro.

La estimación de parámetros consiste en asignar un valor concreto al parámetro o


parámetros que caracterizan la distribución de probabilidad de la población.
Cuando se estima un parámetro poblacional, aunque el estimador que se utiliza
posea todas las propiedades deseables, se comete un error de estimación que es la
diferencia entre la estimación y el verdadero valor del parámetro.

El error de estimación es desconocido por lo cual es imposible saber en cada caso


cual ha sido la magnitud o el signo del error; para valorar el grado de precisión
asociado con una estimación puntual se parte de dicha estimación para construir
un intervalo de confianza. En síntesis, un intervalo de confianza está formado por
un conjunto de valores numéricos tal que la probabilidad de que éste contenga al
verdadero valor del parámetro puede fijarse tan grande como se quiera.

Esta probabilidad se denomina grado de confianza del intervalo, y la amplitud de


este constituye una medida del grado de precisión con el que se estima el
parámetro.

Los métodos de contraste de hipótesis tienen como objetivo comprobar si


determinado supuesto referido a un parámetro poblacional, o a parámetros
análogos de dos o más poblaciones, es compatible con la evidencia empírica

17
contenida en la muestra. Los supuestos que se establecen respecto a los
parámetros se llaman hipótesis paramétricas.

Para cualquier hipótesis paramétrica, el contraste se basa en establecer un criterio


de decisión, que depende en cada caso de la naturaleza de la población, de la
distribución de probabilidad del estimador de dicho parámetro y del control que
se desea fijar a priori sobre la probabilidad de rechazar la hipótesis contrastada en
el caso de ser ésta cierta.

RESUMEN GENERAL
Finalmente, para concluir podemos resumir que la probabilidad y la estadística se encargan
de examinar las posibilidades desde un punto de vista matemático, en este sentido la
probabilidad ofrece modelos de fenómenos estocásticos, es decir, aquellos a partir de los
cuales se pueden hacer predicciones, y estudia sus consecuencias lógicas. Por otro lado, las
estadísticas proporcionan métodos y técnicas para comprender los datos de los patrones.

El cálculo de probabilidades es así una teoría matemática, mientras que la estadística es una
ciencia aplicada, donde el concepto de probabilidad debe tener un contenido específico.

En este sentido, el cálculo científico de probabilidades puede ayudarnos a comprender lo


que la intuición a veces nos dice erróneamente. Por lo tanto, no sorprende que la teoría de
la probabilidad se utilice en campos tan diversos como la demografía, la medicina, la
comunicación, la informática, la economía y las finanzas.

Cuando hablamos de estadística, solemos pensar en un conjunto de datos numéricos


presentados de forma organizada y sistemática. Esta idea se debe a la influencia de nuestro

18
entorno, ya que hoy en día es casi imposible tener algún medio de comunicación,
periódicos, radio, televisión, etc. que nos brinde algún tipo de estadística en el día a día.

Solo cuando nos trasladamos a un mundo más concreto, por ejemplo, el campo de la
investigación en ciencias sociales: medicina, biología, psicología, entre otros. Estamos
empezando a entender que la estadística no es solo algo más, sino que hoy en día se está
convirtiendo en la única herramienta que puede iluminar y lograr resultados, por lo que su
movimiento y correlaciones en cualquier tipo de investigación se benefician de su inherente
variabilidad y no pueden aprovechar el ángulo de las leyes deterministas a resolver.

La estadística incluye métodos y procedimientos para recopilar, clasificar, resumir,


descubrir patrones y analizar datos que es la estadística descriptiva en la medida en que se
caracterice por la variabilidad y la incertidumbre; y extraer conclusiones de la misma que
ayuden a tomar decisiones y actuar en consecuencia cuando sea necesario pronósticos las
llamadas estadísticas inferenciales.

19

También podría gustarte