Está en la página 1de 12

Software especializado

en matemáticas

PIA

Profesor: M.C. Gerardo Armando Hernández


Castorena

Alumnos:
Germán Sepúlveda Martell 2078425
José Alejandro Martínez Cerda 1977120

Grupo: 003

30 de mayo del 2022


Distribución normal de probabilidad
La distribución normal es un modelo teórico capaz de aproximar adecuadamente el
valor de una variable aleatoria en una situación ideal. En otras palabras, una
distribución normal ajusta una variable aleatoria a una función que depende de la
media y la desviación estándar. Es decir, la función y la variable aleatoria tendrán la
misma representación pero con ligeras diferencias.

La importancia de esta distribución radica en que puede modelar muchos


fenómenos naturales, sociales y psicológicos. Si bien se desconocen los
mecanismos subyacentes a gran parte de este tipo de fenómenos, debido a la gran
cantidad de variables incontrolables asociadas a él, el uso de un modelo normal
puede justificarse asumiendo que cada observación obtenida es la suma de varias
causas independientes.

De hecho, las estadísticas descriptivas solo pueden describir un fenómeno sin


ninguna explicación. Para explicar la causalidad se necesita un diseño
experimental, razón por la cual el uso de la estadística en psicología y sociología se
denomina método de correlación.

La distribución normal también es importante debido a su relación con la estimación


por mínimos cuadrados, que es uno de los métodos de estimación más antiguos y
sencillos.

El gráfico de la función de densidad tiene forma de campana y es simétrico con


algunos parámetros estadísticos. Esta curva se llama curva de campana de Gauss
y es la gráfica de una función de Gauss.
La distribución normal también aparece en muchas áreas de la estadística. Por
ejemplo, la distribución muestral de las medias muestrales es casi normal, cuando
la distribución de la población de la que se extrae la muestra es anormal. Además,
una distribución normal maximiza la entropía entre todas las distribuciones con
media y varianza conocidas, lo que la convierte en la elección normal para la
distribución debajo de la lista de datos resumidos, media muestral y varianza. La
distribución normal más utilizada en estadística y muchas pruebas estadísticas se
basan en la "normalidad" algo probada de la variable aleatoria en estudio.

A la función distribución normal en la variable continua x, con parámetros μ y σ se


le denota por:

N(x; μ,σ)

y explícitamente se escribe así:

N(x; μ,σ) = ∫-∞x f(s; μ,σ) ds

donde f(u; μ,σ) es la función densidad de probabilidad:

f(s; μ,σ) = (1/(σ√(2π)) Exp( – s2/(2σ2) )

La constante que multiplica a la función exponencial en la función densidad de


probabilidad se le llama constante de normalización, y se ha elegido de tal manera
que:

N(+∞, μ,σ) = 1

La expresión anterior asegura que la probabilidad de que la variable aleatoria x esté


comprendida entre -∞ y +∞ sea 1, es decir el 100% de probabilidad. El parámetro μ
es la media aritmética de la variable aleatoria continua x y σ la desviación típica o
raíz cuadrada de la varianza de esa misma variable. En el caso que μ = 0 y σ = 1
se tiene entonces la distribución normal estándar o distribución normal típica:

N( x; μ = 0, σ = 1)

Características de la distribución normal


1- Si una variable estadística aleatoria sigue una distribución normal de densidad
de probabilidad f(s; μ,σ), la mayor parte de los datos se agrupan alrededor de valor
medio μ y están dispersos a su alrededor de forma tal que poco más de ⅔ de los
datos están entre μ – σ y μ + σ.

2- La desviación típica σ siempre es positiva.

3- La forma de la función de densidad f se asemeja a la de una campana, por lo que


a esta función muchas veces se le llama campana de Gauss o función gaussiana.

4- En una distribución gaussiana la media, la mediana y la moda coinciden.

5- Los puntos de inflexión de la función densidad de probabilidad se encuentran


justamente en μ – σ y μ + σ.

6- La función f es simétrica respecto a un eje que pase por su valor medio μ y tiene
asintóticamente a cero para x ⟶ +∞ y x ⟶ -∞.

7- A mayor valor de σ mayor dispersión, ruido o distanciamiento de los datos


alrededor del valor medio. Es decir a mayor σ la forma de campana es más abierta.
En cambio σ pequeño indica que los dados se ciñen a la media y la forma de la
campana es más cerrada o puntiaguda.

8- La función de distribución N(x; μ,σ) indica la probabilidad que la variable aleatoria


sea menor o igual que x. Por ejemplo, en la figura 1 (más arriba) la probabilidad P
de que la variable x sea menor o igual a 1.5 es de 84% y se corresponde con el área
bajo la función densidad de probabilidad f(x; μ,σ) desde -∞ hasta x.

Regla de Simpson

En análisis numérico, la regla o método de Simpson (nombrada así en honor de


Thomas Simpson) y a veces llamada regla de Kepler es un método de integración
numérica que se utiliza para obtener la aproximación de la integral.
Código donde se evalúa la integral

Código del programa

Menú
Caso 1

Caso 2
Caso 3

Caso 4
Menú del programa

Ejemplos Caso 1
Ejemplos caso 2
Ejemplos caso 3
Ejemplos caso 4
Bibliografías

Matlab y sus aplicaciones en las Ciencias y la Ingeniería. Cesar Pérez. Prentice


Hall, Madrid, 2002.

Métodos numéricos – Teoría, problemas y prácticas con MATLAB. Infante del Río
J-A. & Rey Cabezas J. M. 2da Edición - Pirámide. 2002.

Métodos Numéricos con Matlab. Mathews J.H., & Fink K.D. 3ra Edición - Prentice
Hall 2000.

Introducción a Matlab. Sigmon, K. Department of Mathematics-University of Florida.

También podría gustarte