Está en la página 1de 19

República Dominicana

Universidad Tecnológica del Cibao Oriental (UTECO)


"Universidad Estatal"
Facultad de Postgrado y Educación Continuada

Anteproyecto para Optar por el Titulo de Magister en


Matemáticas

Título

Análisis Estadístico Aplicado en la Toma de Decisiones

Sustentante:

Greilin Francisco Paulino Castillo

Asesor:

Manuel Aurelio Diloné

Cotuí, provincia Sánchez Ramírez


Año Académico 2020
1

CAPÍTULO I.
INTRODUCCIÓN
1.1 Introducción
Este capítulo contiene los lineamientos básicos o introductorios de esta
investigación, mediante el abordaje de los antecedentes, el planteamiento del
problema, los objetivos, la justificación y la delimitación que marca los parámetros y
alcances de esta.

1.2. Antecedentes.

1.2.1 Antecedentes históricos

Los inicios de la probabilidad, como teoría matemática, puede rastrearse en la


correspondencia entre Fermat y Pascal, en la década de 1650. Pierre de Fermat,
matemático francés, nació en 1601; Blaise Pascal, matemático, físico y filósofo,
también francés, nació en Clermont-Ferrand en 1623.

También hay antecedentes de los orígenes de la teoría de la probabilidad en un


corto artículo escrito por Christian Huygens en 1657. Fue éste un físico, geómetra y
astrónomo holandés, nacido en La Haya en 1629. Previamente, Girolamo Cardano
(1501-1576) y Galileo Galilei (1564-1642) habían hecho cálculos de probabilidades
numéricas, de diversas combinaciones de dados. (Barreto, 2012)

Entre los siglos XVIII y XIX, la Estadística experimentó lo que puede ser
descrito como un desarrollo horizontal y vertical simultáneo. Horizontal, en el
sentido que se propagó a través de diversas disciplinas, desde la astronomía y la
geodesia, la psicología, la biología, hasta las ciencias sociales, sufriendo diversas
transformaciones en el proceso.

El físico, matemático, y astrónomo francés Pierre-Simon Laplace, hizo


contribuciones importantes a la aplicación de la probabilidad a la inferencia
estadística, contenidas fundamentalmente en dos obras "Memoria sobre la
Probabilidad de las Causas de Eventos", de 1774, y "Memoria sobre Probabilidades",
de 1781.
2

En el siglo XVI, Tycho Brahe (1546-1601) fue pionero en el desarrollo


epistemológico de la distribución normal, al ofrecer una variedad, tanto en el estudio
de los cuerpos celestes, como en el estudio de dispersión de datos, siendo uno de los
últimos astrónomos en estudiar los cuerpos celestes con el ojo desnudo. La técnica
metodológica que utilizó en la astronomía fue la repetición de las medidas (Stahl,
2006).

Galileo Galilei (1564-1642), apoyado en los resultados de Tycho Brahe,


realizó un planteamiento formal e institucional del error, realzando este como un
elemento en las mediciones astronómicas, y formuló cinco propiedades a las
observaciones de fenómenos.(Conde 2015, p. 63).

Posterior a la variedad de enfoque propuesto por Tycho, Thomas Simpson


(1710-1761) construye la distribución uniforme discreta (1786) y distribución
triangular discreta (1756), considerando metodológicamente la existencia del error en
la medición de datos, logrando un convencimiento sobre la media como un valor de
gran representatividad. Este autor concluye que, al tomar la media de un número de
observaciones, se disminuye de gran manera las posibilidades de los errores (Estepa et
al., 2013).

En UCMaule - Revista Académica N°56 - Junio 2019 Otro autor


contemporáneo de T. Simpson y D. Bernouilli, que realizó contribuciones al
estudio del error, fue Jean-Henri Lambert (1728-1777). Según el mencionado
investigador, la media aritmética no difiere del valor verdadero, por lo que concluye
que existen diferentes tipos de errores en las mediciones, por lo cual propone una
primitiva medida de fiabilidad para la media (Estepa et al., 2013).

Posteriormente, Karl Pearson (1855-1936) propuso el término de normal a la


curva del error, como curva normal (Stahl, 2006)

La distribución normal fue reconocida por primera vez por el francés Abraham
de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró
desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se la
conozca, más comúnmente, como la "campana de Gauss". La distribución de una
variable normal. (Díaz y Fernández, 2001)
3

Gauss (1777-1855), por medio de las observaciones astronómicas y habiendo


estudiado los avances de la Teoría de Error en la época, también construyó modelos
para la predicción de la posición y órbita de un cuerpo celeste, utilizando el criterio de
mínimos cuadrados (Conde, 2015; Stahl, 2006).

El francés Simeón Denis Poisson (1781 - 1840), ideó la distribución


probabilística que lleva su nombre y que es aplicable a fenómenos poco comunes o
extraños. En 1837 publica su trabajo en Recherches sur la Probabilité des Jugements.
(Restrepo, 2003)

Poisson originalmente estudió Medicina, en 1789 se dedicó al campo


matemático en la Escuela Politécnica. Fue muy amigo de Laplace y de Lagrange.
Poisson publicó alrededor de 400 artículos en matemática y estadística. (Restrepo,
2003).

La mencionada distribución debe su nombre a Siméon Denis Poisson (1781-


1840), probabilista francés quien fue el primero en describirla en 1837. Se trata de una
distribución discreta de probabilidad muy útil, en la cual la variable aleatoria
representa el número de eventos independientes que ocurren a una velocidad
constante. Considerando un intervalo de tiempo determinado, sirven de ejemplos el
número de personas que llegan a un mercado, el número de llamadas telefónicas que
se reciben en una central de teléfonos, el número de defectos en piezas similares en un
proceso productivo, el número de bacterias presentes en un cultivo, entre otros.

En el orden matemático, la distribución de Poisson suele desarrollarse desde dos


perspectivas diferentes: como aproximación a la distribución binomial B(n, p), o
como un proceso de Poisson. (Bolema, 2014).
4

1.2.2 Antecedentes académicos.

Según (Piña, 2011). La distribución normal juega un rol determinante en


muchos procesos de inferencia estadística. Dado que esta función de densidad de
probabilidad de la distribución normal cumple con las condiciones de regularidad, sus
parámetros son estimados a través del método de máxima verosimilitud (MV). En su

artículo se presenta el desarrollo de la integral I=∫−∞ exp(−y2 . 2−1 ) dy, se
determinan sus parámetros aplicando la estimación de momentos y el método de
(MV). Además, una aplicación de la distribución normal a través de una función
compuesta para el diseño de parámetros, en ingeniería de confiabilidad, es presentada.
En particular con la finalidad de relacionar el diseño con la filosofía seis sigmas, el
parámetro y su tolerancia es estimada para que cumpla que sólo 1% de las partes
diseñadas sean defectuosas y que el proceso de manufactura presente a lo más 3.4
partes por millón (PPM´s).

Fagalde et al., (2005) desarrollaron una investigación sobre Factores de riesgo


de enfermedades crónicas no transmisibles en funcionarios de una empresa de
servicios financieros de la Región Metropolitana donde fueron procesados con el
programa STATA 6.0 analizándose en primer lugar la normalidad de cada variable.
Dado que la mayor parte de las variables continuas no tuvieron una distribución
normal (excepto el número de factores de riesgo), se utilizó la distribución percentilar
y los intervalos de confianza como medida de tendencia central y el test de Kruskal
Wallis para la comparación entre grupos. En las variables nominales y categóricas, se
analizó distribución de frecuencia y c2. Por medio de regresiones logísticas se
determinaron los modelos que mejor explicaban las patologías estudiadas controlando
el efecto de variables de confusión.

Carro y González (2012). en su artículo sobre el control estadístico de proceso


establece que, algunas distribuciones de muestreo (por ejemplo, para medias con
tamaños de muestra de 4 o más y proporciones con tamaños de muestra de 20 o más)
suelen calcularse en forma aproximada mediante la distribución normal, lo cual
permite utilizar las tablas normales en el control estadístico de proceso el cual tiene
como objetivo hacer predecible un proceso en el tiempo y para tal fin usan graficas
que permiten distinguir causas especiales de las causas comunes de variación.
5

En Urbizagástegui, (2003) Describe la naturaleza de la distribución Gauss-


Poisson inversa generalizada conforme que fue desarrollada por Sichel (1982) como
una forma de entender el comportamiento de compras de bienes por los consumidores
en un mercado de iguales probabilidades y expresa que El modelo permitió identificar
un alto porcentaje de pequeños productores responsables por casi la mitad (48%) de la
literatura publicada sobre el tópico estudiado. Por su parte los grandes productores
que estarían haciendo progresar el campo de la microbiología, inmunología, y
parasitología brasilera, hasta 1971 época del estudio de Sá (1976), correspondían
apenas al 3% de los productores y fueron responsables del 12% de la literatura
producida.

Gomez et al., (2010) en su artículo El ábaco de Poisson da conocer las


características básicas del ábaco de Poisson y sus posibles aplicaciones prácticas en
los planes de inspección de las empresas, con la finalidad de elaborar una especie de
catálogo al que acudir para estimar las probabilidades a partir del mismo, ya que nos
puede evitar el tedioso cálculo manual en muchas ocasione Finalmente, una
aplicación muy utilizada de la distribución de Poisson es su utilización en el
establecimiento de planes de control de calidad en recepción o en el muestreo
(Romero y Zúnica, 2000). En este tipo de aplicaciones, llega una gran partida (n
tiende a ∞), a una empresa y según el proveedor del material la proporción de piezas
defectuosas en esa muestra es muy pequeña (p tiende a 0). Para comprobar si se
cumplen los estándares establecido por el proveedor.
6

1.3. Planteamiento del problema.

El medio ambiente en el que se toman las decisiones humanas, tanto


individuales como organizacionales, se caracteriza por ser incierto, complejo,
dinámico, competitivo y finito. Este entorno es incierto porque el decisor no puede
estar seguro del comportamiento futuro de algunos factores que influyen en el
resultado de la decisión. (Salinas,1993).

Una característica importante de nuestro medio ambiente es la incertidumbre


que rodea al comportamiento de los elementos que contribuyen al resultado de una
decisión. La incorporación de los factores inciertos en el análisis de decisiones es
posible gracias a la teoría de probabilidades, que proporciona el razonamiento
cuantitativo para entender fenómenos aleatorios. Además de permitir el análisis de
incertidumbre en forma explícita, el análisis probabilístico también es la base de la
inferencia estadística.

El riesgo de un activo puede medirse de forma cuantitativa mediante la


estadística. La dispersión de una distribución calcula cuanto puede alejarse del retorno
medio una tasa de retorno. Si la distribución es muy dispersa, los posibles retornos ser
no muy inciertos.

Las técnicas de la estadística inferencial, con la ayuda de la teoría de


probabilidades y el conocimiento sobre el manejo de información numérica, nos
brindan las herramientas que permiten utilizar información muestral para hacer
estimaciones y derivar conclusiones con respecto a la población total.

El objetivo de la distribución de probabilidad normal es conducir la variable


aleatoria normal, una de las variables aleatorias continuas más importantes y que se
utiliza con mayor frecuencia. Se da su distribución de probabilidad y se muestra cómo
puede emplearse la distribución de probabilidad (Badii et al., 2007).

La distribución de Poisson es un buen modelo para la distribución de número


de eventos raros que curren en una unidad de tiempo, de distancia, de espacio, entre
otros. Por esta razón se utiliza mucho en área de investigación científica tanto en
administración de empresas como en las la planta nuclear de Three Mile Island) o por
administradores de personal, para modelar la distribución de frecuencias relativas del
número de accidentes de empleados”. (Badii et al., 2007a).
7

A partir de lo expuesto anteriormente, es preciso establecer:

1- ¿Cómo se aplica la distribución normal en la toma de decisiones en las


empresas?
2- ¿Cómo se aplica la distribución de Poisson en la toma de decisiones en las
empresas?

1.4. Objetivos.

1.4.1. Objetivo general.

Analizar las aplicaciones de la distribución normal y la distribución de poisson en el


ámbito de toma de decisiones empresarial.

1.4.2. Objetivos específicos.

1- Aplicar la distribución normal en la toma de decisiones en las empresas.

2-Aplicar la distribución de Poisson en la toma de decisiones en las empresas

1.5. Justicación.

La distribución normal juega un rol determinante en muchos procesos de


inferencia estadística. Dado que esta función de densidad de probabilidad de la
distribución normal cumple con las condiciones de regularidad, sus parámetros son
estimados a través del método de máxima verosimilitud.

Por otra parte, la distribución de Poisson es una distribución de probabilidad


discreta que expresa, a partir de una frecuencia de ocurrencia media λ, la probabilidad
que ocurra un determinado número de eventos durante un intervalo de tiempo dado o
una región específica.

La relevancia de este proyecto no solo radica en presentar la relación final


entre las distribuciones normal y de Poisson, la cuales brinda un grano de arena en el
proceso de observar y/o analizar de mejor manera el propósito del análisis estadístico
y probabilidad en la toma de decisiones empresarial, sino que también es relevante
reconocer o recordar sus aplicaciones, y demás aspectos, que tiene cada una, para
efectuar un mejor estudio y uso de éstas.
8

1.6. Delimitación

Esta investigación está orientada al campo de las matemáticas aplicadas, en


especial al área de análisis estadístico, se trata de una investigación documental,
descriptiva, explicativa, exploratoria y analitica, del Análisis Estadístico Aplicado en
la Toma de Decisiones empresarial, destacando la aplicación de la distribución normal
también conocida como campana de Gauss y la distribución de Poisson.
9

CAPITULO II

MARCO REFERENCIAL

2.1. Introducción.

Para una mejor comprensión de las ideas expresadas en la presente


investigación, en este capítulo se plantean las definiciones, proposiciones, teoremas y
algunas demostraciones que sirven de soporte y referente conceptual de esta
investigación.

2.2. Marco teórico.

2.2.1. Estadística

Definición 2.2.1 La estadística es la ciencia que se ocupa del estudio de fenómenos de


tipo genérico, en el ámbito social y económico, normalmente complejo y enmarcado
en un universo variable. Emplea modelos de deducción de la información y del
análisis de validación de los resultados en término de representatividad. (Asurza et al,
2006).

Definición 2.2.2 Es el arte de aprender a partir de los datos. Esta relacionada con la
recopilación de datos, su descripción subsiguiente y su análisis. Lo que nos lleva a
extraer conclusiones. (Ross, 2007)

Definición 2.2.3 Los objetivos de la Estadística Descriptiva son los que se abordan en
la primera de estas fases. Es decir, su misión es ordenar, describir y sintetizar la
información recogida. En este proceso será necesario establecer medidas cuantitativas
que reduzcan a un número manejable de parámetros el conjunto (en general grande)
de datos obtenidos. (Gorgas et al, 2009)

Definición 2.3 La estadística estudia los métodos científicos para recoger, organizar,
resumir y analizar datos, permite obtener conclusiones válidas y tomar decisiones
razonables basadas en el análisis. La estadística es, por tanto, la ciencia que recoge
clasifica y analiza la información que se presenta habitualmente mediante datos
agregados que permiten que las observaciones puedan cuantificarse, medirse,
estimarse y compararse utilizando medidas de tendencia central, medidas de
distribución, métodos gráficos, entre otros. (SEMERGEN, 2007).
10

2.2.1 Probabilidad

Definición 2.2.2 Dado un experimento aleatorio con un espacio de n sucesos


elementales Ω, la probabilidad del suceso A, que designamos mediante P(A), es la
razón entre la cantidad de casos favorables para la ocurrencia de A y la de casos
posibles. (Mordecki, 2007).

En otros términos, P(A) = NA /n , donde NA es la cantidad de casos favorables de


A.

Definición 2.2.3 El concepto de probabilidad surge para medir la certeza o


incertidumbre de un suceso de un experimento aleatorio. Históricamente, la teoría de
la probabilidad se desarrolló en primer lugar para encontrar estrategias óptimas para
los juegos de azar, aunque, rápidamente, su utilidad desbordo este campo.
Evidentemente, la forma más directa de saber la posibilidad de que ocurra un suceso
en un experimento aleatorio es repetir dicho experimento muchas veces. De esta
forma, supongamos que se repita n veces el experimento y llamemos nA, o frecuencia
absoluta de A, al n´umero de veces en que ocurre el suceso A. Se puede definir
entonces la probabilidad P(A) del suceso A como. (Gorgas et al, 2009)

nA Frecuencia absoluta del suceso A


P(A)= lim = lim
n→∞ n n→∞ Numero de veses que se repite el experimento

2.2.3 Distribución normal

Definición 2.2. 4. La distribución normal queda definida por dos parámetros, su


media y su desviación típica y la representamos así: N (μ, δ) de manera que para cada
valor de μ y δ tendremos una función de densidad distinta, por tanto, la expresión
N(μ, δ) representa una familia de distribuciones normales. (Gorgas et al, 2009)

Definición 2.2.5 Función de distribución

Definición 2.2.6 Puede tomar cualquier valor (− ∞, + ∞) , Son más probables los
valores cercanos a uno central que llamamos media μ.

Conforme nos separamos de ese valor μ, la probabilidad va decreciendo de igual


forma a derecha e izquierda (es simétrica).
11

Conforme nos separamos de ese valor μ, la probabilidad va decreciendo de forma


más o menos rápida dependiendo de un parámetro δ, que es la desviación típica.

Definición 2.2.7 “La distribución normal que tiene de media μ = 0, y σ2 = 1 se


denomina distribución normal estándar, N(0,1), tipificada. Su función de distribución
se encuentra tabulada, siendo de gran utilidad para el cálculo de probabilidades de
cualquier distribución N(μ, σ2). "

“2 Sea una variable X que se distribuye como una normal con media μ y variancia σ2
. Dicha variable se puede transformar en una variable normal tipificada,
N(0,1) Martin, 2012)

Definición 2.2.8 Se dice que una variable aleatoria tiene una distribución

normal con media y desviación estándar ,


si tiene una distribución continúa cuya de densidad de probabilidad (f.d.p) es la
siguiente: se denota por el símbolo Φ. (Sánchez, 2006)

Función de densidad de probabilidad es:

Función de distribución es:

2.2.2.6. Distribución de Poisson

Definición 2.2.7. Se dice que X sigue una distribución de Poisson de parámetro λ y


que se obtiene del producto n*p (que nombraremos a partir de aquí como n.p, por
mayor simplicidad), que se representa con la siguiente notación:

X ~ Ps (λ)

-La distribución de Poisson se caracteriza por las siguientes propiedades:

-Sea una población de tamaño ∞.


12

-Sea una muestra de tamaño n bastante elevado (se suele hablar de que tiende a ∞)

- Los sucesos son independientes entre sí.

- Sea A un suceso que tiene una probabilidad p de suceder durante un periodo de


tiempo, siendo esta probabilidad de ocurrencia durante un periodo de tiempo concreto
muy pequeña (se suele hablar de que tiende a 0). ( Martínez et al, 2010).

Definición 2.2.8

P(x / λ) = ( λx ∗ e − λe−x )/x!

La probabilidad de que ocurran X éxitos cuando el número promedio de ocurrencia de


ellos es λ media o promedio de éxitos por unidad de tiempo, área o producto e es la
constante 2.7183, base de los logaritmos naturales, en tanto que los valores de e -λ
pueden obtenerse de tablas.

X señala un valor específico que la variable pueda tomar (el número de éxitos que
deseamos ocurran) Por definición, el valor esperado (media en el intervalo o región
de interés) de una distribución de probabilidad de Poisson es igual a la media de la
distribución. E(X) = λ La varianza del número de eventos de una distribución de
probabilidad de Poisson también es igual a la media de la distribución λ. De este
modo, la desviación estándar es la raíz cuadrada de λ. V(X) = λ σ = √λ

Definición 2.2.9 En teoría de probabilidad y estadística, la distribución de Poisson es


una distribución de probabilidad discreta. Expresa la probabilidad de un número de
eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una tasa media
conocida, y son independientes del tiempo desde el último evento. (Sherichec,2000)

Su distribución de probabilidad está dada por:

e−λ λk
F(k;λ) = K!

donde;

• e es el base del logaritmo natural (e = 2.71828...),

• k! es el factorial de k,

• λ es un número real positivo, equivalente al número esperado de ocurrencias durante


un intervalo dado.
13

Definición 2.2.1 Existen situaciones en las que la probabilidad de ocurrencia p de un


suceso es muy pequeña mientras que es muy grande el número n de unidades a
verificar. El cálculo de probabilidades con la binomial resulta muy costoso por lo que
se intenta aproximarlo a otra distribución. Para los científicos de la época ésta era la
ley normal, que consideraban una especie de dogma universal, a la que debían
someterse todos los fenómenos, incluso los de carácter social. Sin embargo, Poisson
obtiene en 1836 este importante resultado “si p difiere mucho de 1/2 la ley normal no
es la representación asintótica adecuada”. Descubría así la ley que lleva su nombre, la
“ley de los sucesos raros”, llamada por Bortkiewicz “ley de los pequeños números”.
(Saborido,2018)

e−λ λk
F(k;λ) = , K= 0,1,2, …
K!
14

CAPÍTULO III

DISEÑO METODOLÓGICO.

3.1. Introducción.

En este capítulo se describen los aspectos metodológicos que marcaron el


desarrollo de esta investigación. En el mismo se detallan el método, diseño, tipo,
enfoque y procedimientos del referido trabajo.

3.2. Marco metodológico.

3.2.1. Método.

Este estudio contiene una investigación analítica, pues como lo expresan los
objetivos investigativos y las conclusiones obtenidas, la misma consiste en análisis de
las aplicaciones de la distribución normal y la distribución de poisson en el ámbito de
toma de decisiones empresarial.

Además, este trabajo emplea el método deductivo, pues la esencia de la misma


consiste en extraer conclusiones lógicas y válidas a partir de un conjunto de teoremas
y proposiciones ya establecidas.

3.2.2. Diseño.

Esta investigación corresponde a un diseño no experimental ya que no se manipularon


deliberadamente variables por su carácter eminentemente teórico y abstracto.

3.2.3. Tipo.

De acuerdo con las características de esta investigación, es de tipo exploratoria, ya


que estuvo basada en una temática poco estudiada y provee una referencia general y/o
especifica de la misma. Además, es de tipo descriptiva-explicativa dado que se
establecerán las aplicaciones de la distribución normal y la distribución de poisson en
el ámbito de toma de decisiones empresarial.

3.2.4. Enfoque.

Este trabajo contempla un enfoque cualitativo, a pesar de emplear el método


deductivo, debido a que su desarrollo está basado en descripciones, explicaciones y
análisis sobre las definiciones, teoremas y sus demostraciones.
15

3.3. Procedimientos.

En este apartado se incluye una descripción de las diferentes etapas del proceso de
realización de este trabajo de investigación, las cuales fueron supervisadas
constantemente por el asesor.

1. Se realizó la solicitud de aprobación de esta temática investigativa.

2. Se realizará una amplia consulta bibliográfica, en varios idiomas, sobre los aspectos
básicos y teoremas más importantes sobre el análisis estadístico aplicado en la toma
de decisiones.

3. Se someterá la propuesta de anteproyecto a la Facultad de Postgrado y Educación


Continuada, a los fines de evaluar la relevancia y/o pertinencia de la misma.
16

Bibliografía

Badii, M.H., J. Castillo, J. Landeros & K. Cortez (2007). Papel de la estadística en la


investigación científica. Innovaciones de Negocios.

CONDE, A. (2015). “La distribución normal una rápida revisión histórica”.


Heurística.

Carro,R. Y González, D ( 2012) Control estadístico de procesos.

ESTEPA, A. Y PINO, J. (2013). “Elementos de interés en la investigación didáctica


y enseñanza de la dispersión estadística”. Números. Revista de Didáctica de las
Matemáticas.

Galbiati, J. (2012) Desarrollo Histórico de la Estadística.

Javier Gorgas, J. Y G, Nicolas, y López, C. y Zamorano, J (2009).Fundamentos de


Estadística Descriptiva.

Mordecki, E (2007) . Probabilidad

Martínez, Gómez, Y Marí, Manuel (2010).La distribución Poisson.

Martínez G, M. y Benlloch, M. (2010). El ábaco de Poisson. Aplicaciones Prácticas.

Martín, G. R ( 2012)La función de probabilidad normal: Características y


aplicaciones.

Pilar M, F. y Solar, J. Guerrero, M . y Atalah, E (2005 ).Factores de riesgo de


enfermedades crónicas no transmisibles en funcionarios de una empresa de
servicios financieros de la Región Metropolitana

Piña, M. R ( 2011). Desarrollo de la Función Densidad de Probabilidad de la


Distribución Normal y su Aplicación.

Restrepo, L. F y González, J.(2003). La Historia de la Probabilidad.

Salinas J, O (1993). Análisis estadístico para la toma de decisiones en admi

Sherichec (2000). Distribución de probabilidad binomial, de poisson, normal,


exponencial nistración y economía. — Lima : Universidad del Pacífico.
17

STAHL, S. (2006). The evolution of the Normal Distribution. Mathematics


Magazine.

Sheldon M. R (2007). Introducción a la estadística.

SEMERGEN (2007).Estadística Descriptiva y Estadística Inferencia.

SABORIDO, A (2018). La Distribución de Poisson: Orígenes y Aplicación al


Pronóstico de Resultados de Fútbol.

Urbizagástegui, R. A (2003). Aplicación de la distribución Gauss-Poisson Inversa


Generalizada ala produtividad de autores.
18

Anexo II. Cronograma de trabajo de la investigación.

En este apartado se describen las diferentes etapas del proceso de elaboración de esta
investigación y sus respectivas fechas de ejecución.

Descripción Periodo de ejecución


Solicitud de título. 10 y 11 de enero, 2020.
Aprobación del título. 11 y 17 de enero, 2020.
Elaboración y entrega del anteproyecto. 17 y 24 de enero, 2020
Evaluación del Anteproyecto. 30 de enero, 2020.
Entrega de anteproyecto corregido. 31 Enero, 2020.

También podría gustarte