Está en la página 1de 7

INVESTIGACION

José aldeir Martínez Pérez


UTSB NANCHITAL, VER
NOMBRE DE LA ASIGNATURA
Estadística
COMPLEMENTO DE
ACTIVIDAD DE 15
EJERCICIOS
NOMBRE DEL ALUMNO MARTINEZ PEREZ JOSE ALDEIR
Tic14190498.jmartinez@alumnos.ut
MATRICULA 14190498 E-MAIL
sv.edu.mx
MAYO-AGOSTO
PERIODO ESCOLAR GRUPO 1001
2020

NOMBRE DEL DOCENTE Mtro. Rafael Fabian Santiago Vázquez

Carrera Tecnologías de la información


INTRODUCCION

El siguiente documento cuenta con un conjunto de


investigaciones de las cuales se hicieron con el motivo de
facilitar un poco la solución de los ejercicios, se hace con la
finalidad de saber para que son y cual es la finalidad de cada
uno de ellos implicarnos cual es su importancia dentro de este
documento solo se alojan los conceptos del archivo de Excel
añadido previamente solo ayudara un poco para la
comprensión de los ejercicios a realizar
MODA
En la estadística, la moda es el valor con mayor frecuencia en una de las
distribuciones de datos. Esto va en forma de una columna cuando encontremos dos
modas, es decir, dos datos que tengan la misma frecuencia absoluta máxima. Una
distribución trimodal de los datos es en la que encontramos tres modas. En el caso
de la distribución uniforme discreta, cuando todos los datos tienen la misma
frecuencia, se puede definir las modas como indicado, pero estos valores no tienen
utilidad. Por eso algunos matemáticos califican esta distribución como «sin moda».
MEDIA
La media es una medida de tendencia central que representa el punto medio en un
conjunto de valores. En otras palabras, la mitad de los valores estará por encima y
la otra mitad por debajo de la misma. Para más información, vea nuestro módulo,
Costo total, unitario y promedio.
MEDIANA
En el ámbito de la estadística, la mediana (del latín mediānus 'del medio'1)
representa el valor de la variable de posición central en un conjunto de datos
ordenados. Se le denota mediana.
VARIANCIA
La varianza es una medida de dispersión que representa la variabilidad de una serie
de datos respecto a su media. Formalmente se calcula como la suma de los
residuos al cuadrado divididos entre el total de observaciones
COVARIANZA
En probabilidad y estadística, la covarianza es un valor que indica el grado de
variación conjunta de dos variables aleatorias respecto a sus medias. Es el dato
básico para determinar si existe una dependencia entre ambas variables y además
es el dato necesario para estimar otros parámetros básicos, como el coeficiente de
correlación lineal o la recta de regresión.
DESVIACION ESTANDAR
En estadística, la desviación típica (también conocida como desviación estándar y
representada de manera abreviada por la letra griega minúscula sigma σ o la letra
latina s, así como por las siglas SD (de standard deviation, en algunos textos
traducidos del inglés)) es una medida que se utiliza para cuantificar la variación o
la dispersión de un conjunto de datos numéricos.1
Una desviación estándar baja indica que la mayor parte de los datos de una muestra
tienden a estar agrupados cerca de su media (también denominada el valor
esperado), mientras que una desviación estándar alta indica que los datos se
extienden sobre un rango de valores más amplio.
ESPERANZA MATEMATICA
En estadística la esperanza matemática (también
llamada esperanza, valor esperado, media poblacional o media) de una variable

aleatoria , es el número o que formaliza la idea de valor medio de un


fenómeno aleatorio. Es un concepto análogo a la media aritmética de un conjunto
de datos.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la
probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad promedio que se "espera" como
resultado de un experimento aleatorio cuando la probabilidad de cada suceso se
mantiene constante y el experimento se repite un elevado número de veces. Cabe
decir que el valor que toma la esperanza matemática en algunos casos puede no
ser "esperado" en el sentido más general de la palabra (el valor de la esperanza
puede ser improbable o incluso imposible).
TEORIA DE CONJUNTOS
La teoría de conjuntos es una rama de la lógica matemática que estudia las
propiedades y relaciones de los conjuntos: colecciones abstractas de objetos,
consideradas como objetos en sí mismas. Los conjuntos y sus operaciones más
elementales son una herramienta básica en la formulación de cualquier teoría
matemática.1
La teoría de los conjuntos es lo suficientemente rica como para construir el resto de
objetos y estructuras de interés en matemáticas: números, funciones, figuras
geométricas, etc; gracias a las herramientas de la lógica, permite estudiar los
fundamentos. En la actualidad se acepta que el conjunto de axiomas de la teoría de
Zermelo-Fraenkel es suficiente para desarrollar toda la matemática.
Además, la propia teoría de conjuntos es objeto de estudio per se, no solo como
herramienta auxiliar, en particular las propiedades y relaciones de los
conjuntos infinitos. En esta disciplina es habitual que se presenten casos de
propiedades indemostrables o contradictorias, como la hipótesis del continuo o la
existencia de un cardinal inaccesible. Por esta razón, sus razonamientos y técnicas
se apoyan en gran medida en la lógica.
El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que
comenzó a investigar cuestiones conjuntistas (puras) del infinito en la segunda
mitad del siglo XIX, precedido por algunas ideas de Bernhard Bolzano e influido
por Richard Dedekind. El descubrimiento de las paradojas de la teoría cantoriana
de conjuntos, formalizada por Gottlob Frege, propició los trabajos de Bertrand
Russell, Ernst Zermelo, bolovin bolovan y Abraham Fraenkel.
TEOREMA DE BAYES
El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada
por el matemático inglés Thomas Bayes (1702-1761)1 y publicada póstumamente
en 1763,2 que expresa la probabilidad condicional de un evento
aleatorio A dado B en términos de la distribución de probabilidad condicional del
evento B dado A y la distribución de probabilidad marginal de solo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de
enorme relevancia puesto que vincula la probabilidad de A dado B con la
probabilidad de B dado A. Es decir, por ejemplo, que sabiendo la probabilidad de
tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún
dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza. Muestra
este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en
todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la
probabilidad de aspectos causales dados los efectos observados.
Conclusión
Como conclusión puedo decir que estos ejercicios como
finalidad es ayudar a mejorar el razonamiento lógico
matemático para ayudar o fomentar el estímulo para
solución de problemas viendo todos y cada uno de los
factores para consigo analizarlos y poder tener también
una mejor comprensión lectora de lo que nos piden
muchas veces nuestros mentores y por no leer tenemos
problemas o tenemos confusiones cosa que este
trabajo ayudo un poco en esa cuestión en pocas
palabras ayuda a la estimulación para la comprensión y
solución de los problemas

También podría gustarte