Está en la página 1de 13

República Bolivariana De Venezuela

Universidad nacional Experimental

´´Simón Rodríguez

Núcleo: Maturín

Maturín 26/ 07/ 2021


Introducción

Es importante para conocer las probabilidades asociadas a cada valor, así como para
poder estimar probabilidades acumuladas. En este sentido es imprescindible, conocer la
definición y características de Función de Probabilidad y Función de Distribución. Conocer
los objetivos que pretendemos conseguir trabajaremos la definición y características de
Función de Probabilidad y características de las distribuciones
En muchas ocasiones no nos interesa conocer la probabilidad de que la variables aleatoria
X tome exactamente un determinado valor xi, sino que puede interesarnos determinar la
probabilidad de que tome valores menores o iguales que un cierto valor xi. En tales casos
es necesario acumular los distintos valores de la función de probabilidad hasta el valor
deseado. Es lo que se denomina unión de distribución y se representa por F (X).
La función de probabilidad, de cuantía o de masa de una variable aleatoria discreta, es una
función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de
que dicho suceso ocurra, estando definida sobre el conjunto de todos de los posibles
valores de la variable aleatoria.

Estudio de las principales distribuciones de probabilidad


La estadística se encarga de realizar el cálculo de la probabilidad de que algo ocurra en el futuro.

En el mundo actual, al momento de tomar una decisión, muy rara vez contamos con la información
completa para hacerlo, es por eso que la inferencia estadística juega un papel fundamental en este
caso, ya que a partir de una muestra significativa de una población (información limitada),
inferimos propiedades de esta población y utilizando la teoría de probabilidades podemos analizar
riesgos y reducirlos al mínimo.

Por ejemplo, al momento de realizar la manufactura de un producto calcular la probabilidad de


que a lo sumo 10% de ellos salgan defectuosos.
En la empresa y en el mundo de los negocios, la teoría de la probabilidad es muy importante
debido a que nos brinda herramientas para tomar una mejor decisión ante el futuro.

Los modelos de probabilidad, que son representaciones de la realidad, pueden ayudarnos a


optimizar la ganancia de nuestro negocio teniendo en cuenta los riesgos al momento de realizar
una inversión, optimizar el sistema del servicio al cliente de una compañía creando políticas para
evitar la pérdida de clientes, y hasta crear nuevas estrategias competitivas a largo plazo según el
mercado.

Tipos de distribuciones de probabilidad

Los científicos siempre se han sentido fascinados con los fenómenos y acontecimientos que
ocurren en la vida cotidiana, por lo que se han puesto en la tarea de construir modelos
probabilísticos teóricos, a través de la experimentación, que los describan. Algunos de los más
utilizados hoy en día son:

Distribución de probabilidad Binomial:

Es una probabilidad discreta y se presenta con mucha frecuencia en nuestra vida cotidiana. Fue
propuesta por Jakob Bernoulli (1654-1705), y es utilizada con acontecimientos que tengan
respuesta binaria, generalmente clasificada como “éxito” o “fracaso”. Algunos ejemplos donde se
aplica esta distribución son:

Si una persona presenta o no una enfermedad.

Si una mujer se encuentra en estado de embarazo.

Que un producto sea exitoso o no.

Que un vuelo se retrase o no.

Si el lanzamiento de una moneda sale cara en vez de sello.

Distribución de probabilidad de Poisson:

Recibe su nombre gracias al matemático francés Simeón Denis Poisson (1781-1840). Describe el
número de veces que se presenta un acontecimiento durante un intervalo específico, este
intervalo puede ser de tiempo, distancia, área o volumen. La probabilidad de ocurrencia es
proporcional a la longitud del intervalo. Algunos ejemplos donde se aplica esta distribución son:
El número de vehículos que vende por día un concesionario.

Cantidad de llamadas por hora que recibe una compañía.

Cuando se requiere conocer el número de defectos en un lote de tela.

Número de accidentes automovilísticos en el año.

Número de llegadas de embarcaciones a un puerto por día.

Distribución de probabilidad normal:

La distribución de probabilidad normal es una de las más importantes en estadística y en el cálculo


de probabilidades.

Fue utilizada por Carl Friedich Gauss (1777-1855) al escribir un libro sobre el movimiento de los
cuerpos celestes, por este motivo también es conocida como distribución Gaussiana.

Es importante debido a que el teorema central del límite implica que esta distribución es casi
universal y la podemos encontrar en todos los campos de las ciencias empíricas tales como:
biología, física, psicología, economía, etc.

Como se mencionaba anteriormente la aplicación de esta distribución de probabilidad es muy


amplia. Algunos ejemplos son:

El efecto de un medicamento o fármaco.

El cambio de temperatura en una época del año específica.

Caracteres morfológicos como el peso o la estatura en un grupo de individuos.

Nuestro mundo actual se encuentra en constante cambio y tenemos incertidumbre frente al


futuro, es por eso que es importante resaltar la teoría de la probabilidad o también conocida como
la ciencia de la incertidumbre.
Introducción a la teoría de estimación
Un problema de estimación consiste en hallar, con determinada precisión, el verdadero valor de
un parámetro (proporción, media, variancia, etc. calculada con todos 10s individuos de una
población), a partir solamente de la información contenida en una muestra representativa (") de la
población. En el caso particular de estimar una proporcion p, si solo se dispone de la información
contenida en una muestra de tamaño n, es decir de la proporción p, observada en ella, se
demuestra que la mejor estimación puntual de p es la proporción p, observada en la muestra.
Además de esta estimación puntual, es importante conocer su precisión, es decir 10 próximo o 10
alejado que p, puede estar de p. Este concepto de precisión se explicita con la estimación por
intervalo de p o intervalo de confianza, que es un intervalo simétrico alrededor de p, que tiene
gran probabilidad de contener el valor p. El intervalo de confianza se deduce a partir del intervalo
de probabilidad. Si por un momento imaginamos conocida la proporción p de la población, al ir
extrayendo de ella muestras de tamaño n las proporciones p, observadas en ellas, excepto una
pequeña cantidad a de ellas, irán cayendo dentro del interval~ de probabilidad. Salvo la pequeña
cantidad a de ellas, las proporciones observadas p, no estarán más alejadas de p que la distancia
definida por el desvió

Introducción a la teoría de contrastes de hipótesis

El contraste de hipótesis es una estrategia metodológica fundada en la inferencia estadística que


permite evaluar si una propiedad que el investigador supone (hipotetiza) existe en una población,
es compatible con lo observado en una muestra experimental. En esta situación se encontraría la
lógica inductiva de Carnap, una teoría según la cual la esencia del razonamiento inductivo consiste
en la determinación de valores de probabilidad de las hipótesis científicas en razón de los datos de
experiencia. El contraste de hipótesis se caracteriza por “constituir uno de los instrumentos más
apropiados para la toma de decisiones en condiciones de incertidumbre”. (López Casuso, 1996,).
Las propuestas teóricas fundamentales para el contraste de hipótesis surgen a principios del S.XX
con base en los trabajos pioneros de autores como Charles Sanders Peirce, Student (William
Gosset), Ronald Fisher y los desarrollos de Jerzy Neyman, Egon Pearson y Richard Von Misses.
(Reichenbach, 1949). En términos generales, se puede definir el contraste de hipótesis como: “una
función de decisión o estrategia que lleva a aceptar o rechazar la hipótesis nula H0” (López Casuso,
1996). Mediante esta teoría, se aborda el problema científico considerando su traducción en una
hipótesis estadística determinada Ho, y una hipótesis alternativa H1, a partir de las cuales se
intenta decidir cuál de las dos es la hipótesis verdadera, tras aplicar el problema estadístico a un
cierto número de experimentos. La lógica del contraste de hipótesis se resume en la tesis de que
una muestra aleatoria del conjunto total tiende a representar el comportamiento real de la
población en la medida en que aumenta el número de observaciones. En un contexto de
incertidumbre con relación a la validez de nuestras hipótesis de investigación, elementos teóricos
matemáticos tan robustos como los de la probabilidad pueden generar los argumentos para
verificar, según Reichenbach; confirmar, según Carnap o falsear, según Popper, una vez que
nuestros constructos se traducen a términos matemáticos. En cualquier caso, el salto inductivo de
los datos a la teoría es un tema que sigue generando polémica entre los filósofos de la ciencia. En
la práctica dos grandes corrientes caracterizan el contraste estadístico de hipótesis, nos referimos
a las tradiciones derivadas de los trabajos de Ronald Fisher y aquellas de los trabajos de Jerzey
Neyman y Egon Pearson. Del primero heredamos las pruebas de significación. Por su parte, los
trabajos de Neyman-Pearson se traducen en el contraste de hipótesis por intervalos. Aunque,
formalmente, ambas propuestas representan enfoques encontrados en la práctica se han unido en
un matrimonio forzado que se evidencia en la mayoría de la producción investigativa
contemporánea. La práctica del contraste de hipótesis está fuertemente orientada al control de
los errores de tipo I y II en estadística, que definen respectivamente, la posibilidad de tomar un
suceso falso como verdadero, o uno verdadero como falso. En otras palabras, el contraste de
hipótesis implica el interés por validar determinados modelos, en los cuales se supone los efectos
de determinadas variables independientes sobre alguna variable dependiente. En el caso del error
tipo I, al cual se le conoce como alfa de la prueba, el autor corre el riesgo de atribuir efectos a una
variable independiente sobre una variable dependiente que no existen. Por su parte, el error tipo
II, también conocido como beta, implica la posibilidad de que el investigador descarte los efectos
de la variable independiente sobre la variable dependiente por fallas en el diseño.

El contraste de hipótesis a la luz de los desarrollos de las teorías estadísticas pertinentes implica un
trabajo racional por la búsqueda de un equilibrio entre el control del error tipo I y la potencia del
contraste. En función de ello, los autores sugieren trabajar con algunos elementos críticos
asociados con el rechazo de la hipótesis nula como son: el tamaño del efecto, el nivel de
significación o alfa y el tamaño de la muestra o número de observaciones. Básicamente, la
potencia del contraste se mueve como una función de estos elementos que se resume en la
necesidad de incrementar el índice de discrepancia o efecto relativo de la variable independiente
sobre la variable dependiente. Se entiende el índice de discrepancia como una razón del tamaño
de las diferencias entre los parámetros contrastados dividido por la varianza relativa de la
población.

En términos metodológicos el concepto de contraste de hipótesis abriga una familia de pruebas


estadísticas con el fin de procurar argumentos cuantitativos para sostener la aseveración con
relación a la validez de los hallazgos de una investigación. Sin embargo, al estudiar a nivel
operativo esta familia de pruebas, el investigador encontrará una diversidad de modelos que han
sido desarrollados con el fin de garantizar la mayor eficiencia en el contraste. Básicamente, la
investigación ha tomado en cuenta dos criterios fundamentales para clasificar las distintas pruebas
de contraste de hipótesis:

a) el diseño de la investigación

b) el cumplimiento de los supuestos asociados con el uso de pruebas paramétricas. Según


el diseño, hoy en día se cuenta con un complejo conjunto de pruebas que se derivan de la
combinación entre:

a) el número de muestras

b) el número de observaciones
c) los niveles de independencia de las observaciones. En cuanto al cumplimiento de los supuestos,
la literatura agrupa las pruebas estadísticas de contraste en las categorías: paramétricas y no
paramétricas, tomando en cuenta los criterios:

a) nivel de medición de las variables

b) supuestos con relación a la forma de la distribución de la población.

El contraste de hipótesis es la práctica científica que, como tal, busca articular los elementos
teóricos, metodológicos y técnicos en la construcción del conocimiento científico. De este modo, el
contraste de hipótesis involucra dos tipos de hipótesis fundamentales, según el campo discursivo
en el cual se les ubica: el primero es el campo propiamente teórico y que definiremos como
hipótesis sustantivas y el otro es el campo metodológico donde las hipótesis se definen
operacional y estadísticamente. A nivel sustantivo, las hipótesis expresan una afirmación
conjetural acerca de la relación entre dos o más variables. Mientras que las hipótesis sustantivas
nos hablan del plano formal del conocimiento, es decir, nos describe las relaciones teóricas entre
las variables, estrictamente hablando estas no pueden ser probadas a menos que se traduzcan en
definiciones operacionales (Kerlinger & Lee, 2002). De modo que, el investigador deberá traducir
sus enunciados teóricos a elementos operacionales y reducir estos a formulaciones estadísticas
que le permitan generar los argumentos para la “verificación” o “felación” de sus hipótesis
sustantivas. Una hipótesis estadística se define como “una predicción sobre cómo resultarán los
estadísticos utilizados al analizar los datos cuantitativos de un problema de investigación.

Introducción al estudio de correlación y regreso lineal

Los estudios correlacionales, son procedimientos investigativos en los cuales se trata de


determinar la relación existente entre dos o más variables de estudio,
manipulándolas específicamente y no físicamente, permitiendo al investigador obtener
conclusiones de las relaciones entre conceptos de grupos heterogéneamente seleccionados.

Este tipo de estudios, requiere de experiencia del investigador, e información relevante de los
conceptos a ser relacionados, por lo tanto la descripción de un marco teórico con riqueza de
datos, facilitará su aplicación.

El uso de herramientas de recolección de datos, se considerará fundamental al momento de


obtener información, pudiendo conseguir datos que sean irrelevantes para el estudio y generen
confusión al momento de su análisis. Pese a ello, la aplicación de fórmulas estadísticas correctivas
podría facilitar de algún modo un análisis adecuado.
Los procedimientos estadísticos a ser aplicados, se relacionan al uso del tipo de variable aplicada, y
la determinación de la significancia estadística del estudio, debiéndose lograr estimaciones con un
margen de error menor al 5%. De esta forma cuanto mayor número de variables sean
relacionadas, la fuerza de las relaciones más completa explicará los fenómenos estudiados.

Se define como correlación, a una medida en la cual dos o más variables encuentran
relaciones de interdependencia entre sí.

El estudio correlacional, es aquel realizado en la investigación científica donde existe manipulación


específica de las variables de estudio, a través de un procedimiento de selección. Estas variables ya
definidas en este tipo de estudios difieren de las utilizadas en los estudios experimentales, donde
las variables son "creadas" por el investigador, manipulándose en forma directa. Las relaciones
existentes entre las variables de estudio pueden ser expresadas mediante una relación directa o
mediante el hallazgo de una relación inversa o negativa entre las variables. Por lo tanto, la
correlación es la con variación entre las variables, por lo que el término correlación y covarianza
significan lo mismo, en el entendido, del análisis de la variación de las variables de estudio. Si bien
los estudios correlaciónales, son de tipo observacional al igual que los estudios descriptivos, estos
últimos miden con precisión las variables individuales y los conoce Este tipo de estudios, debe ser
elegido por los investigadores, que ya cuentan con alguna experiencia en el manejo de estadística
y diseños metodológicos, y cuando no se puede realizar físicamente la manipulación de las
variables de estudio. Es electivo también, cuando los sucesos ya han ocurrido, o cuando la
manipulación de las variables no sea ética o sea ilegal.

De esta forma, para el desarrollo de un estudio correlacional, debe existir información previa de
conceptos, determinados por estudios descriptivos anteriores, que permitan al investigador la
obtención de información, que pueda ser utilizada para ver el comportamiento de los conceptos
de alguna variable, mediante la observación de otras variables relacionadas, intentando predecir
un valor aproximado de relación entre ellas.3

Cuando el investigador está en búsqueda de una relación causal, el estudio de tipo correlacional,
no será el ideal para ser elegido, ya que con este diseño, es imposible demostrar cuál fue la causa,
y cuál el efecto, planteando un problema importante de direccionalidad.

De igual forma, al ser un estudio observacional y no poder realizar la manipulación física de las
variables, es imposible establecer la relación, sobre la existencia de una tercera variable no
considerada, que agreda de alguna manera a las variables de estudio.

Los datos de un estudio correlacional deben definir con concreción las variables que permitan
predecir la puntuación y ejecución de individuos que no han sido previamente probados,
denominándose a ella, variable criterio, a partir de la puntuación de otra variable, denominada
variable predictora. La combinación de ambas puede lograr una relación lineal específica,
denominada recta de regresión.

El modelo teórico así planificado debe plantearnos la posibilidad de que:

Se esté calculando el coeficiente de correlación entre dos variables que no están relacionadas.

Que se calcule en un número muy grande de muestras, y haya la posibilidad de


Que al calcular muchos coeficientes de relación entre las variables no relacionadas, encontremos
una distribución normal de dichos coeficientes, con media de distribución igual a 0.

La identificación del error típico no sea la adecuada.

Que en el momento del planteamiento de la pregunta, estimemos que el coeficiente de


correlación sea estadísticamente significativo y que ocurra, cuando no hay relación entre variables
(correlación espuria) debiendo en este caso recurrir a una investigación explicativa para saber
porque estas variables están supuestamente relacionadas, o viceversa.3,6

Aunque se tengan niveles de confianza 0,05, las probabilidades de correlación son menores al 1%
(p<0.01) o al 1/1000 (p<0.001), recomendándose que se debe indicar una probabilidad exacta sin
limitarse a poner superior o inferior a un valor.

Por lo tanto la pregunta de investigación deberá idealmente establecer los valores específicos a
medir en cada variable de estudio, así como el coeficiente de relación entre ellas, dato que de
igual forma deberá estar especificado en la hipótesis investigativa.

El muestreo en el estudio correlacional, debe ser idealmente heterogénea, para observar la


presencia o no de relaciones entre las variables de estudio. El uso de muestras homogéneas,
determinarán coeficientes muy bajos

Los instrumentos de medición utilizados en este tipo de estudios, deben ser confiables,
identificando la relación entre variables sin que sea detectada. La poca precisión en los
instrumentos puede llevar a errores frecuentes durante el análisis. Es posible que durante el
diseño de instrumentos se puedan hacer correcciones por atenuación, que permiten dar una
estimación de la correlación, verificando de esta forma si la fiabilidad de los indicadores utilizados
es perfecta.

Regreso lineal
Regresión lineal simple). Una generalización de este modelo, el de regresión lineal múltiple,
permite considerar más de una variable explicativa cuantitativa. Por otra parte, tal como se verá
en un tema posterior, es también posible incluir variables explicativas categóricas en un modelo de
regresión lineal si se sigue una determinada estrategia en la codificación de los datos conocida
como codificación ficticia. • En concreto, según el modelo de regresión lineal simple, las
puntuaciones de los sujetos en 2 variables -una de ellas considerada como variable predictora (X) y
la otra como variable de respuesta (Y)- vienen representadas (modeladas) por la ecuación de una
línea recta: 0 1 Y X ˆ = β β + 1 Cuando hay más de una variable explicativa (modelo de regresión
lineal múltiple), se utiliza un subíndice para cada una de ellas, por ejemplo, para el caso de dos
variables explicativas: 0 1 1 2 Yˆ = β β + X + β X2 Ejemplo de aplicación de un modelo de
regresión lineal simple a fin de modelar la distribución conjunta de las variables “Estrategias de
afrontamiento” y “Estrés”. En este ejemplo concreto.

Los dos parámetros de la ecuación de regresión lineal simple, β0 y β1, son conocidos como el
origen (también, constante) y la pendiente del modelo, respectivamente. En conjunto reciben el
nombre de coeficientes de la ecuación de regresión. Si la ecuación de la recta de regresión es
obtenida a partir de una muestra, y no de una población (esto es, los coeficientes de la ecuación
de regresión son estadísticos, y no parámetros), la ecuación se expresa como: 0 1 Y b ˆ = + b X1 •
Una vez que sean conocidos los valores de β0 y β1 del modelo de regresión lineal simple, éste
puede ser utilizado como modelo predictivo, esto es, para realizar predicciones de los valores que
tomará la variable de respuesta para determinados valores de la variable explicativa. Basta para
ello con sustituir en la ecuación de regresión el valor concreto de X que se quiera (Xi). Al hacerlo,
se obtendrá el valor predicho para Y según la ecuación de regresión para aquellos casos que en la
variable X tomen el valor Xi. Este valor es conocido de forma genérica como puntuación predicha,
siendo representado simbólicamente como ' Yi o ˆY

Relaciones deterministas vs. probabilísticas y error de predicción: El anterior ejemplo representa el


caso de una relación determinista (perfecta) entre X e Y, donde rXY = 1, en consecuencia, los
valores predichos Y ˆ a partir de X según el modelo de regresión coincidirán exactamente con los
valores observados en Y, no cometiéndose ningún error de predicción. Sin embargo, esta situación
es inusual en el ámbito de las ciencias sociales y de la salud, donde casi siempre nos encontramos
con relaciones entre variables no perfectas (rXY ≠ 1 o -1). En estos casos, cuando se utiliza la recta
de regresión para predecir el valor en Y a partir del valor en X de un determinado sujeto (Xi), es
probable que se cometa un error en la predicción realizada. A este error se le suele denominar
como error de predicción o residual (Ei) y queda definido, por tanto, como la diferencia entre el
verdadero valor de un sujeto en la variable Y (Yi ) y su valor predicho según la ecuación de
regresión ( ˆYi ): Ei Yi Yi = − ˆ De la expresión anterior se deriva que la puntuación observada de un
sujeto en Y se puede obtener sumando a la puntuación predicha el error de predicción o residual
para dicha puntuación, esto es: Yi = Yi + Ei

Analisis de series cronológicas


Se llama serie cronológica o temporal a aquella sucesión de observaciones en la que alguno de sus
caracteres se mide en unidades de tiempo. El tiempo como sabemos es una característica
cuantitativa y el resto de los caracteres de la serie pueden ser cualitativos o cuantitativos. Una
serie de tiempo o cronológica, trata una cantidad variable dependiente y como función del tiempo
t. Esto se escribe: y= F(t) Es decir, estudia el comportamiento de una variable y a lo largo del
tiempo t. Las unidades de tiempo más usadas son por lo general de un año, un trimestre, un mes,
etc. Se elegirán las más adecuadas para el estudio que trate de llevarse a cabo. Dentro de estas
unidades de tiempo, algunas tienen duración constante (horas, días, etc.), pero otras son variables
(meses, años, etc.). Este carácter variable puede influir en los resultados de algunos estudios, y
debe tenerse en cuenta al elegir las unidades de tiempo.

Una serie cronológica no es sino una variable dada en sucesivos intentes de tiempo y se le conoce
también con el nombre de serie de tiempo, serie histórica, serie cronológica, etc. Una serie
cronológica llamada también serie de tiempo o serie histórica de un conjunto de datos
recopilados, observados y registrados sistemáticamente en un tiempo determinado.
Se dice también que es la variable dada en sucesivos instantes de tiempo como la producción de
algodón en los últimos 10 años, las exportaciones anuales de los países de la región andina, las
ventas anuales en farmacias, laboratorios, supermercados, etc. Las principales aplicaciones de las
series cronológicas son las proyecciones (determinación de las tendencias); debe advertirse que
las proyecciones no son valores determinantes que tienen que ocurrir necesariamente en el
futuro, son valores estimados o esperados y estos resultados pueden variar dependiendo de varios
factores que de forma directa e indirecta participen en los resultados de una serie cronológica. Las
empresas industriales y comerciales deben de realizar un examen sobre la forma como la
producción y venta de sus artículos han sido afectados en el pasado por diferentes factores con el
objeto de hacer una estimación, diagnóstico o previsión para el futuro a fin de estar en
condiciones de trazar planes de desarrollo de la empresa. Gráficamente las series cronológicas se
representan haciendo uso de los ejes cartesianos, colocando la variable tiempo (ti) en el semi-eje
positivo de las abscisas y la variable (Yi) en el semi-eje positivo de las coordenadas.

Los elementos de una serie cronológica también coincide con el nombre de variaciones,
componentes, o movimiento característicos de una serie cronológica pueden dividirse en: -
Tendencia (T) - Variaciones estacionales (S) - Variaciones irregulares, fortuitas o accidentales -
Ciclos u oscilaciones

ca que se puede visualizar con facilidad a partir del gráfico poligonal de la serie. Hay series cuyos
valores poseen una “Tendencia ascendente o creciente”, en tanto hay otros cuyos valores poseen
una “Tendencia descendiente” y por último existen series que no son fáciles de advertir su
tendencia. El estudio de la tendencia es de suma importancia porque sirve para de terminar el
probable comportamiento de los datos en el futuro. La proyección de la serie cronológica
constituye el aspecto más importante para la planificación social, económica, educacional, etc. de
mediano y largo plazo. La tendencia se puede determinar por una expresión matemática, siendo
necesario proyectar la serie y así obtener valores estimados para el futuro, que puedan tener a su
vez un error o sesgo cuya, dimensión depende de la validez o significación de los datos de la serie,
del periodo elegido y del método utilizado para analizar la tendencia. Del método estadístico
elegido, depende el comportamiento de la variable en el tiempo. La tendencia de una serie se
puede determinar y estimar por dos métodos generales: el gráfico y el analítico.

Y=T+S+I+C

La serie cronológica que se puede visualizar con facilidad a partir del gráfico poligonal de la serie.
Hay series cuyos valores poseen una “Tendencia ascendente o creciente”, en tanto hay otros
cuyos valores poseen una “Tendencia descendiente” y por último existen series que no son fáciles
de advertir su tendencia. El estudio de la tendencia es de suma importancia porque sirve para
determinar el probable comportamiento de los datos en el futuro. La proyección de la serie
cronológica constituye el aspecto más importante para la planificación social, económica,
educacional, etc. de mediano y largo plazo. La tendencia se puede determinar por una expresión
matemática, siendo necesario proyectar la serie y así obtener valores estimados para el futuro,
que puedan tener a su vez un error o sesgo cuya, dimensión depende de la validez o significación
de los datos de la serie, del periodo elegido y del método utilizado para analizar la tendencia. Del
método estadístico elegido, depende el comportamiento de la variable en el tiempo. La tendencia
de una serie se puede determinar y estimar por dos métodos generales: el gráfico y el analítico.

Conclusión

La estadística resulta fundamental para conocer el comportamiento de ciertos eventos, por lo que
ha adquirido un papel clave en la investigación. Se usa como un valioso auxiliar y en los diferentes
campos del conocimiento y en las variadas ciencias. Es un lenguaje que permite comunicar
información basada en datos cuantitativos.

Es tan importante que casi no existe actividad humana en que no esté involucrada la Estadística.
Las decisiones más importantes de nuestra vida se toman con base en la aplicación de la
Estadística. Pongamos algunos ejemplos.

La estadística es de gran importancia en la investigación científica debido a que:


Permite una descripción más exacta.

Nos obliga a ser claros y exactos en nuestros procedimientos y en nuestro pensar.

Permite resumir los resultados de manera significativa y cómoda.

Nos permite deducir conclusiones generales.

También podría gustarte