Está en la página 1de 9

Universidad Popular Autónoma de Veracruz

Criminología y Criminalística

Sede Tihuatlán

TAREA:

Unidad II

ALUMNO:

Josefina Valencia Pérez

ASESOR SOLIDARIO:

Lic. Eusebio Díaz Hernández

UNIDAD DE APRENDIZAJE:

Estadística Delictiva
UNIDAD II: MODELOS ESTADÍSTICOS

2.1 Concepto de población y muestra

La población de un estudio estadístico es el conjunto de elementos objeto de estudio. Cada


elemento se denomina individuo. Cuando el número de individuos de la población es muy
grande, tomamos una parte de ésta, denominada muestra. La muestra es un subconjunto de
la población y tiene que ser representativa de la misma.

2.2 Recopilación, organización, presentación, análisis e interpretación de


datos numéricos

El PROCESO DE RECOLECCIÓN de datos estadísticos puede ser realizado a través de


fuentes primarias o secundarias. En las primeras, la persona o la institución ha recolectado
directamente los datos de la población. Mientras que en las segundas, los datos son
obtenidos de publicaciones y trabajos efectuados por otras personas o entidades que han
recolectado directamente la información.

Una vez recolectada la información de las diferente fuentes, se reúnen una gran cantidad de
datos, que a su vez requieren una organización a través de las clases o categorías que
determinan de manera más resumida y organizada la frecuencia y otros datos que permitirá
llega a interpretaciones posteriores. El ordenamiento se concreta por medio de la tabla de
distribución de frecuencias en clases.

Para realizar del PROCESO DE ORDENAMIENTO hay que seguir los siguientes pasos:

a. Ordenamiento: consiste en ordenar de manera ascendente o descendente los datos


numéricos recolectados de las unidades estadísticas.

b. Rol de frecuencia: una vez ordenados los datos se determina cuantas veces se repiten los
datos
c. Tabla de frecuencia: en este último paso, se realiza la tabla de discriminando las clases,
la frecuencia, las proporciones y los porcentajes de la información y a partir de ellos se
establecen las conclusiones del estudio.

El análisis de datos estadísticos es el proceso que nos permite interpretar los datos
numéricos que disponemos, con el objetivo de tomar las decisiones de negocio más
eficaces. De hecho,las empresas pueden tomar decisiones 5 veces más rápido que su
competencia si las basan en el análisis de datos.

Cada decisión que se quiera tomar en nuestras organizaciones debe estar basada en datos.
Esto significa que la estadística es una herramienta muy potente en nuestras manos. Por
ello, cerca del 81% de los directivos considera que sus decisiones deben estar basadas en
datos.

Existen muchas herramientas para el análisis de datos estadísticos, Excel es una de ellas.
Este software cuenta con funciones estadísticas que nos facilitan la gestión de los datos.

Etapas de análisis de datos estadísticos

El análisis de datos estadísticos es un proceso que se compone, principalmente, de 5 etapas


distintas:

 La recopilación de datos de la muestra seleccionada, provenientes de encuestas,


redes sociales, big data, business intelligence, entre otros.
 El procesado de los datos, que incluye su limpieza, filtrado, homogeneización.
 La presentación de los datos, sobre todo de forma gráfica.
 El análisis de los datos, que nos permite extraer conclusiones que valgan de forma
general a partir de los datos de la muestra.
 La interpretación de los datos, para detectar tendencias y patrones y predecir
escenarios futuros.

Antes de todo análisis de datos estadísticos hay que tener en cuenta el tipo de datos de que
disponemos. Así, unos datos cualitativos, provenientes de entrevistas, notas o documentos,
nos proporcionan respuestas categóricas ya que miden cualidades; por otro lado, los datos
cuantitativos nos proporcionan respuestas numéricas.

También es necesario tener en cuenta que la estadística se divide en dos ramas principales:
la estadística descriptiva o deductiva y la estadística inferencial, o inductiva. La primera es
útil a la hora de describir y representar los datos mediante técnicas numéricas y gráficas,
mientras que la segunda permite obtener conclusiones utilizando la teoría de
probabilidades.

Son muchas las técnicas de análisis de datos estadísticos a disposición, entre las cuales se
encuentran:

 El cálculo de la media aritmética entre valores y de la desviación estándar, para


medir su distribución desde la media.
 Visualización gráfica, mediante histogramas, gráficos circulares, barras, etc.
 Correlación, que mide si existe una relación entre variables diferentes.
 Regresión, mediante la cual se puede identificar si la evolución de una variable
afecta a otras.
 Series temporales, para predecir valores futuros analizando secuencias de valores
pasados.
 Data mining y otras técnicas de Big Data, para procesar grandes volúmenes de
datos.
 Análisis de sentimiento, para determinar la actitud de determinados agentes o
personas frente a un asunto, a menudo utilizando datos provenientes de redes
sociales.
 Análisis semántico, que permite extraer conocimiento de grandes cantidades de
textos.
 Test A/B, para determinar cuál entre dos variables funciona mejor con experimentos
aleatorios.
 Machine learning, análisis de datos mediante algoritmos de aprendizaje
automáticos, y permite excelentes rendimientos en presencia de big data.
2.3 Límites de las medidas de tendencia

Las medidas de tendencia central son medidas estadísticas que pretenden resumir en un
solo valor a un conjunto de valores. Representan un centro en torno al cual se encuentra
ubicado el conjunto de los datos. Las medidas de tendencia central más utilizadas son:
media, mediana y moda. Las medidas de dispersión en cambio miden el grado de dispersión
de los valores de la variable. Dicho en otros términos las medidas de dispersión pretenden
evaluar en qué medida los datos difieren entre sí. De esta forma, ambos tipos de medidas
usadas en conjunto permiten describir un conjunto de datos entregando información acerca
de su posición y su dispersión.

Los procedimientos para obtener las medidas estadísticas difieren levemente dependiendo
de la forma en que se encuentren los datos. Si los datos se encuentran ordenados en una
tabla estadística diremos que se encuentran “agrupados” y si los datos no están en una tabla
hablaremos de datos “no agrupados”.

Según este criterio, haremos primero el estudio de las medidas estadísticas para datos no
agrupados y luego para datos agrupados.

Medidas estadísticas en datos no agrupado

Medidas de tendencia central

Promedio o media

La medida de tendencia central más conocida y utilizada es la media aritmética o promedio


aritmético. Se representa por la letra griega µ cuando se trata del promedio del universo o
población y por Ȳ (léase Y barra) cuando se trata del promedio de la muestra. Es
importante destacar que µ es una cantidad fija mientras que el promedio de la muestra es
variable puesto que diferentes muestras extraídas de la misma población tienden a tener
diferentes medias. La media se expresa en la misma unidad que los datos originales:
centímetros, horas, gramos, etc.
Una propiedad interesante de la media aritmética es que la suma de las desviaciones es
cero.

Mediana

Otra medida de tendencia central es la mediana. La mediana es el valor de la variable que


ocupa la posición central, cuando los datos se disponen en orden de magnitud. Es decir, el
50% de las observaciones tiene valores iguales o inferiores a la mediana y el otro 50% tiene
valores iguales o superiores a la mediana.

Si el número de observaciones es par, la mediana corresponde al promedio de los dos


valores centrales. Por ejemplo, en la muestra 3, 9, 11, 15, la mediana es (9+11)/2=10.

Moda

La moda de una distribución se define como el valor de la variable que más se repite. En un
polígono de frecuencia la moda corresponde al valor de la variable que está bajo el punto
más alto del gráfico. Una muestra puede tener más de una moda.

Medidas de dispersión

Las medidas de dispersión entregan información sobre la variación de la variable.


Pretenden resumir en un solo valor la dispersión que tiene un conjunto de datos. Las
medidas de dispersión más utilizadas son: Rango de variación, Varianza, Desviación
estándar, Coeficiente de variación.

Rango de variación

Se define como la diferencia entre el mayor valor de la variable y el menor valor de la


variable.
2.4 Conceptos y elementos de la probabilidad

El término probabilidad proviene de lo probable, o sea, de aquello que es más posible que
ocurra, y se entiende como el mayor o menor grado de posibilidad de que un evento
aleatorio ocurra, expresado en una cifra entre 1 (posibilidad total) y 0 (imposibilidad
absoluta), o bien en porcentajes entre el 100% o el 0%, respectivamente.

Para obtener la probabilidad de un suceso, generalmente se determina la frecuencia con la


que ocurre (en experimentos aleatorios bajo condiciones estables), y se procede a realizar
cálculos teóricos.

Para ello se sigue lo establecido por la Teoría de la probabilidad, una rama de las
matemáticas dedicada al estudio de la probabilidad. Esta disciplina es largamente empleada
por otras ciencias naturales y sociales como disciplina auxiliar, ya que les permite manejar
escenarios posibles en base a generalizaciones.

El origen de la probabilidad reside en la necesidad del ser humano de anticiparse a los


hechos, y de predecir en cierta medida el futuro. Así, en su empeño por percibir patrones y
conexiones en la realidad, se enfrentó constantemente al azar, o sea, a lo que carece de
orden.

Las primeras consideraciones formales sobre esta materia provienen del siglo XVII,
específicamente de la correspondencia entre Pierre de Fermat y Blaise Pascal en 1654, o de
los estudios de Christiaan Huygens en 1657 y de la Kybeia de Juan Caramuel en 1649,
texto hoy en día perdid

Existen los siguientes tipos de probabilidad:

 Frecuencial. Aquella que determina la cantidad de veces que un fenómeno puede


ocurrir, considerando un número determinado de oportunidades, a través de la
experimentación.
 Matemática. Pertenece al ámbito de la aritmética, y aspira al cálculo en cifras de la
probabilidad de que determinados eventos aleatorios tengan lugar, a partir de la
lógica formal y no de su experimentación.
 Binomial. Aquella en la que se estudia el éxito o fracaso de un evento, o cualquier
otro tipo de escenario probable que tenga dos posibles resultados únicamente.
 Objetiva. Se denomina así a toda probabilidad en la que conocemos de antemano la
frecuencia de un evento, y simplemente se dan a conocer los casos probables de que
ocurra dicho evento.
 Subjetiva. Contrapuesta a la matemática, se sustenta en ciertas eventualidades que
permiten inferir la probabilidad de un evento, aunque alejada de una probabilidad
certera o calculable. De allí su subjetividad.
 Hipergeométrica. Aquella que se obtiene gracias a técnicas de muestreo, creando
grupos de eventos según su aparición.
 Lógica. La que posee como rasgo característico que establece la posibilidad de
ocurrencia de un hecho a partir de las leyes de la lógica inductiva.
 Condicionada. Aquella que se emplea para comprender la causalidad entre dos
hechos distintos, cuando puede determinarse la ocurrencia de uno tras la ocurrencia
del otro.

2.5 Interpretación de la estimación estadística

Estimar puede tener dos significados interesantes. Significa querer e inferir. Desde luego, el
primer significado es más trascendente. Pero no tiene ningún peso en la estadística,
disciplina que no se ocupa de los asuntos del amor. El segundo significado es el importante
aquí. Una estimación estadística es un proceso mediante el que establecemos qué valor
debe tener un parámetro según deducciones que realizamos a partir de estadísticos. En otras
palabras, estimar es establecer conclusiones sobre características poblacionales a partir de
resultados muestrales. Vamos a ver dos tipos de estimaciones: puntual y por intervalo. La
segunda es la más natural. Y verás que forma parte habitual de nuestro imaginario como
personas sin necesidad de una formación estadística. La primera, la estimación puntual, es
la más sencilla y, por ese motivo, vamos a comenzar por ella. Ocurre, además, que la
estimación por intervalo surge, poco más o menos, de construir un intervalo de posibles
valores alrededor de la estimación puntual. Una estimación puntual consiste en establecer
un valor concreto (es decir, un punto) para el parámetro. El valor que escogemos para decir
“el parámetro que nos preocupa vale X” es el que suministra un estadístico concreto. Como
ese estadístico sirve para hacer esa estimación, en lugar de estadístico suele llamársele
estimador. Así, por ejemplo, utilizamos el estadístico “media aritmética de la muestra”
como estimador del parámetro “media aritmética de la población”. Esto significa: si quieres
conocer cuál es el valor de la media en la población, estimaremos que es exactamente el
mismo que en la muestra que hemos manejado.

En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un


valor aproximado de un parámetro de una población a partir de los datos proporcionados
por una muestra. Por ejemplo, una estimación de la media de una determinada característica
de una población de tamaño N podría ser la media de esa misma característica para una
muestra de tamaño n.

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos
métodos que se usan en función de las características y propósitos del estudio:

-Estimación puntual:

 Método de los momentos;


 Método de la máxima verosimilitud;
 Método de los mínimos cuadrados;

-Estimación por intervalos.

-Estimación bayesiana.

También podría gustarte