Está en la página 1de 13

2.3.

Estadística aplicada a la función policial

2.3.1. Fundamentación histórica

Hace más de cien años, el escritor e historiador británico Wells dice que el
razonamiento cuantitativo algún día será tan importante como la capacidad de leer para
la gran mayoría de los ciudadanos. No mencionó las obras, porque la revolución
industrial acababa de comenzar. Sin embargo, Wells tenía razón. Si bien la experiencia
comercial, cierta previsión racional e intuición son rasgos esenciales de los gerentes
exitosos, los problemas comerciales actuales tienden a ser tan complejos que las
decisiones solo se pueden tomar en función de criterios. (Bencardino, 2006)

Antes que nada, entender que en general, la estadística policial constituye un


indicador absolutamente necesario para conocer el estado de la seguridad, pero debe ser
interpretado no únicamente combinado con otros instrumentos como, por ejemplo, las
encuestas de victimización o de seguridad, sino también con el conocimiento de las
decisiones organizativas de la policía, de los cambios legislativos que afectan a las
tipologías penal y de cualquier otro factor que pueda tener alguna influencia en los
registros policiales. Ya veremos a continuación información complementaria que nos
brindará una mejor compresión.

En un primer período de Alejandro M (nombre para el ejemplo) como ministro


del interior. En el momento de su llegada al ministerio, el año 2010, Alejandro M, lanza
un mensaje muy claro: la función de la policía no era ir por la calle hablando con la
gente ni ayudar a viejecitas en apuros (su interpretación de la policía de proximidad),
sino detener delincuentes y llevarlos ante la justicia. En coherencia con este
planteamiento, disminuyó hasta límites puramente simbólicos los recursos dedicados a
la Policía especializada en dicha situación, y dedicó más recursos a la investigación de
delitos. Esto implicó que hubiera menos efectivos de patrulla ordinaria por la calle y que
los horarios de recepción de denuncias disminuyeran. Dicho de otra manera, menos
efectivos a tareas de proximidad, más efectivos a investigación de delitos. ¿Cuál fue la
consecuencia estadística de estas decisiones? Los delitos registrados por la policía
disminuyeron y las tasas de resolución de delitos aumentaron. Obviamente los
ciudadanos tenían menos posibilidades para denuncia, cosa que implicaba que la
delincuencia “bajara” y, en cambio, la policía tenía más efectivos dedicados a la
investigación, cosa que implicaba que se pudieran resolver más casos (aunque si
simplemente se hubieran resuelto los mismos, al disminuir el número absoluto, la tasa
de resolución hubiera subido en todo caso). Este resultado confirmó la teoría oficial,
según la cual el gobierno precedente, había facilitado el aumento de la delincuencia por
su nefasta política de seguridad y, en cambio, la nueva política de firmeza contra la
delincuencia había dado los frutos esperados. (Quijano, 2021)

2.3.2. Fundamentación Teórica

2.3.2.1. Análisis de medidas de forma simetría y asimetría

Las medidas de forma permiten comprobar si una distribución de frecuencia


tiene características especiales como simetría, asimetría, nivel de concentración de datos
y nivel de apuntamiento que la clasifiquen en un tipo particular de distribución.
(Requena, 2022)

Las medidas de forma son necesarias para determinar el comportamiento de los


datos y así, poder adaptar herramientas para el análisis probabilístico.

En las distribuciones unimodales simétricas, es decir, que tienen una sola moda,
la media, la mediana y la moda coinciden. En cambio, en las distribuciones asimétricas,
la simetría se pierde y tanto la media como la mediana aparecen en posiciones distintas.
(Requena, 2022)

Cuando desaparece el nivel de simetría, surgen las asimetrías positivas y


negativas. Estas medidas permiten establecer el grado de asimetría que tiene una
distribución de probabilidad de una variable aleatoria. La asimetría se puede observar
fácilmente en un gráfico de campana.

Teniendo en cuenta como eje de referencia a la moda, el tipo se asimetría será


definido según el grado de dispersión de los datos a ambos lados, también llamados
“colas”.

En contexto, La asimetría es lo opuesto de la simetría. Como tal, podemos


definirla como la falta de correspondencia o equilibrio entre la forma, el tamaño y la
posición de las partes de un todo. Así, la asimetría se manifiesta como la carencia de
equivalencia entre los rasgos que configuran el aspecto de un objeto o figura. (Rumsy,
2013)
2.3.2.1.1. Coeficiente de asimetría:

Mide el grado de asimetría de la distribución con respecto a la media. Un valor


positivo de este indicador significa que la distribución se encuentra sesgada hacia la
izquierda (orientación positiva). Un resultado negativo significa que la distribución se
sesga a la derecha. (Peiro, 2022).

2.3.2.1.2. Fórmulas:

N 2
Σ i=1 (x i−x)
CA F = 3
N∗S x

Siendo x la media y S x la desviación típica

Cuando los datos están agrupados o agrupados en intervalos, la fórmula del


coeficiente de asimetría de Fisher se convierte en:

N 3
Σ i=1 ( x i−x) ∗ni
CA F = 3
N∗S x

Siendo x i uno de los datos o en datos agrupados en intervalos, la


marca de clase, x , la media ni , la frecuencia absoluta de x i o de cada
intervalo i y S x la desviación típica

Si CAF<0: la distribución tiene una asimetría negativa y se alarga a valores


menores que la media.

Si CAF=0: la distribución es simétrica.

Si CAF>0: la distribución tiene una asimetría positiva y se alarga a valores


mayores que la media.
2.3.2.2. Análisis de dispersión:

2.3.2.2.1. Dispersión:

Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de


arrojar un valor numérico que ofrezca información sobre el grado de variabilidad de una
variable.

En otras palabras, las medidas de dispersión son números que indican si una
variable se mueve mucho, poco, más o menos que otra. La razón de ser de este tipo de
medidas es conocer de manera resumida una característica de la variable estudiada. En
este sentido, deben acompañar a las medidas de tendencia central. Juntas, ofrecen
información de un sólo vistazo que luego podremos utilizar para comparar y, si fuera
preciso, tomar decisiones. (Universidad Nacional del Callao, 2022)

2.3.2.2.2. Varianza:

La varianza es una medida de dispersión que representa la variabilidad de una


serie de datos respecto a su media. Formalmente se calcula como la suma de los
residuos al cuadrado divididos entre el total de observaciones. (Universidad Nacional
del Callao, 2022). Su fórmula es la siguiente:

N 2
2Σ 1 ( x i− X)
σ =
N

X → Variable sobre la que se pretenden calcular la varianza

xi → Observación número i de la variable X. i puede tomará valores entre 1 y n.

N → Número de observaciones.

x̄ → Es la media de la variable X.
La desviación estándar es la raíz cuadrada positiva de la varianza.


N 2
Σ i=1( x i−μ)
σ =√ σ =
2
N

2.3.2.2.3. Desviación Estándar:

Se recomienda calcular primero la varianza de la población y luego sacar su raíz


cuadrada para obtener la desviación estándar. (Universidad Nacional del Callao, 2022)

Ten en cuenta que, si tienes una serie de valores de una población y necesitas
calcular su varianza y su desviación estándar, deberás calcular primero la media
poblacional µ con la siguiente fórmula:

N
Σ i=1 xi
μ=
N

2.3.2.3. Medidas de forma:

La asimetría es la medida que indica la simetría de la distribución de una


variable respecto a la media aritmética, sin necesidad de hacer la representación gráfica.
Los coeficientes de asimetría indican si hay el mismo número de elementos a izquierda
y derecha de la media. (Requena, 2022)

Existen tres tipos de curva de distribución según su asimetría:

Asimetría negativa: la cola de la distribución se alarga para valores inferiores a


la media.

Simétrica: hay el mismo número de elementos a izquierda y derecha de la media.


En este caso, coinciden la media, la mediana y la moda. La distribución se adapta a la
forma de la campana de Gauss, o distribución normal.

Asimetría positiva: la cola de la distribución se alarga (a la derecha) para valores


superiores a la media.

2.3.2.3.1. Fórmula:

N 3
Σ i=1 ( x i−x)
CA F = 3
N∗S x
2.3.2.3.2. Curtosis:

La curtosis (o apuntamiento) es una medida de forma que mide cuán escarpada o


achatada está una curva o distribución.

Este coeficiente indica la cantidad de datos que hay cercanos a la media, de


manera que a mayor grado de curtosis, más escarpada (o apuntada) será la forma de la
curva. (Requena, 2022)

La curtosis se mide promediando la cuarta potencia de la diferencia entre cada


elemento del conjunto y la media, dividido entre la desviación típica elevado también a
la cuarta potencia. (Carmen Trueba Salas, 2021). Sea el conjunto X=(x1, x2,…, xN),
entonces el coeficiente de curtosis será:

N 4
Σ i=1 ( xi −x) ∗ni
g2 = 4
N∗S x

ni la frecuencia absoluta de x i

En la fórmula se resta 3 porque es la curtosis de una distribución Normal.


Entonces la curtosis valdrá 0 para la Normal, tomándose a ésta como referencia.

Cuando los datos están agrupados o agrupados en intervalos, la fórmula


del coeficiente de curtosis se convierte en:

N 4
Σ i=1 ( X i−x) ∗n i
Exceso de curtosis= 4
−3
N∗S x

ni , frecuencia absoluta del dato x i


2.3.2.4. Diagrama de cajas

El diagrama de caja es un gráfico utilizado para representar una variable


cuantitativa (variable numérica). El gráfico es una herramienta que permite visualizar, a
través de los cuartiles, cómo es la distribución, su grado de asimetría, los valores
extremos, la posición de la mediana, etc. (Requena, 2022) . Se compone de:

Un rectángulo (caja) delimitado por el primer y tercer cuartil (Q1 y Q3). Dentro
de la caja una línea indica dónde se encuentra la mediana (segundo cuartil Q2)

Dos brazos, uno que empieza en el primer cuartil y acaba en el mínimo, y otro
que empieza en el tercer cuartil y acaba en el máximo.

Los datos atípicos (o valores extremos) que son los valores distintos que no
cumplen ciertos requisitos de heterogeneidad de los datos.

Para construir el diagrama de caja, debemos seguir los siguientes pasos:

- Ordenar los datos.


- Calcular los tres cuartiles (Q1, Q2 y Q3). Después, dibujamos el rectángulo
(caja) delimitado por el primer y tercer cuartil, dibujando entre los dos cuartiles
una línea para indicar donde está la mediana (segundo cuartil).
- Calcular el rango intercuartílico, que es el tercer cuartil menos el primero.

IQR=Q3 −Q1

- Se calculan los límites admisibles inferior y superior (LI y LS) para identificar


los valores extremos.

LI =Q1−1,5∗IQR

LS=Q3−1,5∗IQR

Los límites marcarán los datos atípicos de la variable. Todos aquellos puntos que
sean menores que LI (x < LI) o mayores que LS (x > LS) son valores extremos. Es
decir, son todos aquellos valores que no están en el intervalo [LI,LS].

El mínimo es el menor valor del conjunto que sea mayor o igual que LI.
El máximo es el mayor valor del conjunto que es menor o igual que LS. Dibujamos los
dos brazos. El primero va desde el primer cuartil hasta el mínimo. El segundo, desde el
tercer cuartil hasta el máximo.

Se dibujan los valores extremos, representados por puntos o círculos pequeños.

2.3.2.5. Distribución Ji cuadrado

La distribución Ji-cuadrado es una familia de distribuciones. Cada distribución


está definida por grados de libertad. (Los grados de libertad se discuten con más detalle
en las páginas de prueba de Conformidad e Independencia). La siguiente figura muestra
tres distribuciones de chi-cuadrado diferentes, con diferentes grados de libertad. Cuanto
mayor sea el número de grados de libertad para una distribución de Ji-cuadrado, más
similar será a una distribución normal. (Moya, 2009)

Para comenzar a hacer chi cuadrado en SPSS, lo primero que debes hacer es clic
en Analizar -> Estadística Descriptiva -> Cruces.

Esto hará que aparezca el diálogo de las tablas de contingencia donde verás tus
variables a la izquierda.

Importante:

En nuestro ejemplo, son dos variables, pero si tienes más, tendrás que identificar
las dos que quieres probar para la independencia.

El siguiente paso es poner una de estas variables en el cuadro de Fila, y la otra


en el cuadro de Columna (no importa qué variable vaya en cada uno).

Para hacer esto, puedes arrastrar y soltar, o usar las flechas, como arriba.
Una vez que tengas tus variables en sus cajas correctas, puedes configurar la
prueba de chi cuadrado presionando el botón de «Estadísticas» y seleccionando la
opción chi cuadrado en el diálogo que aparece.

Si también quieres una medida del tamaño del efecto, selecciona Phi y la V de
Cramer en el mismo cuadro de diálogo, y luego presiona Continuar, de lo contrario sólo
presiona Continuar.

El siguiente paso no es necesario, pero te recomendamos que lo lleves acabo.


Haz clic en el botón «Celdas» y luego, en «Recuentos», seleccione «Observado»
y «Esperado» (para que te dé valores observados y esperados cuando ejecute la prueba
de chi cuadrado).

Ahora pulsa en «Continuar» para salir del cuadro de diálogo.

Presiona «OK» para generar la estadística del chi cuadrado y la tabla de contingencia.

2.3.5.1. Cómo interpretar los resultados de chi cuadrado en SPSS

La página de resultados parece un poco complicada de entender, pero en


realidad no es tan difícil de «leer» como puede parecer a primera vista.

La estadística del chi cuadrado aparece en la columna de valores de la tabla de


pruebas de chi cuadrado inmediatamente a la derecha de «chi cuadrado Pearson».
(Zapata, 2021)

2.3.2.5.1. Valor de significancia

El nivel de significación, también denotado como alfa o α, es la probabilidad de


rechazar la hipótesis nula cuando es verdadera. Por ejemplo, un nivel de significación
de 0.05 indica un riesgo del 5% de concluir que existe una diferencia cuando no hay una
diferencia real. Los p-valores son la probabilidad de obtener un efecto al menos tan
extremo como el de los datos de la muestra, asumiendo la veracidad de la hipótesis nula.
(Gonzales, 2019)
2.3.2.6. Prueba de hipótesis:

Una prueba de hipótesis es una regla que especifica cuando se puede aceptar o
rechazar una afirmación sobre una población dependiendo de la evidencia
proporcionada por una muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es la afirmación que se está
comprobando. Normalmente la hipótesis nula es una afirmación de "sin efecto" o "sin
diferencia". La hipótesis alternativa es la afirmación que se desea ser capaz de concluir
que es verdadera basándose en la evidencia proporcionada por los datos de la muestra.

Basándose en los datos de la muestra, la prueba determina cuando rechazar la


hipótesis nula. Se utiliza un p-valor, para realizar esa determinación. Si el p-valor es
menos que el nivel de significación (conocido como α o alfa), entonces se puede
rechazar la hipótesis nula. (Dagnino, 2014)

2.3.2.6.1. Fórmulas:

- Ho: Hipótesis nula
- H1: Hipótesis alterna (de la cual se sospecha pudiera ser cierta, es planteada por
el investigador)

2.3.2.7. Correlación de variables:

La correlación es una medida de la relación (covariación) lineal entre dos


variables cuantitativas continuas (x, y). La manera más sencilla de saber si dos variables
están correlacionadas es determinar si co-varían (varían conjuntamente). Es importante
hacer notar que esta covariación no implica necesariamente causalidad, la correlación
puede ser fortuita. (Ramón, 2022)

Cov xy
P xy=
σxσ y
Bibliografía

Bencardino, C. M. (2006). Estadística y Muestreo. En C. M. Bencardino,


Estadíostica y muestreo. Estadística para la administración.
Carmen Trueba Salas, L. R. (2021). Capítulo 3. Medidas de forma y
concentración. Estadística 1, 9.

Dagnino, J. (2014). Inferencia Estadíostica: Prueba de Hipótesis. Revista


Chilena de Anestesia, 125-128.

Gonzales, J. (2 de abril de 2019). Addlink Software Científico. Obtenido de


https://www.addlink.es/noticias/minitab/2873-comprendamos-las-pruebas-de-hipotesis-
niveles-de-significacion-alfa-y-p-valores-en-estadistica#:~:text=El%20nivel%20de
%20significaci%C3%B3n%2C%20tambi%C3%A9n,no%20hay%20una%20diferencia
%20real.

Moya, R. (2009). Estadóistica descriptiva conceptos y aplicaciones. En R. Moya,


Estadóistica descriptiva conceptos y aplicaciones, 3ra edición. Lima: Ediciones San
Martín.

Peiro, A. (06 de 09 de 2022). economipedia. Obtenido de Coeficiente de


correlacion: https://economipedia.com/definiciones/coeficiente-de-correlacion-
lineal.html

Quijano, Y. T. (2021). Utilidad de las estadísticas en el ambito policial. En Y. T.


Quijano, Utilidad de las estadísticas en el ambito policial (pág. 20). Huanúco.

Ramón, G. (06 de 09 de 2022). UDEA. Obtenido de Correlación entre variables:


http://viref.udea.edu.co/contenido/menu_alterno/apuntes/ac36-correlacion-variables.pdf

Requena, B. (06 de 09 de 2022). Asimetria y Curtosis. Obtenido de Asimetr{ia y


Curtosis: https://www.universoformulas.com/estadistica/descriptiva/asimetria-curtosis/

Rumsy, D. (2013). Estadística para negocios y Economía. En D. Rumsy,


Estadística para Dummies (pág. 30). Anderson .

Universidad Nacional del Callao. (06 de 09 de 2022). unac.edu. Obtenido de


Desviación estándar:
https://unac.edu.pe/documentos/organizacion/vri/cdcitra/Informes_Finales_Investigacio
n/IF_JUNIO_2012/IF_CALDERON%20OTOYA_FCA/capitulo%206%20y%207.pdf

Zapata, L. V. (septiembre de 2021). Todospss. Obtenido de


https://todospss.com/chi-cuadrado-en-spss/

También podría gustarte