Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Evaluación de la Evidencia
para Expertos Forenses
Colin Aitken
Franco Taroni
Estadística y
Evaluación de la evidencia
para Expertos Forenses
Traducción por:
All Rights Reserved. Authorised translation from the English language edition published by John Wiley
& Sons Limited. Responsibility for the accuracy of the translation rests solely with Dykinson S.L. and
is not the responsibility of John Wiley & Sons Limited. No part of this book may be reproduced in any
form without the written permission of the original copyright holder, John Wiley & Sons Limited.
© Los autores
Madrid, 2010
NIPO: 126-09-090-9
ISBN: 978-84-9849-849-3
Preimpresión:
Besing Servicios Gráficos, S.L.
besing@terra.es
Índice Índice
PREFACIO ..................................................................................................... 17
CAPÍTULO 2 VARIACIÓN....................................................................... 77
2.1 Poblaciones ................................................................................ 77
2.2 Muestras y estimaciones ........................................................... 80
8 Índice
D.V. Lindley
Enero 2004
Prefacio a la Primera Edición Prefacio a la Primera Edición
C. G. G. Aitken y F. Taroni
Edimburgo y Lausana
Prefacio a la edición en español Prefacio a la edición en español
1.1 Introducción
población de referencia es también uno de los trabajos con los que se en-
frenta un científico forense. Se tratarán de distintos aspectos de este tema
en este libro.
Otro libro de texto que tiene 2 volúmenes es el de Gastwirth (1988a,b).
El libro trata de casos civiles y “está diseñado para introducir conceptos
estadísticos y su uso apropiado por juristas y agentes de seguros” (1988 a,
p, xvii). Hay dos áreas que sobresalen porque suele darse poca importancia
en la mayoría de los libros de texto sobre estadística. La primera se refiere
a medidas de desigualdad comparativa o relativa. Las consideramos im-
portantes porque muchos casos legales tienen relación con un tratamiento
imparcial o igualitario. La segunda área tiene que ver con la combinación
de resultados procedentes de diferentes estudios interrelacionados de ca-
rácter estadístico. Esto es importante porque si existen registros adminis-
trativos o estudios disponibles actualizados se utilizan a menudo para to-
mar decisiones legales o adoptar medidas políticas; no es posible en esos
casos abordar ulteriores investigaciones. Gastwirth (2000) ha editado tam-
bién una colección de ensayos sobre ciencia estadística para el ámbito de
la justicia, algunos de los cuales son directamente adecuados para este li-
bro y serán oportunamente citados.
Una colección de presentaciones en congresos sobre Estadística y
Gestión Pública ha sido editada por Fairley y Mosteller (1977). Hay un ca-
pítulo en el libro que menciona un caso particularmente desgraciado, el
caso Collins, que será discutido en detalle en la Sección 4.4. Otros artículos
se relacionan con gestión política y toma de decisiones.
El área cubierta por este libro no lo está por los citados anteriormente
en su mayor parte. El uso de la estadística en ciencia forense en general se
aborda en una colección de ensayos editados por Aitken y Stoney (1991).
El área cubierta por este libro es la descripción de procedimientos esta-
dísticos para la evaluación de la evidencia llevada a cabo por expertos fo-
renses. Se realizará preferentemente a través de la moderna aproximación
Bayesiana. Esta aproximación tiene su origen en los trabajos de I.J. Good
y A.M. Turing como criptoanalistas en Bletchley Park durante la II Guerra
Mundial. Existe una breve narración de esta historia en Good (1991). En
el ensayo de Good (1950) sobre la probabilidad y el peso de la evidencia, y
sobre la entropía (Shannon, 1948) —la esperada cantidad de información
dimanante de un experimento—, Good remarca que el peso esperado de
la evidencia a favor de la hipótesis H en relación a su complementario H
(leído como “H-barra”) es igual a la diferencia de las entropías asumiendo
H y H respectivamente. Se ofrece una breve discusión sobre una aproxi-
mación frecuentista y los problemas asociados con ella en la sección 4.6.
La estadística y la ley 37
1
Nota del traductor: El término evidencia tiene gran diversidad de acepciones. Eti-
mológicamente, este término se relaciona con el sentido de la vista. Se dice que un objeto
está en evidencia o que es evidente cuando es visible a la primera ojeada. El término se
extendió a todos los sentidos y, también, por analogía, a la inteligencia. A diferencia de la
verdad, que es una propiedad de un juicio (también llamado proposición por los expertos en
lógica), y de la certeza, que es un estado de la inteligencia respecto de la verdad —no puede
confundirse con la verdad porque existen certezas erróneas—, la evidencia es una propie-
dad del objeto en estudio. Como antes hemos dicho, es el objeto el que está en evidencia
o es evidente. Esto no es óbice para que podamos hablar de juicios o verdades evidentes
porque cuando hablamos así consideramos esas verdades o juicios en cuanto a su materia
o contenido, en definitiva, como objetos, en este caso inmateriales.
Filosóficamente, evidencia es la claridad con la que un objeto (material o inmaterial)
aparece a una facultad de conocimiento (sentido, conciencia o inteligencia) obligando a
esa facultad a emitir un juicio. Una forma de entender la evidencia muy didáctica es dife-
renciarla de términos semejantes que se caracterizan por ser grados de claridad inferiores a
la evidencia. Por ejemplo, podemos distinguirla de lo posible o de lo probable. Lo posible es
aquello que puede ser. Renunciamos a decir que algo va a ocurrir alguna vez porque puede
ser que no ocurra nunca. Equivale a reservar el juicio, a quedarnos en la duda. Lo probable
está relacionado con una opinión. La probabilidad es la herramienta más común para me-
dir la incertidumbre sobre la ocurrencia de un suceso.
El término inglés “evidence” alcanza acepciones inexistentes en el equivalente término
español. Una de esas acepciones de la palabra inglesa es que se refiere a alguna cosa, como
un hecho, un signo o un objeto, que aporta pruebas o razones para creer o estar de acuer-
do con algo que se investiga o se discute. Dada la influencia de la cultura anglosajona en
las ciencias, sus acepciones han sido incorporadas al término español equivalente en los
ámbitos profesionales especializados. Por tanto, con esa acepción se identifica en crimina-
lística la evidencia con una muestra o un vestigio recogido en la escena del crimen. Recibe,
pues, el nombre de evidencia el propio objeto material recogido en una inspección ocular
realizada por la policía. Un significado más específico lo encontramos cuando se habla de
La incertidumbre en la ciencia forense 39
Los científicos y los juristas tienen que abandonar la idea de que pueda
existir certeza absoluta en un proceso de identificación de forma comple-
tamente objetiva. Si se acepta que nada es absolutamente cierto, entonces
se ve lógico que se determine el grado de confianza que puede tenerse so-
bre una particular creencia (Kirk y Kingston, 1964).
Existen varias clases de problemas con respecto a la variación aleatoria
que está naturalmente asociada con las observaciones científicas. También
respecto a la definición de la adecuada población de referencia cuando se
manejan conceptos de rareza o normalidad, y también con la elección de
una medida del valor de la evidencia.
El efecto de la variación aleatoria puede abordarse con el uso apropiado
de ideas estadísticas y probabilísticas. Hay variabilidad asociada con las
observaciones científicas. La variabilidad es un fenómeno que ocurre en
muchas ocasiones. La gente nace con distinto sexo, cuya naturaleza se de-
termina en la concepción. La gente tiene distinta altura, peso y habilidades
intelectuales, por ejemplo. La variación en altura y peso es dependiente
del sexo. En general, las mujeres tienden a ser más ligeras y bajas que los
hombres. Sin embargo, la variación es tal que puede haber mujeres altas
y de mucho peso, así como hombres bajos y de poco peso. En el momento
de nacer, es incierto cómo será de alto y pesado el bebé cuando llegue a ser
adulto. Sin embargo, en el nacimiento, se conoce si el bebé es niño o niña.
Ese conocimiento afecta a la incertidumbre asociada con las predicciones
de altura y peso cuando sea adulto.
La gente pertenece a diferentes grupos sanguíneos. El grupo sanguí-
neo al que pertenece una persona no depende ni de la edad ni del sexo,
pero depende de la etnia a la que pertenece. El índice de refracción de
un cristal varía dentro de una ventana y de unas ventanas a otras. La ob-
servación de un cristal como procedente de una ventana o de una botella
afectará a la incertidumbre asociada a la predicción de su índice de re-
1 130
1 – (1 − ) = 0.12
1024
Nota del traductor:
Probabilidad (cara) = ½
→ Cada tirada supone
Probabilidad (cruz) = ½
término cognation (Kind, 1994) que está ligado al nombre cognate, cuyo
significado es algo o alguien relacionado con otro algo o alguien en su
origen; también cabe el hecho de compartir cualidades. Como ejemplo,
se suele emplear la relación entre palabras de dos idiomas distintos con
un origen etimológico común.
El uso de estas ideas en ciencia forense se comprende mejor a través del
estudio de algunos ejemplos. En la Sección 8.5 se tratará sobre las pobla-
ciones de referencia, es decir, poblaciones de donde se piensa que pudiera
proceder el autor del vestigio relacionado con la comisión de un hecho de-
lictivo.
El valor de la evidencia se mide mediante un estadístico denominado
razón de verosimilitud, y su logaritmo. De ello se hablará en las Secciones
3.4 y 3.5.
Genotipo AA BB AB
Frecuencia (%) 18,8 32,1 49,1
(0.188) + (0.321)
2 2
↓
Unión de sucesos disjuntos ⇒ suma de probabilidades
“Coincidencias en genotipos: AA o BB”
(0.321)
2
= 0.103 (ver Sección 4.5).
La incertidumbre en la ciencia forense 45
Aún no está muy seguro de lo que significa pero siente que es más signi-
ficativa esa probabilidad que la anteriormente calculada puesto que ahora
ha tenido en cuenta el genotipo coincidente entre el sospechoso y la man-
cha de sangre en la escena del crimen.
El genotipo de la mancha de sangre en la escena del crimen para el mar-
cador LDLR es BB. El genotipo del sospechoso para el mismo marcador es
también BB (si no lo fuera, no sería el sospechoso). ¿Qué valor tiene esta
evidencia? La discusión anterior sugiere varias respuestas posibles:
1. La probabilidad de que dos personas elegidas al azar tengan el mis-
mo genotipo para el marcador LDLR es 0.379.
2. La probabilidad de que dos personas elegidas al azar tengan el mis-
mo pre-especificado genotipo (BB) para el mismo marcador LDLR
es 0.103.
3. La probabilidad de que una persona elegida al azar tenga el mismo
genotipo que la mancha de sangre de la escena del crimen, siendo
ésta del grupo BB, es 0.321 (Tabla 1.1).
Las palabras “aleatoria” o “al azar” referidas a la selección de personas
incluyen la advertencia de que no estén emparentadas con el sospechoso.
En la Sección 4.5 se trata de lo relativo a los puntos 1 y 2. En la Sección
9.2 lo relativo al punto 3.
1.3.3 Fragmentos de cristal
1.4 Terminología
tipo, que ha sido recibida y que tiene una forma particular, se llama receptora
o partícula transferida. Estos fragmentos (o sus mediciones) de cristal serán,
pues, fragmentos receptores o partículas transferidas. Sus orígenes se desco-
nocen. Han sido “recibidos” por el sospechoso desde algún lugar. Son partí-
culas que han sido transferidas al sospechoso desde alguna parte. Pudieran
venir de la ventana de la escena del crimen, aunque no necesariamente.
Habrá también ocasión de referirnos al lugar en el cual, o a la persona
en la cual, la evidencia fue hallada. La evidencia encontrada en la escena
del crimen se llama evidencia del crimen. La encontrada en la ropa del sos-
pechoso o en el entorno natural del sospechoso, como puede ser su casa,
se llama evidencia del sospechoso. ¡Obsérvese que esto no significa que la
evidencia, por sí misma, sea de naturaleza sospechosa!
El principio de Locard (ver Sección 1.1) dice que cada contacto deja una
traza.
En los ejemplos anteriores el contacto se produce entre el criminal y la
escena del crimen. En el ejemplo 1.1, la traza es la mancha de sangre en la
escena del crimen. En el ejemplo 1.2, la traza son los fragmentos de cristal
que serían removidos desde la escena del crimen por el criminal (y, más
tarde, se esperaría que fueran encontrados en la ropa del criminal).
La evidencia, en ambos ejemplos, es evidencia de transferencia (ver
Sección 1.1) o, en ocasiones, evidencia de traza. Se ha transferido material
entre el criminal y la escena del crimen. En el ejemplo 1.1, la sangre ha
sido transferida desde el criminal a la escena del crimen. En el ejemplo 1.2
los fragmentos pueden haber sido transferidos desde la escena del crimen al
criminal. La dirección de la transferencia en estos dos ejemplos es diferen-
te. También, en el primer ejemplo la sangre en la escena del crimen ha sido
identificada como procedente del criminal. Se sabe que la transferencia
tuvo lugar. En el segundo ejemplo no se sabe si el cristal ha sido transferi-
do desde la escena del crimen al criminal. El sospechoso tiene fragmentos
en sus ropas pero no necesariamente provienen de la escena del crimen.
Ciertamente, si el sospechoso es inocente y no tiene conexión con la escena
del crimen, los fragmentos no vendrán de allí.
Algunos han sugerido otra terminología, y esas sugerencias proporcio-
nan una fuente potencial de confusión. Por ejemplo, el término control se
ha utilizado para designar al material de origen conocido. Esto puede ser
tanto la forma originaria del material (fuente) como la forma de partícula
transferida. De igual modo, el término recuperado se ha utilizado para in-
dicar el material de origen desconocido. De nuevo, esto puede ser tanto la
forma originaria (fuente) o la forma de partícula transferida, dependiendo
de cuál haya sido la designación de forma de control.
Terminología 51
1.5 Tipos de datos
1.6 Probabilidad
1.6.1 Introducción
ferida del material) encontrados sobre la ropa del sospechoso, y M sería los
dos conjuntos de fragmentos.
Cualidades (como los genotipos) o medidas (como los índices de refrac-
ción de fragmentos de cristal) son las observaciones que podemos obte-
ner de M. Se realizan comparaciones entre la forma fuente y la receptora.
Denotemos esas formas por Ec y Es, respectivamente, y llamemos E = (Ec,
Es) al conjunto de ambas. La valoración de la comparación entre las for-
mas Ec y Es va a ser ahora nuestro objetivo, intentando cuantificarla. La
totalidad de la evidencia se representa por Ev = (M, E).
Uno de los temas principales de la estadística es la cuantificación de
la valoración de comparaciones. La eficiencia de un nuevo tratamiento,
medicamento o fertilizante se ha de comparar con el tradicional y anterior
tratamiento, medicamento o fertilizante, por ejemplo. Parece natural que
los estadísticos y los expertos forenses caminen en esto de la mano. Dos
muestras, la del lugar del crimen y la del sospechoso, se tienen que compa-
rar. Sin embargo, aparte de los ejemplos del Capítulo 4, sólo recientemente
ha ocurrido lo que se acaba de comentar.
Como se dijo en la Sección 1.2, han aparecido libros sobre el papel de
la estadística en la Justicia. Hasta la primera edición de este libro no exis-
tía ninguno sobre estadística y evaluación científica de la evidencia. Hay
dos factores que pueden haber sido responsables de esto. Primeramente,
había una clara falta de datos adecuados como poblaciones de referencia.
Existía una consecuente inexistencia de referencia contra la que medir la
tipicalidad de cualquier característica de interés. Como excepción citamos
los datos de referencia disponibles durante muchos años sobre frecuencias
de grupos sanguíneos en ciertas poblaciones. No solamente ha sido posible
decir que el grupo sanguíneo del sospechoso coincidía con el de la mancha
encontrada en la escena del crimen, sino también que ese grupo estaba
presente, digamos, en el 0.01% de la población.
En nuestros días, los grupos sanguíneos han sido suplantados por bases
de datos de perfiles de ADN.
También existen colecciones de datos sobre índices de refracción de
fragmentos de cristal encontrados aleatoriamente en ropa, así como sobre
parámetros de transferencia y persistencia unidos a la evidencia de cristal
(Curran y otros, 2000). También se han publicado contribuciones para es-
timar las frecuencias de tipos de fibras (Grieve y Biermann, 1997; Grieve,
2000a,b; Grieve y otros, 2001). Hay también mucha información sobre la
frecuencia de características en perfiles de ADN. En las revistas “Forensic
Science International” y “Journal of Forensic Sciences” se anuncian datos
poblacionales de forma regular.
Probabilidad 55
En segundo lugar, la forma en que los expertos forenses realizan las va-
loraciones de las evidencias ha sido difícil de modelar. La metodología ha
consistido en realizar una comparación y emplear el contraste de hipóte-
sis. Se comparan características de las muestras halladas en la escena del
crimen y en el sospechoso. Si tras el examen los científicos creen que son
similares, la tipicidad y, por consiguiente, la significancia de la similitud de
las características, se ha de valorar posteriormente. Este método es el que
ha sido modelado por el de dos etapas de Evett (1977), descrito brevemente
en la Sección 1.3.3 y, en mayor detalle, en el Capítulo 4. Sin embargo, la
interpretación de los resultados obtenidos con esta metodología es difícil.
Mas tarde, en un trabajo ya clásico, Lindley (1977a) describió un mé-
todo fácil de justificar, implementar e interpretar. Combinó las dos par-
tes del método de las dos etapas en un estadístico, que se estudiará en
detalle en la Sección 10.2. El método compara dos probabilidades, la
probabilidad de la evidencia asumiendo como cierta una proposición
relacionada con el sospechoso (que es culpable, por ejemplo), y la pro-
babilidad de la evidencia, asumiendo otra proposición relacionada con
el sospechoso como cierta (por ejemplo, que es inocente). (Observación:
algunos utilizan el término hipótesis en lugar de proposición; los autores
encarecen usar el término proposición pues creen que se reduce el ries-
go de confusión con los contrastes de hipótesis asociados con el térmi-
no “hipótesis”). Este método implica que no es suficiente que el Fiscal
demuestre que la evidencia es improbable si el sospechoso es inocente.
La evidencia tiene que ser más probable si el sospechoso es culpable.
Este método tuvo relevantes antecedentes históricos (Good, 1950; ver
también Good, 1991, para una análisis crítico) aunque se prestó muy
poca atención en la literatura científica forense, incluso aunque fue cla-
ramente propuesto a comienzos del siglo XX (Taroni y otros, 1998). Es
también capaz de desarrollarse más allá del particular ejemplo tratado
por Lindley, como podrá verse a lo largo de este libro, por ejemplo en la
Sección 10.4.
Sin embargo, para abordar el tema es necesario tener alguna idea sobre
cómo medir la incertidumbre. Esto se realiza del mejor modo a través de la
probabilidad (Lindley, 1991, 1998).
1.6.3 Sucesos
1.6.4 Probabilidad subjetiva
1.6.5 Leyes de probabilidad
Hay algunas leyes de probabilidad que describen los valores que la pro-
babilidad puede tomar y cómo se pueden combinar las probabilidades.
Estas leyes se van a describir aquí, primeramente sobre sucesos no condi-
cionados por ninguna otra información, y después para sucesos condicio-
nados. La primera ley de la probabilidad ya ha sido sugerida implícitamen-
te en el contexto de las proporciones.
1ª Ley de probabilidad.- La probabilidad puede tomar cualquier valor
entre 0 y 1, ambos inclusive, y sólo esos valores. Sea R cualquier suceso
y Pr(R) la probabilidad de que ocurra. Entonces: 0 ≤ Pr(R) ≤ 1. Para un
suceso imposible, su probabilidad es cero. De este modo, si R es imposible
Pr(R) = 0. Esta ley se conoce como la regla de convexidad (Lindley,1991).
Consideremos el ejemplo hipotético de las bolas en la urna, siendo b la
proporción de negras y w la de blancas, sin que haya ningún otro color, de
modo que b + w = 1. Las proporciones van de 0 a 1; por consiguiente: 0 ≤ b
≤ 1, 0 ≤ w ≤ 1. Para cualquier suceso R, 0 ≤ Pr(R) ≤ 1. Consideremos B, ha-
ber sacado una bola negra. Si este suceso es imposible, no hay bolas negras
en la urna y b = 0. Esta ley a veces se enuncia diciendo que la probabilidad
puede solamente ser 0 cuando el suceso asociado sea imposible.
0 ≤ Pr(R | I) ≤ 1. (1.4)
Duffy
Kell Total
+ –
+ 34 26 60
– 36 4 40
Total 70 30 100
Pr(R) = Pr(R ∩ S1) + Pr(R ∩ S2) = Pr(R | S1) Pr(S1) + Pr(R | S2) Pr(S2)
Probabilidad 71
Pr(R | M) = (1 x p) + (1 / 2) (1 – p) = (1 + p) / 2
Pr(G) = Pr(G | Ca) Pr(Ca) + Pr(G | Ma) Pr(Ma) + Pr(G | Pa) Pr(Pa) =
1.6.8 Actualización de probabilidades
Ejemplo 1.4:
a) Consideremos 4 eventos: S1, ..., S4. S1 es que la superficie de Lituania
no supera los 50.000 Km2; S2 es que la superficie de Lituania su-
pera los 50.000 pero no los 75.000 Km2; S3 es que la superficie de
Lituania supera los 75.000 pero no los 100.000 Km2; y S4 es que su-
pera los 100.000 Km2. Asignamos probabilidades a esos eventos.
Recordemos que estos cuatro sucesos son mutuamente excluyentes
y exhaustivos y que las cuatro probabilidades deben sumar 1.
¿Qué suceso es, para nosotros, el más probable? ¿Y qué probabili-
dad le otorgamos? ¿Qué suceso es, para nosotros, el menos proba-
ble? ¿Y qué probabilidad le otorgamos?
b) Ahora nos informan que Lituania es el país que ocupa el lugar nº 25
en extensión en Europa (excluyendo Rusia). Con esta información
reconsideramos las probabilidades anteriormente calculadas.
c) Nos dicen que Estonia, país nº 30 en extensión en Europa (exclu-
yendo Rusia) tiene una superficie de 45.000 Km2. Nuevamente re-
consideramos las probabilidades calculadas.
74 La incertidumbre en la Ciencia Forense
Ejemplo 1.5:
a) Formamos parte de un Jurado. El juicio está listo para empezar
pero no hay evidencias. Consideramos estos dos sucesos: S1 = “el
imputado es culpable”; S2 = “el imputado es inocente”. ¿Qué proba-
bilidades otorgamos a esos sucesos?
b) El imputado es un varón alto, de raza caucásica. Un testigo ocular
dice que vio a un varón alto, de raza caucásica, corriendo por el lu-
gar del crimen. ¿Qué probabilidades otorgamos a esos sucesos?
c) Se identificó una mancha de sangre en el lugar del crimen como
procedente del imputado. Se obtiene un perfil de ADN del imputa-
do, con una proporción de un 2% en la población caucásica local.
¿Qué probabilidades otorgamos a esos sucesos?
d) Se rompió un cristal durante la comisión del crimen. Se encontra-
ron fragmentos de cristal en la ropa del imputado con un índice de
refracción similar al de la ventana del crimen. ¿Qué probabilidades
otorgamos a esos sucesos?
e) El imputado trabaja en obras de demolición cerca de la escena del
crimen. Las ventanas en el lugar de la demolición tienen índices de
refracción similares a la ventana del lugar del crimen. ¿Qué proba-
bilidades otorgamos a esos sucesos?
Este ejemplo ha sido diseñado para imitar la presentación de evidencias
en un Tribunal.
La parte (a) se refiere a disponer de una probabilidad a priori sobre la
culpabilidad o inocencia del imputado antes de la presentación de cual-
quier evidencia. Se puede considerar como una cuestión concerniente a la
presunción de inocencia. Consúltese la Sección 3.5.5 para profundizar en
este asunto, particularmente sobre el problema lógico que ocurre cuando a
la probabilidad de culpabilidad a priori se le asigna el valor cero.
La parte (b) tiene dos partes. Primeramente el valor de la similitud en
características físicas entre el imputado y la persona vista corriendo por el
lugar del crimen, asumiendo, claro está, que el testigo es fiable. En segun-
do término, se valora la fiabilidad del testigo ocular.
La parte (c) se necesita para comprobar si el imputado tiene el mismo
perfil de ADN. No se plantea si lo tiene, sino que en el caso de que no lo tu-
viera, nunca debería haber sido imputado. En segundo lugar, ¿es la pobla-
Probabilidad 75
2.1 Poblaciones
2.2 Muestras y estimaciones
2.3 Cuentas
2.3.1 Probabilidades
x 4− x
4 1 5
Pr(X = x ) = , x = 0,1,.....4;
x 6 6
Número de
0 1 2 3 4 Total
seises (x)
Ahora:
4 = 4! = 4 × 3 × 2 × 1 = 4,
1
1!3! 1 × 3 × 2 × 1
1
1 1
= ,
6 6
3
5 125
= ,
6 216
1 125
Pr(X = 1) = 4 × × = 0.3858.
6 216
Cuentas 85
2.3.2 Medidas resumen
4
E(X) = 0 × Pr(X=0) + 1 × Pr(X=1) + ... + 4 × Pr(X=4) = ∑ x Pr(X=x).
x =0
4
Si hacemos que Pr(X=x) = px, entonces: E(X) = ∑ x px.
x =0
En general, para (n + 1) resultados {0, 1, ..., n} asociados con las proba-
n
bilidades p0, p1, ... pn, E(X) = ∑ x px.
x =0
Obsérvese el uso de la letra griega mayúscula Σ para denotar sumatorio.
La expresión que se encuentra debajo de Σ (cuando exista) o como un su-
86 Variación
x 0 1 2 3 4
d –0.6666 0.3334 1.3334 2.3334 3.3334
d2 0.4444 0.1112 1.7780 5.4448 11.1116
px 0.4823 0.3858 0.1157 0.0154 0.0008
x2
0 1 4 9 16
Var(X) = ∑ {x – E(X)}
x =0
2
px = ∑d
x =0
2
px = 0.5557
Cuentas 87
Var(X) = ∑
x =0
x2 px – ( ∑xp)
x =0
x
2
= 1 – (0.6666)2 = 0.5556
2.3.3 Distribución binomial
n!
donde n = , es el coeficiente binomial. (2.2)
x x! (n − x )!
La distribución de X se puede expresar, resumidamente, de la siguiente
forma:
X ∼ Bin(n,p)
X ∼ Bin(10, 1/6).
2.3.4 Distribución multinomial
2.3.5 Distribución hipergeométrica
R N − R N
Pr(X=x) = /
x m − x m
Cuentas 91
2.3.6 Distribución de Poisson
(λt ) x (2.4)
Pr(X = x ) = exp(−λt )
x!
donde x puede tomar valores de 0, 1, 2 … y exp{…} significa e, la base de los
logaritmos neperianos o naturales (donde e = 2.718…), y exp(–λt) se expresa
mediante e–λt. La ecuación anterior (2.4) se puede también escribir así:
( λ t ) x ( − λt )
Pr(X = x ) = e (2.5)
x!
Valor Probabilidad
0 0.018
1 0.073
2 0.147
3 0.195
4 0.195
>4 0.372
2.3.7 Distribución Beta-binomial
n
Γ(m + α + β) Γ( y + z + α)Γ(m + n − z − y + β)
Pr(Y = y | m, n, z, α, β) = y (2.7)
Γ ( z + α ) Γ ( m − z + β) Γ ( m + n + α + β)
donde y = 0,1, ..., n;
Γ(x+1) = x!, para x > 0; Γ(1 / 2) = √π, siendo Γ la función gamma (2.8)
∏ Γ( z i + α i )Γ ( m + n + ∑ α i )
i =1 i =1
2.4 Medidas
2.4.1 Estadísticos resumen
n n
s =
2
∑x
i =1
2
i
−( ∑x )
i =1
i
2
/ n /(n − 1)
(2.12)
x1 x2 x3 x4 x5
17.767 18.633 19.067 19.300 19.933
Medidas 99
n
xi
Entonces: x=∑ = 94.700 / 5 = 18.9400
i =1 n
Aplicando (2.12):
n 2 n 2
∑ xi − ∑ xi
i =1 i =1
n
s2 = =
(n − 1)
(1796.220 − 94.700 2 / 5) / 4 = 0.6505,
2.4.2 Distribución normal
f(x / θ, σ2) = (1 / 2 2
) exp {– (x – θ)2 / 2 σ2} (2.13)
X ~ N(θ, σ2)
Z = (X – θ) / σ
f(0.85 / 0.7, 0.005) = (1 / 0.01π ) exp { – (0.85 – 0.7)2 / 0.01}= 0.60 (2.15)
(ver Figura 2.1, líneas discontinuas)
z Φ(z) 1 – Φ(z)
1.6449 0.950 0.050
1.9600 0.975 0.025
2.3263 0.990 0.010
2.5758 0.995 0.005
De este modo:
del que se dice que es un intervalo de confianza del 100(1 – α)% para θ.
Por ejemplo, si α = 0.05, el intervalo de confianza del 95% para θ es:
(x – 1.96σ, x + 1.96σ),
X ~ N(nθ, nθ (1 – θ))
106 Variación
Y ~ N(λ, λ/n).
2.4.3 Distribución t-student
X−θ
Z= (2.20)
S/ n
Este nuevo estadístico no tiene una distribución Normal estándar. Se
trata de la relación entre dos variables: X y S. A esta distribución se le co-
noce como t-Student y al correspondiente estadístico como el estadístico t
(‘Student’ es el pseudónimo de W.S. Gosset, 1876-1937). La distribución es
simétrica respecto al cero.
La incertidumbre extra introducida al reemplazar σ por s, lleva a la dis-
tribución t-Student a tener una dispersión mayor que la Normal estanda-
rizada. También, la distribución depende del tamaño de la muestra n. En
particular, si la desviación estándar muestral s se estima a partir de una
muestra de tamaño n para usarla en el estadístico Z (2.20), entonces el
valor n – 1 se conoce como grados de libertad asociados al estadístico t. Los
grados de libertad vienen determinados por el denominador de la expre-
sión (2.11) utilizada para alcanzar el valor de s:
n
(x i − x)2
s2 = ∑
i =1 n −1
2.4.4 Distribución Beta
θ α −1 (1 − θ) β −1
Be(α, β) = f (θ | α, β) = , con 0 < θ < 1, (2.21)
B(α, β)
1 θ α −1 (n − θ) β −1
f (θ | α, β, n ) = ,0<θ<n (2.22)
B(α, β) n α +β −1
2.4.5 Distribución de Dirichlet
ción según sus categorías respectivas. Para realizar inferencias sobre {θi}
se necesita de una distribución de probabilidad para {θi} que represente
la variabilidad de {θi}. Esa variabilidad puede ser incierta sobre el conoci-
miento de los valores exactos de {θi}, incertidumbre basada en que el lote es
considerado como una muestra aleatoria de una superpoblación. La distri-
bución de Dirichlet es la más común para {θi; i = 1, ..., k}, con una función
de densidad de probabilidad:
θ α1 −1 ...θ α k −1
f (θ1 ,..., θ k | α 1 ,..., α k ) = 1 k
,
B(α 1 ,..., α k )
Γ(α 1 )...Γ(α k )
donde la función Beta es B(α 1 ,..., α k ) = .
Γ(α 1 + ... + α k )
La media de θi, E(θi), es αi / Σi=1kαi, y la varianza de θi es E(θi) (1 – E(θi))
/ (1 + Σi=1kαi). El conjunto {θi} suma 1, así pues están correlados. La cova-
rianza Cov(θi,θj), i≠j, entre θi y θj viene dada por – E(θi) E(θj) / (1 + Σi=1kαi).
Obsérvese que es negativa; dado el valor de θi, el rango de valores para θj se
reduce de (0,1) a (0, 1 – θi).
La distribución Dirichlet se caracteriza por k parámetros: {α1, α2,..., αk}.
Esos parámetros pueden tener unos valores a priori, elegidos de forma
subjetiva, que representen las creencias a priori de los científicos antes de
inspeccionar las proporciones de droga de cada categoría en el lote (consi-
derado como una muestra aleatoria de una superpoblación).
Consideremos una prueba de un único marcador de ADN. Sean (X1, X2)
las frecuencias muestrales de las dos bandas del marcador encontradas en
la escena del crimen. El tamaño muestral de donde tomamos X1 y X2 es n.
Sea X3 = n – X1 – X2. Las frecuencias relativas de la población correspon-
diente son θ1, θ2 y θ3, donde Σi=13θi = 1. La distribución Dirichlet proporciona
una distribución a priori conveniente para {θi}, con tres categorías (k=3).
En Balding (1995) podemos encontrar más detalles relacionados con los
ejemplos citados, así como inferencias realizadas a partir de los marcado-
res encontrados en la escena del crimen. En Leonard y Hsu (1999, páginas
195-196) podemos encontrar cómo usar una distribución Dirichlet como
distribución a priori para una verosimilitud multinomial relacionada con
datos de grupos sanguíneos. En Lange (1995) podemos encontrar aplica-
ciones relacionadas con probabilidades de cotejos positivos en situaciones
forenses.
112 Variación
Puede valer entre –1 y 1. Dos variables que tengan una relación lineal per-
fecta con una pendiente positiva (cuando una crece o decrece, la otra tam-
bién) tienen una correlación de 1. Si la pendiente es negativa (cuando una
crece, la otra decrece, o viceversa), tienen una correlación de –1. Una co-
rrelación de 0 implica que no existe correlación lineal entre las variables.
Observe que eso no quiere decir que no pudiera existir alguna relación en-
tre las variables, simplemente se dice que no es lineal.
Sea Var(Xi) = σ i2, (i =1, ..., p) y ρij la correlación entre Xi y Xj, (i = 1, ..., p;
j = 1, ..., p; i ≠ j). La covarianza entre las dos variables se representa como
Cov(Xi, Xj) y es igual a:
σ12 ρσ1σ2
θ = θ1 Σ = 2
(2.27)
θ2 ρσ1σ 2 σ 2
1 σ1−2 − ρ / σ1σ2
Σ –1 =
2 − ρ / σ1σ 2 −2
1− ρ σ2
| Σ | ½ = σ1 σ2 (1 − ρ2)
La matriz Σ –1 es representada, en ocasiones, por Ω (consultar Sección
4.5.5).
La matriz Σ –1 se ha calculado de la siguiente manera:
Sabemos que la inversa de una matriz A (n × n), puede calcularse apli-
1
cando la siguiente fórmula: A–1 = (adj A)’, donde “adj” es la abre-
det A
viatura de adjunto. El adjunto de la matriz Σ (2 × 2), se representa por
A11 A12 , que en este caso se transforma en la siguiente matriz:
A 21 A 22
114 Variación
σ 22 − ρσ1σ2 2 2
− ρσ1σ2 , y el determinante de Σ es el siguiente: det Σ = σ1 σ2 – ( ρσ1σ 2 )2
σ1
2
1 σ22 − ρσ1σ2 = 1 σ1
−2
− ρ / σ1σ2
Por tanto, Σ–1 = 2 −2
2
2 2 σ1 1 − ρ − ρ / σ1σ2 σ2
2
σ1 σ2 - (ρσ1σ2 ) − ρσ1σ2
Entonces, la expresión:
(x1 − θ 1) (x − θ )
2 2
( x1 − θ 1)( x 2 − θ 2) 2 2
(x – θ)’ Σ –1 (x – θ) = σ 2
− 2ρ + 2
1 σ1 σ 2 σ2
(1 − ρ2 )
A su vez, cuando θ1 = θ2 = 0:
1 1 x12 ( x1x 2) x 22
f(x1,x2) = exp − 2 − 2ρ + 2
2 (1 − ρ ) σ1 σ1 σ 2 σ 2
2
2π σ1 σ 2 (1 − ρ2 )
1 1 ( x − θ ) 2 ( x − θ ) 2
f(x1,x2) = exp − 1 2 1 + 2 2 2 , que puede formu-
2π σ1 σ 2 2 σ1 σ2
larse así:
( x 1 − θ1 ) 2 (x 2 −θ2 )2
1 −
2 σ12 1 −
2 σ 22
f ( x1 )f ( x 2 ) = e e
σ1 2π σ 2 2π
3.1 Apuestas
3.1.1 Sucesos complementarios
Pr( R ) = 1 – Pr(R)
3.1.2 Ejemplos
1: se lanza una moneda. Llamamos R a que salga cara. R será, por tan-
to, que salga cruz. Si la moneda está equilibrada: Pr(R) = Pr( R ) = 1 / 2.
2: se rueda un dado. Llamamos R a que salga un “6”. R será, por tanto,
que no salga un “6”. Si el dado está equilibrado: Pr(R) = 1 / 6; Pr( R ) = 5 / 6.
3: se chequea a una persona para averiguar si es Kell + o Kell –. Sea R el
suceso “ser Kell +”, y R será, por tanto, “ser Kell –“. Con la Tabla 1.4 llega-
mos a que Pr(R) = 0.6; y Pr( R ) = 0.4.
4: a una persona se le imputa un crimen. Sea G el suceso “ser culpable”.
G será, por tanto, el suceso “ser inocente”.
Observemos que, en todos los casos, el suceso compuesto por la unión
“R o R ” es cierto. De este modo, su probabilidad es la unidad por ser mutu-
amente excluyentes y exhaustivos sus sucesos simples.
3.1.3 Definición
[1 – Pr(R)] / Pr(R) = 6
1 – Pr(R) = 6 × Pr(R)
1 = 6 × Pr(R) + Pr(R) = 7 Pr(R)
Pr(R) = 1/7
[1 – Pr(R)] / Pr(R) = O
1 – Pr(R) = O × Pr(R)
(O + 1) Pr(R) = 1
Pr(R) = 1/(O + 1)
3.2 Teorema de Bayes
3.2.2 Ejemplos
sangre utilizado por el doctor fuera evaluado con dos grupos de pacientes,
unos con la enfermedad y otros sin ella. Los grupos se clasifican utilizando
un test de referencia (el denominado estándar de oro) al objeto de obtener
una tabla de contingencia dos por dos, como la Tabla 3.1.
S S Total
R n RS n RS nR
R n RS n RS nR
Total nS nS n
nRS + nR =nR
S S Total
R P(S,R) P( S ,R) P(R)
R P(S, R ) P( S , R ) P( R )
Total P(S) P( S ) 1
Ejemplo 3.1: Sea S el suceso “Tengo dos brazos y dos piernas”, R el su-
ceso “Soy un mono”. Entonces: Pr(S | R) = 1, mientras que Pr(R | S) ≠ 1. La
primera probabilidad es equivalente a decir que “si soy un mono, tengo dos
brazos y dos piernas”. La segunda probabilidad es equivalente a decir que:
“si tengo dos brazos y dos piernas, no soy necesariamente un mono”. De
modo análogo, en el anterior ejemplo médico, un paciente está más intere-
sado en la probabilidad de no tener una enfermedad, dado que el test haya
sido positivo, que en la probabilidad de que el test sea positivo dado que
no se tenga la enfermedad. La última de esas probabilidades es la tasa de
falsos positivos, Pr(R | S ); la primera la probabilidad a posteriori Pr( S | R).
122 La evaluación de la evidencia
Observamos que hay 100 varones, de entre los cuales se produjeron dos
defunciones, y 100 mujeres, de quienes sólo una murió. De este modo, Pr(D
| M) = 0.02 y Pr(D | F) = 0.01, satisfaciéndose (1). Hubo tres muertos en to-
tal, de quienes 2 fueron varones y 1 mujer, cumpliéndose (2).
Pr(X | Ψi )Pr(Ψi )
Pr(Ψi | X) = =
Pr(X | Ψ1 )Pr(Ψ1 ) + Pr(X | Ψ 2 )Pr(Ψ 2 ) + Pr(X | Ψ3 )Pr(Ψ3 )
−9
3.96 × 10 × 0.819
−9 −8 −7
= 0.245.
3.96 × 10 × 0.819 + 1.18 × 10 × 0.137 + 1.91× 10 × 0.044
3.3 Errores de interpretación
Al igual que existe una falacia del Fiscal, también existe otra denomi-
nada falacia del abogado (Thompson y Schumann, 1987). Consideremos
130 La evaluación de la evidencia
γ 1/1.000.000 1/10.000.000
θ 0.632 0.095
γ n’ θ’
0.1 10 0.651
0.01 100 0.634
0.001 1000 0.632
3.3.8 Unicidad
3.3.9 Otras dificultades
partiera este perfil sería menor de 1 entre 10.000.000”. Para más detalles
acerca del cálculo de la probabilidad de coincidencia aleatoria se puede
consultar el Capítulo 13.
La expresión “pudiera”:
Algunos expertos han preferido estimar la frecuencia relativa utilizan-
do frases como: “La mancha de semen pudiera proceder del Sr. X, el sos-
pechoso”, “La muestra A pudiera proceder del donante de la muestra B”,
“La mancha de semen pudiera provenir del sospechoso”, “Basándonos en
los análisis de ADN, puede concluirse que este semen pudiera proceder
del sospechoso”, “De acuerdo con los resultados de los análisis de ADN, la
mancha de sangre pudiera proceder de la víctima”, “De acuerdo a los resul-
tados de los análisis de ADN, la mancha de sangre pudiera tener su origen
en la persona en cuestión”.
Puede parecer útil al investigador decir lo que es una obviedad: si el
ADN de la mancha aparecida en la escena del crimen coincide con el del
sospechoso, el sospechoso pudiera ser el origen de la mancha. Si esto se
complementa con la frecuencia relativa del perfil, no parece claro cuál es la
fuerza de la evidencia. Una interesante discusión sobre este tema se puede
encontrar en Evett y Weir (1998), y en Evett y otros (2000a).
Una frase como “pudiera proceder del sospechoso” puede interpretarse
como la transposición del condicional, puesto que proporciona una valo-
ración acerca de la probabilidad de la proposición. Si este tipo de formu-
lación se considerase necesario, sería preferible utilizar formas de decir
como: “El perfil de ADN procedente de la mancha de sangre coincide con
el del sospechoso. Por consiguiente, el sospechoso, o cualquier otro con el
mismo perfil, pudieran ser los donantes de la mancha”. Esto pudiera in-
terpretarse como que serían necesarias posteriores explicaciones sobre la
coincidencia de los perfiles, evitándose la interpretación de que se valora la
probabilidad de una proposición.
son coincidentes con las del sospechoso, sino que también hay que tener
en cuenta otros grupos de fibras compatibles con los hechos, las cuales
pudieran haber sido potencialmente dejadas por el agresor (¡que no es el
sospechoso!). Se presentaron ante los participantes en un estudio dos es-
cenarios en los que era distinta la valoración sobre la evidencia de fibras
(Evett, 1983; y Buckleton y Evett, 1989). Resultó que los participantes no
distinguieron sus valoraciones. No tuvieron en cuenta el número de grupos
de fibras que eran compatibles con el asunto en cuestión. Ello provocó una
sobreestimación del valor de la evidencia en el supuesto en el que había
más de un grupo de fibras (se pueden encontrar detalles sobre los LR en las
Secciones 3.4 y 3.5).
Cuando dos individuos (o un individuo y un objeto) toman contacto en
una acción criminal, se produce una transferencia recíproca de material
(por ejemplo: fibras o cristales). Donde esto ocurre, los dos grupos de ma-
teriales recuperados deben considerarse como dependientes. Si ha tenido
lugar una transferencia en una dirección, y el experto ha recuperado vesti-
gios relacionados con ella, esperaría también encontrarlos en la dirección
opuesta. La presencia de vestigios procedentes de una transferencia apor-
ta información sobre la probabilidad de encontrar otros en la dirección
opuesta (en el Capítulo 8 se presentan detalles al respecto). Lo que se inves-
tigó fue la capacidad de los participantes para distinguir el escenario en el
que los dos conjuntos de vestigios recuperados eran dependientes, del es-
cenario en el que esos conjuntos no lo eran, prestándose especial atención
a la reacción ante una nueva información técnica acerca de la presencia o
ausencia de evidencias cruzadas como consecuencia del contacto habido
en el momento del crimen. También se ha de considerar la ausencia de
intercambio de material alguno a pesar del contacto a la hora de valorar
la evidencia coincidente recuperada. Los resultados obtenidos en el estu-
dio apoyaron otros anteriores y enfatizaron la incapacidad de las personas
para tener en cuenta información técnica en la estimación del valor real del
enlace detectado entre dos personas (u objetos) (Taroni y Aitken, 1998b).
También se investigó la valoración de los participantes sobre la fuerza
probatoria de un conjunto de evidencias. En un primer escenario se pre-
guntó a los participantes acerca de su juicio sobre un numeroso conjunto
de evidencias procedentes del mismo caso y consistentes en fragmentos de
cristal que fueron presentadas por los expertos para el Fiscal y la defensa. En
un segundo escenario, que interesaba comparar con el primero, los partici-
pantes hicieron valoraciones sobre dos subconjuntos de la evidencia, combi-
nándose después para aportar un solo valor. Esto requirió más estimaciones,
pues cada una fue realizada sobre una más pequeña y específica parte de la
Errores de interpretación 145
Duffy Total
Kell
+ –
Rosa
+ 32 8 40
– 8 2 10
Total 40 10 50
Azul
+ 2 8 10
– 8 32 40
Total 10 40 50
Combinado
+ 34 16 50
– 16 34 50
Total 50 50 100
De este modo:
Pr(AB | C) = Pr(B | AC) × Pr(A | C) = 0.8 × 0.8 = 0.64 = 32 / 50, según la
tercera ley de probabilidad para sucesos dependientes (1.7).
La versión en apuestas del teorema de Bayes:
log {Pr(S|R) / Pr( S |R)} = log {Pr(R|S) / Pr(R| S )} + log {Pr(S) / Pr( S )}.
evidencia (Good, 1950; ver también Peirce, 1878). Un LR > 1 implica un peso
positivo —inclina la balanza de la justicia a favor de S—; un LR < 1 implica un
peso negativo —conlleva una inclinación de la balanza en contra de S—. Un
LR = 1 deja la apuesta a favor de S igual que estaba y la balanza no cambia.
La evidencia resulta relevante, desde un punto de vista lógico, solamen-
te cuando la probabilidad de encontrarla dado que es verdad alguna pro-
posición relacionada con el caso difiere de la probabilidad de encontrar
esa misma evidencia dado que es falsa la mencionada proposición; en defi-
nitiva, cuando el logaritmo del LR no sea cero (Kaye, 1986).
El LR logarítmico (a veces denominado relación o peso de relevancia)
proporciona una medida equivalente de relevancia. Este método es venta-
joso, porque calcula la relevancia de la evidencia ofrecida por las partes:
Fiscal y defensor (Lempert, 1977).
El LR logarítmico tiene también cualidades de simetría y aditividad que
faltan en otras medidas (Edwards, 1986).
Lyon y Koehler (1996) creen que la apelación a la simplicidad y a la
intuición de la relación de relevancia la hace buena candidata para el uso
heurístico por los jueces.
La simetría matemática entre el peso de la evidencia para la proposición
del Fiscal y el peso de la evidencia para la proposición de la defensa puede
mantenerse invirtiendo el peso de la evidencia cuando se considere la pro-
posición de la defensa.
Aitken y Taroni (1998) han desarrollado una escala verbal para LR loga-
rítmicos.
Pr(E | H p , M ) Pr(M | H p )
× .
Pr(E | H d , M ) Pr(M | H d )
Pr(M s | M c , H p ) Pr(M c | H p )
× .
Pr(M s | M c , H d ) Pr(M c | H d )
Pr(E | H p , M )
Pr(E | H d , M )
Pr( H p )
Pr( H d )
El valor de la evidencia 155
De este modo:
Pr(H p | Ev) Pr(H p | E, M )
=
Pr(H d | Ev) Pr(H d | E, M )
será escrito como:
Pr(H p | E)
,
Pr(H d | E)
y
Pr(Ev | H p ) Pr(H p )
×
Pr(Ev | H d ) Pr(H d )
Pr(E | H p ) Pr(H p )
× .
Pr(E | H d ) Pr(H d )
El resultado completo es, entonces:
El LR es la relación:
Pr(H p | E, I) / Pr(H d | E, I)
. (3.10)
Pr(H p | I) / Pr(H d | I)
“Este método no pide a los miembros del Jurado que calculen cualquier
número, sólo pide uno que pueda cualificarse como una probabilidad.
Sencillamente les muestra cómo una probabilidad a priori “verdadera”
puede alterarse, siempre que hubiere alguna disponible. De este modo
aporta al Jurado, de forma precisa y segura, una ilustración de la fuerza
probatoria de los datos cuantitativos tal y como puede hacerlo la teoría
matemática de la probabilidad. Tal tabla tiene valor pedagógico para el
El valor de la evidencia 157
“Una respuesta más fundamental es que no parece existir razón para que
un Jurado no pueda estimar una probabilidad a priori que pudiera des-
cribirse en términos de frecuencia relativa. Podríamos caracterizar esa
probabilidad como una estimación de la proporción de casos en los que
un imputado confrontado con el mismo patrón de evidencia no cuan-
titativa como la existente en el caso que nos ocupa hubiera de hecho
acuchillado al muerto.
Esta dificultad práctica no disminuye el valor de este punto conceptual.”
1 <V≤ 10 limitado
10 <V≤ 100 moderado
moderadamente
100 <V≤ 1000
fuerte
1000 <V≤ 10000 fuerte
10000 <V muy fuerte
El valor de la evidencia 161
Obsérvese que esta escala trabaja igualmente para valores de V < 1 a favor de
la proposición de la defensa. Para ADN, donde existen valores de LR muy gran-
des, la escala verbal resulta inadecuada. Sin embargo, se ha aceptado en la prác-
tica (Evett y otros, 2000a) la frase: “extremadamente fuerte” para LR ≥ 1.000.000.
En (Evett y otros, 2000c) se realizan algunos comentarios sobre los valores ex-
tremadamente altos de LR para ADN. Para afrontar este problema, Aitken y
Taroni (1998) propusieron una solución basada en los LR logarítmicos.
Es interesante la cita que proporciona Fienberg (1989) de un jurista del
siglo XIX, Jeremy Bentham, que parece anticipar la escala Jeffreys-Evett,
aunque quizá aplicándola a la fuerza de la creencia en la hipótesis de cul-
pabilidad en lugar de a la fuerza de la evidencia:
“La escala entendida como compuesta de diez grados —en el lenguaje em-
pleado por los filósofos franceses para los termómetros, una escala decígra-
da— hace decir: mi persuasión es 10, o 9, etc. afirmativamente, o al menos
10 etc. negativamente …” (Bentham, 1827; citado en Fienberg, 1989).
log de LR
Descripción verbal log de apuesta a priori
–2 –1 0 1 2 3 4 5 6 7 8 9 10
Individual 0 –2 –1 0 1 2 3 4 5 6 7 8 9 10
Familia –1 –3 –2 –1 0 1 2 3 4 5 6 7 8 9
164 La evaluación de la evidencia
Calle –2 –4 –3 –2 –1 0 1 2 3 4 5 6 7 8
Aldea –3 –5 –4 –3 –2 –1 0 1 2 3 4 5 6 7
Pequeño pueblo –4 –6 –5 –4 –3 –2 –1 0 1 2 3 4 5 6
Gran pueblo –5 –7 –6 –5 –4 –3 –2 –1 0 1 2 3 4 5
Ciudad –6 –8 –7 –6 –5 –4 –3 –2 –1 0 1 2 3 4
Provincia –7 –9 –8 –7 –6 –5 –4 –3 –2 –1 0 1 2 3
País –8 –10 –9 –8 –7 –6 –5 –4 –3 –2 –1 0 1 2
Interpretaciones erróneas
Los ejemplos anteriores son formas correctas de resumir el contenido
de la evidencia. Sin embargo, se dan casos en que aún se producen inter-
pretaciones erróneas cuando la evidencia se presenta como comentario
acerca de la verdad de la proposición del Fiscal. Nótese que el uso de las
escalas verbales sobre la verdad o no de una proposición está ampliamente
difundido en muchos campos científicos (por ejemplo, en medicina o pre-
dicción del tiempo). En esos casos, a diferencia del papel del experto foren-
se, el científico juega un papel distinto y utiliza diferente cantidad de in-
formación. Por consiguiente, las escalas a posteriori parecen aceptables de
un modo en que no lo son en el ámbito forense. Weiss (2003) propuso una
escala subjetiva a posteriori de 11 grados sobre la incertidumbre científica
basada en estándares de pruebas definidos legalmente, todo ello como con-
secuencia de los debates habidos en el seno del Panel Intergubernamental
sobre Cambio Climático (2001).
En respuesta a una encuesta realizada por Taroni y Aitken (2000) sobre
evidencia de fibras, se realizaron los siguientes comentarios sobre la fuer-
za de la evidencia en términos de probabilidad de la proposición del Fiscal:
resulta …
• más allá de la duda razonable,
• muy probable,
• probable,
• bastante posible, o
• posible.
que la evidencia coincidente asociada con el imputado proceda de la mis-
ma fuente que la encontrada en la escena del crimen. En este estudio, los
laboratorios generalmente hicieron comentarios sobre la veracidad o no
de la proposición del Fiscal. Esto fue lo que hicieron en lugar de evaluar el
valor de la evidencia.
También, en el contexto de una comparación entre pelos humanos,
Gaudette (2000) aporta una escala sobre si los pelos cuestionados pro-
cedían o no de la misma persona que los pelos de referencia conocidos.
Existe coincidencia y la escala interpreta ésta como sigue:
• Fuertemente positivo: los pelos cuestionados proceden de la misma
persona que los pelos de referencia conocidos;
• Positivo normal: los pelos cuestionados concuerdan con los pelos
de referencia conocidos;
• Inconcluso: no puede darse una conclusión;
• Negativo normal: los pelos cuestionados no concuerdan con los pe-
los de referencia conocidos;
166 La evaluación de la evidencia
Pr(M | R ) Pr(R | M ) 1
= × .
Pr(M | R ) Pr(R | M ) k
1
Pr(M | R ) =
1 + k Pr(R | M )
El valor de la evidencia 169
la cual puede ser mucho menor que 1 – Pr(R | M ) cuando k sea grande.
personas. La defensa dice que hay 2.000 personas con el mismo grupo san-
guíneo que el acusado, la probabilidad de que el acusado sea culpable es
1/2000 y por tanto, la evidencia tiene un valor muy pequeño para mostrar
que ésta persona es culpable.
Como antes, Pr(E | Hp) = 1 y Pr(E Hd) = 0.01; V = 100. También, Pr(Hp |
E) = 1/2000 y Pr(Hd | E) = 1999/2000. La apuesta a posteriori a favor de Hp
es la siguiente: (1/2000) / (1999/2000) = 1/1999 ≈ 1/2000.
La apuesta a priori es la relación entre la apuesta a posteriori y V, es
decir, (1/1999) / 100 = 1/199900. Además, Pr(Hp) = 1/200.001, Pr(Hd) =
200.000/200.001. La probabilidad a priori de culpabilidad es 1/200.001. El
denominador es el tamaño de la población relevante (número de personas
equiprobables de ser autoras del crimen mas el culpable). La consecuencia
de esto es que todos son considerados potencialmente culpables, aunque
con la misma probabilidad de serlo inicialmente. Está claro que este plan-
teamiento no concuerda con la presunción de inocencia pero también que
esta falacia no es un error matemático. Los abogados utilizan la informa-
ción obtenida para sostener que es poco probable la culpabilidad de su de-
fendido y eso es engañoso. Coloquialmente, se podría decir que el acusado
es tan probablemente culpable como cualquier otra persona. La falacia de la
defensa no es verdaderamente una falacia. Si la evidencia incrementa la pro-
babilidad de culpabilidad de un individuo de 1/200.000 a 1/2000, es seguro
que no es irrelevante. En la escala de Jeffreys-Evett (Tabla 3.10) el LR expre-
sa moderada evidencia en apoyo de la proposición de la culpabilidad.
Obsérvese que es ilógico igualar la presunción de inocencia con una pro-
babilidad a priori de culpabilidad igual a 0, Pr(Hp) = 0. Si así fuera, entonces
Pr(Hp | E) = 0, de (3.8), no importa como sea de abrumadora la evidencia, no
importa como de grande sea el valor de V. La probabilidad de culpabilidad
puede ser sumamente pequeña, pero nunca podrá ser cero. Por tanto, si la
probabilidad apriorística de probabilidad es mayor que cero, será posible,
aportando la suficiente evidencia, alcanzar una probabilidad a posteriori de
culpabilidad suficientemente grande para asegurar un veredicto de culpabi-
lidad. Podría argumentarse que el imputado es tan probablemente culpable
como cualquier otra persona; su probabilidad a priori de culpabilidad sería
la recíproca del tamaño de la población definida por “cualquier otro”. Se
pueden consultar comentarios al respecto en Robertson y Vignaux (1994).
La probabilidad de culpabilidad.
Otro aforismo legal muy conocido es el convencimiento de la culpabilidad
del sospechoso por parte del Jurado cuando esté persuadido de que el Fiscal
haya demostrado “más allá de la duda razonable” que el sospechoso cometió
El valor de la evidencia 171
el crimen (Robertson y Vignaux, 1991). Sin embargo, ese “más allá de la duda
razonable” no es algo diáfano. Lord Denning ha dicho que “debe haber grados
de prueba dentro de ese estándar” (Eggleston, 1983). De hecho, a medida que
el crimen es más grave, mayor es la presunción de inocencia y, por consiguien-
te, mayor probabilidad se exige. Existe evidencia de que ésta es la forma en
que la gente se comporta en los cuestionarios facilitados a jueces, miembros
de Jurados y estudiantes de sociología (Simon y Mahan, 1971) y cuyos resul-
tados se extractan en la Tabla 3.12. Esta tabla muestra el valor de la probabili-
dad de culpabilidad que se tomaría como prueba más allá de la duda razona-
ble por esos grupos de personas ante distintos crímenes. La variabilidad entre
esas cifras es sorprendentemente pequeña. Para jueces, el rango va de 0.92 a
0.87, y para miembros de Jurado de 0.86 a 0.74. Esas probabilidades pueden
utilizarse para estimar apuestas a favor de la culpabilidad. Por ejemplo, para
los jueces, la apuesta a favor de la culpabilidad en casos de asesinato que se
estima como más allá de la duda razonable es de 0.92 contra 0.08, es decir,
aproximadamente 12 a 1. Una interpretación alternativa sería que 1 de cada
13 personas sentenciadas como culpables de asesinato mediante el menciona-
do estándar serían inocentes. Para un cargo de hurto la apuesta sería de 7 a 1.
Estas apuestas son realmente próximas entre sí mientras que las penas están
muy lejanas. Los resultados necesitan una cuidadosa interpretación.
Resumen
Capítulo 4
Revisión histórica Revisión histórica
4.1 Antecedentes históricos
“El grado de certeza o la probabilidad que esta prueba genera en estos ca-
sos puede calcularse por el método tratado en la primera parte (esto es,
la relación entre casos favorables y casos totales), igual que se hace en
los juegos de azar”. (Garber y Zabell, 1979, p. 44).
Los puros son aquéllos que prueban una cosa en ciertos casos y nada en
otros. Los mixtos, por el contrario, prueban algo en algunos casos y lo con-
trario en los restantes. Shafer trata un ejemplo de este tipo tomado de la
Parte 4 de Ars Conjectandi.
Un hombre es apuñalado con una espada en medio de un tumulto.
Testimonios fidedignos de testigos oculares establecen que el crimen fue
cometido por un hombre vestido con una capa negra. Se encuentra a una
persona, llamada Gracchus, y a otras tres más en medio de la multitud que
llevaban capas de ese color. Existe la hipótesis de que Gracchus fuera el
autor del crimen pero es un argumento mixto. Tiene una posibilidad entre
cuatro de ser culpable, y tres entre cuatro de ser inocente, todo ello con-
siderando si el asesinato fue cometido por él o alguno de los otros tres. Si
alguno de los otros fuera el asesino, Gracchus sería inocente.
Sin embargo, si en la toma de declaración Gracchus se mostrara pálido,
se trataría ya de un argumento puro. Si su palidez se produjo como conse-
cuencia de su autoconciencia de haber sido el asesino, ello sería indicativo
de su culpabilidad. Si la palidez fue debida a otra causa, eso no probaría su
inocencia; pudiera suceder que la palidez obedeciera a otro motivo pero no
por ello dejaría de ser el asesino.
Shafer (1978) aporta una analogía entre esos dos tipos de argumenta-
ción y su teoría matemática de la evidencia (Shafer, 1976) y las funciones
de creencia (véase la Sección 1.2). En esa teoría se asigna una probabilidad
p a una proposición y una probabilidad q a su negación o complemento,
de modo que 0 ≤ p ≤ 1, 0 ≤ q ≤ 1, y p + q ≤ 1. No se necesita que p + q = 1, en
contradicción con (3.2). Existen, pues, tres posibilidades:
• p > 0, q = 0, que implica la presencia de evidencia a favor de la pro-
posición y la ausencia de evidencia en su contra;
• p > 0, q > 0, que implica la presencia de evidencia por ambos lados,
a favor y en contra de la proposición;
• p > 0, q > 0, p + q = 1 (aditividad), que sólo ocurre cuando existe evi-
dencia muy fuerte a favor de la proposición y en su contra.
En este libro sólo se consideran las probabilidades que cumplen la regla
de la aditividad (3.2). Sheynin (1974) comenta que:
“Si no tienes testigos … argumentarás que los jueces deben decidir sobre
lo que es probable … Si tienes testigos, y el otro no, argumentarás que
las probabilidades no pueden utilizarse como prueba, y si no necesita-
mos más que balancear las argumentaciones defendidas por cada parte,
podemos prescindir de la evidencia aportada por los testigos por com-
pleto”.
Para evaluar la evidencia se revisan en esta obra con más detalle inten-
tos más recientes.
4.2 Caso Dreyfus
Este ejemplo se relaciona con el juicio a Dreyfus a finales del siglo XIX.
Dreyfus, un oficial del Ejército francés destinado en el Ministerio de la
Guerra, fue acusado en 1894 de vender secretos militares al agregado mi-
litar alemán. Parte de la evidencia contra Dreyfus se centró en un docu-
mento denominado “bordereau”, cuya autoría admitió, y que, a decir de sus
enemigos, contenía mensajes cifrados. Se sostuvo esa argumentación como
consecuencia del examen de la posición de las palabras en el mencionado
documento. De hecho, después de reconstruirlo trazando sobre él líneas
verticales cada 4 mm, Alfonso Bertillón demostró que 4 pares de palabras
polisilábicas (entre 26 pares) tenían la misma posición relativa respecto a
la malla. Por tanto, citando la teoría de la probabilidad como referencia,
Bertillón defendió que las coincidencias descritas no podrían atribuirse a
un proceso normal de escritura. Así pues, el documento era falso. Bertillón
presentó cálculos probabilísticos en apoyo de su conclusión. Su argumen-
tación estadística podría expresarse como sigue: si la probabilidad para
una coincidencia es de 0.2, la probabilidad de observar N coincidencias
es 0.2N. Bertillón calculó que las cuatro coincidencias observadas por él
tenían, por tanto, una probabilidad de 0.24, ó 1/625, un valor demasiado
pequeño que demostraba la falsedad del documento (Charpentier, 1933).
180 Revisión histórica
Sin embargo, el valor 0.2 fue elegido a modo de ilustración y no tenía fun-
damentación evidencial alguna; para un comentario al respecto se puede
consultar Darboux y otros (1908).
La declaración de Bertillón incluyó no sólo el anterior cálculo sino una
extensa documentación para identificar a Dreyfus como el autor del do-
cumento sobre la base de otras medidas y una compleja construcción de
hipótesis. (Para una extensa descripción del caso se puede consultar la lite-
ratura citada en Taroni y otros, 1998, p. 189).
Como se mencionó en la Sección 3.3.1 y utilizando una perspectiva ba-
yesiana, no es difícil detectar dónde la lógica empleada por Bertillón falló
en sus conclusiones sobre la falsedad del documento. Parece que Bertillón
argumentaba que Pr(Hd | E,I) = p = 1/625 = 0.0016 y, por consiguiente, que
Pr(Hp | E,I) = 1 – p = 0.9984. Sin embargo, p representa Pr(E | Hd,I). Parece
que se trata de un temprano ejemplo de falacia del Fiscal (Sección 3.3.1).
La fiabilidad de la argumentación de Bertillón fue puesta en duda en un
nuevo juicio posterior sobre el mismo caso. Resultan destacables las opi-
niones vertidas por Darboux, Appell y Poincaré, matemáticos y miembros
de la Academia Francesa de Ciencias. Comentaron que la valoración pro-
babilística argumentada por Bertillón no tenía fundamentación matemá-
tica. De hecho, el valor 0.0016 es la probabilidad de observar cuatro coin-
cidencias independientes en cuatro comparaciones (con probabilidad θ de
una coincidencia fijada en 0.2), mientras que Darboux, Appell y Poincaré
determinaron que la probabilidad de observar cuatro coincidencias en 26
comparaciones es bastante diferente, concretamente 0.7, o 400 veces ma-
yor (0.7/0.0016 = 437,5) (Moras, 1906; Darboux y otros, 1908).
No está claro cómo se calculó la cifra de 0.7 mencionada anteriormente.
26 4 22
La expresión binomial 0.2 0.8 = 0.176, y la probabilidad de cuatro o
4
más coincidencias en 26 comparaciones es 0.8, aproximadamente. No es
26 4
posible elegir un valor de θ para el que
4 θ (1 − θ) = 0.7. El valor de θ
22
para el que la probabilidad de cuatro o más coincidencias, de 26 compa-
raciones, sea 0.7, es θ = 0.18. Se facilitan posteriores comentarios sobre el
cálculo de Bertillón en la Sección 7.3.6.
Otro argumento sostenido por los enemigos de Dreyfus fue que las pro-
porciones observadas en las letras del alfabeto obrantes en el documento
no guardaban relación con las que pudieran obtenerse en prosa francesa,
por término medio. Las proporciones observadas tenían una muy baja pro-
babilidad de ocurrencia (ver Tribe, 1971). Aunque se apuntó por los abo-
Caso dreyfus 181
Caso Dreyfus
gados que la proporción más probable de letras del alfabeto era altamente
improbable, este extremo no fue apropiadamente comprendido.
Un ejemplo sencillo como el del lanzamiento de una moneda nos sirve
para explicar el sentido de la siguiente frase: “la proporción más probable
de las letras del alfabeto era también altamente improbable”. Consideremos
una moneda equilibrada, es decir, las probabilidades de cara o cruz son
iguales y valen 0.5. Si la moneda se tira 10.000 veces, el número esperado
de caras sería 5.000 (ver Sección 2.3.3 con n = 10000 y p = 1 / 2), siendo
también el resultado más probable. Sin embargo, la probabilidad de que
salgan concretamente 5.000 caras —que no es lo mismo que 4999 ó 5001,
o cualquier otra cifra, es aproximadamente 0.008 ó 1/125, que es una pro-
babilidad muy baja. El resultado más probable es, en sí mismo, altamente
improbable. La situación, desde luego, aumentaría teniendo en cuenta to-
das las posibles combinaciones de letras en la prosa francesa de tiempos
de Dreyfus. Esta idea puede expresarse de forma matemática como sigue:
si Dreyfus fuera inocente (Hd), las posiciones de las palabras (E) que ha-
bía utilizado serían altamente improbables; Pr(E| Hd) sería pequeña. Los
acusadores concluyeron que Dreyfus debió haber elegido la combinación a
propósito como cifra, por lo que se demostraba que era un espía. Estimaron
que Pr(Hd |E) debía ser muy pequeña. Los abogados no se dieron cuenta de
que cualquier otra combinación de letras también hubiera sido altamente
improbable y que, por consiguiente, la combinación utilizada por Dreyfus
no revelaba anormalidad alguna. Este es otro temprano ejemplo de la fala-
cia del Fiscal.
Darboux, Appell y Poincaré subrayaron también un punto fundamen-
tal: la naturaleza del proceso de inferencia que utilizaron para alcanzar su
conclusión. Dijeron que el caso expuesto era un clásico problema de cálcu-
lo de probabilidad de las causas, no un problema de cálculo de probabilidad
de los efectos. La diferencia entre esos dos conceptos estadísticos (y sus in-
ferencias) puede ilustrarse con el siguiente ejemplo (ver también Poincaré,
1992). Si sacamos una bola de una urna que contenga 90 bolas blancas y
10 bolas negras, la probabilidad de sacar una bola negra es 1/10, siendo
esta la probabilidad del efecto. Supongamos que disponemos de dos urnas
idénticas. La primera tiene una proporción de bolas como la ya menciona-
da 90:10. La segunda, por el contrario, tiene una proporción inversa: 10:90.
Elegimos una urna (ambas son equiprobables a estos efectos) y cogemos
una bola. Es blanca. ¿Qué probabilidad tenemos de haberla cogido de la
primera urna? En este ejemplo, el efecto es conocido —se ha sacado una
bola blanca—, pero la causa es incierta —no podemos conocer, a partir del
efecto, qué urna es más probable de haber sido elegida—.
182 Revisión histórica
Más aún, Bertillón argumentaba que la única forma de aceptar una con-
clusión sobre la cuestión de fondo (por ejemplo, la identificación de quien
realizó un cuerpo de escritura) era considerar no sólo la evidencia estadís-
tica proporcionada por el examen del documento, sino también el resto de
información perteneciente a la investigación.
Bertillón consideraba que la presentación de resultados sin ese tipo de
información era una metodología errónea. El valor del resultado de una
comparación, aunque no sea concluyente, pudiera proporcionar suficiente
información como para posibilitar una declaración de culpabilidad cuan-
Argumentos
Argumentosestadísticos
estadísticosde
delos
losexpertos
expertosde
decomienzos
comienzosdel
delsiglo xx 183
sigloXX
Así pues, como años más tarde Souder propuso para examinar docu-
mentos, aquí Balthazard estableció que la valoración a priori (basada en
información obtenida en la investigación y reduciendo el tamaño de la po-
blación origen del sospechoso) ha de asociarse al valor estadístico de la
evidencia para permitir juzgar al que ha de tomar la decisión sobre una
identificación (una valoración a posteriori). Desafortunadamente, noventa
años después, la discusión sobre la identificación a través de huellas dac-
tilares y el uso de modelos probabilísticos permanece abierta. Véase, por
ejemplo, Taroni y Margot (2000), Champod y Evett (2001), y Friedman y
otros (2002).
Pr(E1, E2, ..., En| Hd) = Pr(E1| Hd) Pr(E2 | Hd) ... Pr(En | Hd) (4.1)
“Un foco de especial atención pública fue la evidencia estadística dada por
un testigo médico, que basado en un estudio publicado [Investigación
confidencial sobre muerte súbita en la infancia] obtuvo una estimación
de [1 entre 8543] de la frecuencia de muertes súbitas (SIDS) en fami-
lias de las características de la familia de la imputada. Siguió el exper-
to elevando al cuadrado esa estimación, obteniendo un valor cercano a
uno dividido por 73 millones para la frecuencia de que se produzcan dos
muertes por SIDS en una familia como la del caso …
Algunos periódicos de aquél entonces subrayaron que aquélla era la
probabilidad de que las muertes de los dos hijos de Sally Clark fueran
accidentales. Esta falsa interpretación es un serio error de lógica conoci-
do como la falacia del Fiscal (Boletín de la Real Sociedad Estadística,
Marzo 2002)”.
4.5 Poder de discriminación
4.5.1 Derivación
Pr(C1) = Pr(D1) = p1
DP = 1 – Q = 0.621
Q = Q1 = p112 + … + p1k2
= Σj=1k ((1 / k) + εj)2
= Σj=1k ((1 / k2) + (2εj / k) + εj2)
= (1 / k) + (2 / k) Σj=1k εj + Σj=1k εj2
= (1 / k) + Σj=1k εj2 (pues Σj=1k εj = 0)
≥ Q0
4.5.3 Muestras finitas
k k
Q = (∑ c 2j − ∑ c j ) /{n (n − 1)}
j=1 j=1
k k
= (∑ c 2j − n ) /(n 2 − n ) pues ∑c j = n,
j=1 j=1 (4.3)
k
1 1
= ∑ (c 2j / n 2 ) − /(1 − )
j=1 n n
k 1 1
= ∑ p̂ 2j − / 1 −
j=1 n n
Poder de discriminación 193
4.5.5 Atributos correlados
p DP
1 1 – e1 / (π1/2 σ1)
2 1 – e1 e2 / {π σ1 σ2 √ (1– ρ122 )}
3 1 – e1 e2 e3 / {π3/2 σ1 σ2 σ3 √ (1– ρ122 – ρ132 – ρ233 + 2 ρ12 ρ13 ρ23)}
4.6 Probabilidades de significación
refracción del cristal dentro de una ventana. Se asume que si F vino de una
ventana con índice de refracción θ, entonces X es tal que se distribuye así:
X ~ N(θ,σ2) (Sección 2.4.2). Por tanto, la función de densidad de probabili-
dad Normal para x es f(x|θ,σ2) = (1 / √2πσ2) exp{–(x–θ)2/2σ2).
La cuestión importante es ver si F vino de la ventana de la escena del cri-
men (y, por asociación, que el sospechoso estuvo en la escena del crimen) o
no. Si así fuera, θ sería igual a θ0.
Un argumento basado en las probabilidades de significación es como
sigue:
Supongamos que θ = θ0. La inferencia de que F procede de la ventana de
la escena del crimen requiere la asunción de que el índice de refracción me-
dio es único para esa ventana. Esto no es una asunción estadística particular
y es algo que quizá deba formar parte de I, la información de contexto.
La suposición de que θ = θ0 se llama hipótesis nula. Se representa como
H0. También se denomina hipótesis de trabajo o status quo. Esta nomencla-
tura no es particularmente apropiada aquí. No parece razonable comenzar
el análisis con la hipótesis de que el sospechoso estuvo en la escena del cri-
men. Sin embargo, se sostiene esta línea de razonamiento puesto que las
ideas estadísticas en las que está basada son de uso muy común.
Bajo la suposición anterior, θ = θ0, la desviación estándar de x, índice de
refracción de F, respecto de θ0, se esperaría que fuera muy pequeña. Lo que
entendemos por “pequeño” depende de σ, la desviación estándar.
La distribución de X se dice que es Normal. La desviación de una obser-
vación x respecto de θ se mide en términos de probabilidad de observar un
valor de la variable X tan extremo como x.
Si H0 es cierta, entonces: X ~ N(θ0,σ2).
Si Z = (X – θ0) / σ, entonces: Z ~ N(0,1).
También Pr(|X|>x) = Pr(|Z|>z).
Pr(|X|>x) es la probabilidad de haber observado x o algún valor más ex-
tremo si H0 (θ = θ0) es cierta (y por consiguiente, como se trató más arriba,
que F vino de la ventana rota de la escena del crimen). La frase “o algo más
extremo” se refiere a considerar un valor de x más extremo teniendo en
cuenta, implícitamente, una hipótesis alternativa: que H0 no es cierta, por
lo que θ ≠ θ0. La distancia de una observación x a una media θ se mide en
términos de la desviación estándar s.
Por ejemplo, si θ = 1.518458 y σ = 4 x 10–5, un valor de x = 1.518538 está
a (1.518538 – 1.518458) / 4 × 10–5 = 2 desviaciones estándar de la media. Un
valor del índice de refracción x más extremo de 1.518538 es aquél situado
más de 2 desviaciones estándar de la media en cualquier dirección, es decir,
mayor que 1.518538 o menor que 1.518378.
202 Revisión histórica
sería más útil, pero eso no es lo que se ha calculado. La relación entre (4.4)
y (4.5) es similar a la existente entre la probabilidad de la evidencia dado
que el sospechoso es culpable y la probabilidad de que el sospechoso sea
culpable dada la evidencia. Confundirlas es el error de la falacia de transpo-
sición del condicional (Sección 3.3.1). Es posible, sin embargo, relacionar
la probabilidad de significación con la probabilidad de que el sospechoso
estuviera en la escena del crimen, a través del uso de los LR.
Actuación como si F
procediera o no de la
x z = (x – θ0)/σ P=Pr(|X|>x) = Pr(|Z|>z)
ventana de la escena
del crimen
4.6.2 Relación con el LR
−1
(1 − p)f ( x | H d )
Pr( H p | x ) = f ( x | θ0 , H p )p / f ( x ) = 1 + (4.6)
pf ( x | θ0 , H p )
Pr(H p | x ) p f ( x | θ0 , H p )
= ×
1 − Pr(H p | x ) 1− p f (x | Hd )
206 Revisión histórica
− z2 z2 − z2
V = 100 exp +
4
≅ 100 exp
2 2 × 10 2
− 2.052
V = 100 exp = 12.2 ,
2
un valor para V que, según la escala verbal de la Tabla 3.10, representa mo-
derada evidencia para soportar Hp frente a Hd. Esa aparente contradicción
entre los dos métodos no es nada nuevo, y se le ha dado el nombre de “pa-
radoja de Lindley” (ver, por ejemplo, Good, 1956; Lindley, 1957; Edwards y
otros, 1963; y Lindley, 1980, para una referencia de Lindley como “parado-
ja de Jeffreys”).
Supongamos que se han hallado n fragmentos de cristal sobre la ropa del
sospechoso en lugar de uno. Sea x la media de esos fragmentos. Entonces:
Probabilidades de significación 207
( X | θ) ∼ N(θ,σ2/n)
Si Hd es cierta: X ∼ N(θ0,τ2+σ2/n).
El LR se calcula así:
(2πσ 2 / n ) −1 / 2 exp{−n ( x − θ 0 ) 2 / 2σ 2 }
V= −1 / 2
Tabla 4.6 Variación del LR dado en (4.7) (V=100√n exp(–zn2 / 2)), con ta-
maño muestral n, para una distancia estandarizada zn = 2, con
nivel de significación del 5%.
n V
1 14
5 30
10 43
20 61
zn2 = n( x –θ0)2 / σ2
y, de este modo:
U = (x – θ)T Σ–1 (x – θ)
4.7 Probabilidades de coincidencia
4.7.1 Introducción
4.7.2 Etapa comparadora
X−Y
Z= ,
σ(n + m −1 )1 / 2
−1
4.7.3 Etapa de significancia
“un efecto puede ser producto de una causa A o de una causa B. El efecto
ha sido observado. Queremos averiguar la probabilidad de que el efecto
sea causado por A, es decir, la probabilidad a posteriori, pero no somos
capaces de averiguar, por adelantado, la probabilidad a priori de que esa
causa produzca el efecto. Queremos hablar de la probabilidad de que se
produzca un resultado sin que nunca antes hayamos observado ese re-
sultado” (Poincaré, 1912, página 229).
Finalmente:
“la regla de Bayes nos dice que tenemos que multiplicar las apuestas a
priori por el LR de la evidencia sangre/ADN para calcular las apuestas a
posteriori a favor de la hipótesis de paternidad recayendo sobre el impu-
tado. El Tribunal, posteriormente, ha de reflexionar sobre si esa apuesta
cumple el estándar de prueba. De este modo, el experto debería decir:
‘cualquiera que fuere la probabilidad que ustedes piensen sobre si el im-
putado es el padre considerando otras evidencias, la mía multiplica la
apuesta por X’” (Robertson y Vignaux, 1992).
5.1 Introducción
f(θ | α,β) = θα–1 (1 – θ)β–1 / B(α,β), 0 < θ < 1 (Sección 2.4.4) (5.2)
n
Pr(X = x | n, θ) = θ x (1 − θ) n − x , x = 0,1,..., n.
x
Inferencia
Inferencia bayesiana
bayesiana para
para una
una probabilidad
probabilidad de bernoulli 223
de Bernoulli
f(θ | x+α, n–x+β) = θx+α–1 (1 – θ)n–x+β–1 / B(x+α, n–x+β), 0 < θ < 1 (5.3)
Figura 5.1. Función de densidad a priori f(θ | α,β) con α = 61, β = 44, fun-
ción de verosimilitud L(θ | n,x) con n = 372, x = 201, y función de densidad a
posteriori f(θ | x+α, n–x+β) para un parámetro de Bernoulli.(Reproducido de
Weir, 1996a, con autorización de Sinauer Associates, Inc.)
ninguno de ellos coincide con las características del cristal de la escena del
crimen. (Stoney, 1992, p. 383).
No ha existido ningún cotejo positivo con la muestra del caso (la de la
ventana de la escena del crimen) en una muestra de 64 fragmentos de cris-
tal encontrados en el sospechoso.
Si sólo tenemos en cuenta la frecuencia relativa de un cotejo positivo
en el citado tamaño muestral, la probabilidad del mismo es cero, y el LR
infinito. Sin embargo, la muestra es de sólo 64 fragmentos. Intuitivamente,
esto es insuficiente para decir que el cristal de la ventana de la escena del
crimen fuera único.
Puede obtenerse un límite superior en la probabilidad para la propor-
ción de resultados positivos (por ejemplo, características del cristal, pa-
quetes de drogas ilícitas, CDs pirateados) en una población, no habiéndose
detectado ninguno en la muestra analizada de tamaño n, si utilizamos la
inferencia bayesiana con una distribución a priori Beta y una función de
verosimilitud binomial.
Llamemos θ a la proporción verdadera, aunque desconocida, de cotejos
positivos en la población de referencia de la que se ha tomado la muestra.
Se toma para la distribución a priori para θ una distribución Beta con
parámetros α = β = 1, correspondiéndose con una distribución a priori uni-
forme. La verosimilitud es una binomial con n pruebas, y la probabilidad
de un cotejo positivo es θ. En este ejemplo, no hay cotejos positivos.
La distribución de probabilidad a posteriori para θ es entonces una dis-
tribución Beta con parámetros x = 0, n, y α = β = 1 en (5.5).
La función de densidad de probabilidad es:
f(θ | 0+1, n–0+1) = θ0+1–1 (1 – θ)n–0+1–1 / B(0+1, n–0+1) = θ0 (1 – θ)n/ B(1, n+1) =
= (n+1) (1 – θ)n, 0 < θ < 1, que se resume con la notación Be(1, n+1).
θ0
ε = Pr(θ > θ0) = 1 – 65
∫
0
(1 – θ)64 dθ = (1 – θ0)65. La solución es θ0 = 1 – ε1/65.
ε θ0
0.05 0.0450
0.01 0.0684
verse más detalles en Balding (1995), Evett y Weir (1998), y Curran y otros
(2002).
El estimador usual para φ es 2 X1X2 / n2, pero no tiene en cuenta medida
alguna de incertidumbre en el procedimiento de estimación.
La incertidumbre puede explicarse utilizando una distribución a priori
para θ. La distribución a priori adecuada para una distribución trinomial
es la distribución de Dirichlet (Sección 2.4.5), con función de densidad de
probabilidad f(θ | α1, α2, α3) proporcional a:
3
∏ θiαi −1
i =1
Γ (α + n ) 2 Γ (α i + x i + s )
E (φs) = 2 s ∏ ,y
Γ(α + n + 2s) i =1 Γ(α i + x i )
s +1 s Γ (α 1 + x 1 + s )Γ (α 2 + x 2 + s )
E (φ ) = 2 E (φ )
Γ(α + n + 2s)Γ(α + n + 2s + 1)
E(φ2) ( x1 + 3)( x1 + 4)
=
E(φ) (2n + 5)(2n + 6)
donde
θ1 = (ν σ2 + x τ2) / σ2 + τ2 (5.7)
θ ∼ N(x,σ2) (5.11)
En el ejemplo del alcohol en sangre, dada una medida x = 0.85, una va-
rianza conocida de 0.005, y una distribución a priori uniforme (impropia),
la distribución del nivel de alcohol en sangre verdadero θ es una normal
N(0.85, 0.005). La desviación estándar es σ = 0.0707. La probabilidad de que
el verdadero nivel de alcohol en sangre sea mayor que 0.8 es la siguiente:
Pr(θ > 0.8 | θ ~ N(0.85, 0.005)) = 1 – Pr(θ < 0.8 | θ ~ N(0.85, 0.005)) =
=1 – Φ ((0.80 – 0.85) / 0.0707) = 1 – Φ (–0.7071) = Φ (0.7071) = 0.76.
θ−x θ − 1.35
t= =
s 0.0003 (5.12)
n 31
232 Inferencia bayesiana
s s
x − t n −1;α , x + t n −1;α (5.13)
2 n 2 n
También es posible tener en cuenta un límite de un intervalo, el llamado lí-
mite de confianza. Por ejemplo, considere el problema de estimar la cantidad
de droga en un alijo a partir de la medida de la cantidad de droga en una mues-
tra escogida del alijo. Los Tribunales determinan un límite inferior a partir del
cual se considera probado un delito de tráfico de estupefacientes. Por ejemplo,
Frank y otros (1991) sugieren la siguiente forma de expresarse: “con un nivel
de confianza del 95%, el 90% o más de los paquetes aprehendidos contienen la
sustancia”. La naturaleza de la construcción del límite de confianza es que, en
el 95% de los casos estudiados en los que se obtengan esos resultados, el 90%
de los paquetes aprehendidos contendrán la sustancia. Sin embargo, la proba-
bilidad con la que un determinado intervalo en un caso particular contenga la
verdadera proporción de droga no se puede conocer.
Un intervalo de confianza es válido, como método de inferencia, ba-
sándose en la interpretación frecuentista de la probabilidad. Por ejemplo,
consideremos un intervalo del 95% de confianza para una proporción. La
probabilidad con la que un intervalo de confianza del 95% contenga el ver-
dadero valor de la proporción es desconocida. Sin embargo, supongamos
que el experimento que generó el intervalo del 95% de confianza se repite
muchas veces (en idénticas condiciones, una estipulación teórica que es
imposible de cumplir en la práctica) y en cada una de ellos se calcula un
intervalo de confianza del 95% para el verdadero valor de la proporción.
Entonces, puede decirse que el 95% de esos intervalos de confianza del
95% contendrán el verdadero valor de la proporción. Esto no prueba que
un intervalo del 95% concreto de los experimentados tenga el verdadero
valor de la proporción, ni siquiera será posible determinar la probabilidad
de que contenga al verdadero valor de la proporción (Kaye, 1987).
También se pueden obtener intervalos de confianza para la verdadera
proporción auxiliándose de un modelo binomial. Consideremos un inter-
valo de confianza del 95% y un modelo binomial. El punto 97.5% de una
distribución Normal es 1.96, de este modo podemos tener un 95% de con-
fianza de que la verdadera proporción caiga dentro de 1.96 desviaciones es-
tándar de la proporción muestral. Representaremos a la proporción mues-
tral x/n mediante p̂ . La desviación estándar muestral se estima mediante
1/ 2
la ecuación: (p̂(1 − p̂) / n ) , (habiendo reemplazado θ por p̂ ). El intervalo
de confianza del 95% para la verdadera proporción de θ es:
1/ 2
p̂ ± 1.96 (p̂(1 − p̂) / n ) (5.14)
234 Inferencia bayesiana
⎛n⎞
Pr(X = x | n, γ) = ⎜⎜ ⎟⎟ γ x (1 − γ ) n − x (5.16)
x ⎝ ⎠
⎛ n − 1 ⎞ x0
Pr(X = x0 | n, γ) = ⎜⎜ ⎟⎟ γ (1 − γ ) n − x0 (5.17)
⎝ x 0 − 1⎠
(x / n) ± 1.96 3
(5.18)
pero estaría sujeto a las habituales críticas contra los intervalos de confianza.
El enfoque de la verosimilitud considera como un estimador de interva-
lo de γ todos los valores de γ para los que L(γ) sea más grande que alguna
fracción de L( γ̂ ). En Royall (1997) se citan ejemplos para 1/8 y 1/32; el es-
timador de intervalo de γ se correspondería con aquellos valores de γ para
los cuales L(γ) > L( γ̂ ) / 8 y L(γ) > L( γ̂ ) / 32, respectivamente. Los valores de
8 y 32 son sugeridos por Royall como valores para definir estimadores de
intervalos de parámetros tal que para valores de γ que caigan fuera de los
intervalos, los datos proporcionen evidencia moderadamente fuerte o fuer-
te a favor de γ̂ frente a γ.
El uso de tales adjetivos para el apoyo de γ̂ no debe confundirse con los
adjetivos dados en la Tabla 3.10 para los valores de LR. Consideremos el
valor 8, y valores de γ para los cuales L(γ) > L( γ̂ ) / 8; éstos caen dentro del
238 Inferencia bayesiana
intervalo (γ1, γ2) (ver figura 5.2). Si γ cae en el intervalo (γ1, γ2) entonces no
hay valor alternativo a γ, digamos γ̂ , para el cual las observaciones (x, n) (tal
que γ̂ = x / n) representen moderadamente fuerte evidencia a favor de γ̂
frente a γ. Para un valor de γ fuera de (γ1, γ2) hay, al menos, un valor alterna-
tivo, llamémosle γ̂ , que es mejor soportado para un valor mayor de 8. Los
extremos de la línea horizontal de la Figura 5.2 son (γ1, γ2) para el ejemplo
x = 6, n = 30. Para este ejemplo, el valor máximo de L(γ) es:
30 6 24
L(0.2) = 0.2 0.8 = 0.179.
6
Los extremos del intervalo a favor de fuerte evidencia son los valores (γ1,
γ2), para los cuales L(γ1) = L(γ2) = L(0.2) / 8 = 0.022. Estos puntos pueden ve-
rificarse para que γ1 = 0.081 y γ2 = 0.372. Hay, además, muy fuerte evidencia
para una muestra de tamaño 30 en la que hay 6 “éxitos” de que la verda-
dera proporción de éxitos en la población de la que se extrajo una muestra
binomial esté en el intervalo (0.081, 0.372).
El intervalo correspondiente del 95% utilizando la aproximación fre-
cuentista es:
Billetes relacionados
con investigaciones 382 80 462
de tráfico de drogas
Billetes de curso
562 430 992
corriente
p x (1 − p y )
θ= (5.19)
p y (1 − p x )
n 0.83 z (1 − 0.83) n −z z n −z
z 0.83 0.17
V= =
n 0.57 z (1 − 0.57) n −z 0.57 0.43
z
6.1 Introducción
6.2.1 Aprehensiones grandes
m = 4θ(1 – θ) / (0.25)2
∫θ
m + α −1
(1 − θ) β−1 dθ / B(m + α, β) = 0.95 (6.3)
0.5
∫θ
m + α −1
(1 − θ) β−1 dθ / B(m + α, β) = p (6.4)
θ
Elección del tamaño de la muestra 249
α β m
2 3 4 5
1 1 0.94 0.97
0.5 0.5 0.92 0.97 0.985 0.993
0.065 0.935 0.90 0.95 0.97
Pr(proporción > θ | α, β) = p
entonces:
α = log(1 – p) / log(θ)
6.2.2 Aprehensiones pequeñas
Enfoque frecuentista
Consideremos un enfoque frecuentista basado en la distribución hi-
pergeométrica (2.3). En Bates y Lambert (1991), así como en Faber y
otros (1999) se pueden encontrar ejemplos. Sea R = Z + Y el número
total de unidades en lo aprehendido que contienen droga, donde Z es el
número de unidades en la muestra de tamaño m con droga e Y el núme-
ro de unidades en el resto de lo aprehendido que contienen droga. En
este caso, la distribución de Z es hipergeométrica (ver la Sección 2.3.5),
con:
Elección del tamaño de la muestra 253
R N − R
z m − z
Pr( Z = z) = , z = 0,1 …, min(R,m)
N
m
Cuando z = m,
Distribución Beta-binomial
La interpretación bayesiana anterior no es tan clara como la basada en
la distribución Beta-binomial (2.7). La distribución Beta-binomial propor-
ciona una probabilidad sobre el número de unidades en lo aprehendido
que contienen droga.
Como anteriormente, sea θ (0 < θ < 1) la proporción de unidades en la
superpoblación que contienen droga. La distribución de probabilidad de z,
dados m y θ, podemos considerarla binomial. Para cada unidad, indepen-
dientemente del resto de las unidades en la aprehensión, la probabilidad
254 Muestreo
5 5
6
5
5 y
Pr(Y ≥ 2 | 5,5,5,1,1) = ∑ = 0.985.
y=2 10
11
5 + y
La distribución hipergeométrica tiene la interpretación de que si m = z = 5,
tenemos el 92% de confianza de que θ ≥ 0.7. El enfoque Beta-binomial nos
permite asignar una probabilidad de 0.985 al suceso θ ≥ 0.7.
Respecto a grandes aprehensiones, podemos elegir subjetivamente va-
lores para α y β para representar las creencias a priori del experto antes
de la inspección acerca de la proporción de unidades en lo aprehendido
que contengan droga (a modo de muestra aleatoria de una superpobla-
ción).
Se pueden obtener resultados generales. El problema radica en elegir m
de modo que, dados n, α y β (y posibles valores para z, consecuentes con la
elección de m y el resultado de la inspección), pueda elegirse un valor de y
que satisfaga algún criterio probabilístico —por ejemplo, el valor y0 tal que
Pr(Y ≥ y0 | m, n, z, α, β) = p. En Aitken (1999) se ofrecen resultados para p = 0.9,
donde el tamaño de lo aprehendido, N, es 30.
Si el número de unidades inspeccionadas es 6 y una o dos no contienen
droga, el número de unidades en el resto de la aprehensión que contienen
droga, con una probabilidad de 0.9, cae de 17 a entre 12 y 9. Incluso si 16
unidades (de 30 en total) se inspeccionaran y todas contuvieran droga, sólo
podría afirmarse que existe una probabilidad de 0.9 de que 12 de las 14 res-
tantes contendrían droga (incluso con α = 4 y β= 1).
Estos enfoques dirigidos a estimar el tamaño de la muestra asumen que
la clasificación de las unidades como lícitas o ilícitas está libre de error.
Resulta obvio que esta asunción es deseable. Un beneficio adicional de esta
asunción es que la distribución a posteriori de la proporción de unidades
ilícitas en la aprehensión es robusta para elegir los parámetros a priori. Si
existe la posibilidad de clasificar erróneamente la distribución a posteriori
ya no resulta robusta para la elección de los parámetros a priori. Esa situa-
ción no se trata aquí, pero pueden encontrarse detalles en Rahne y otros
(2000). En Faber y otros (1999) puede hallarse un enfoque frecuentista uti-
lizando la distribución hipergeométrica, con una adaptación para tener en
cuenta tanto falsos positivos como falsos negativos.
En Curran y otros (1998b) se pueden encontrar aplicaciones de estas
ideas al muestreo de fragmentos de cristal.
256 Muestreo
6.3 Estimación de la cantidad
6.3.1 Enfoque frecuentista
s ( N − m) s ( N − m)
x − t ( m −1; α / 2 ) ≤ µ ≤ x + t ( m −1; α / 2 )
m N m N
( N − m)
donde es el factor fpc y el intervalo es 100(1 – α)% de intervalo
N
de confianza para la cantidad media por unidad.
El intervalo de confianza correspondiente para Q, la cantidad total de
droga en la aprehensión, se obtiene multiplicando todas las entradas en las
desigualdades por Nθ̂ , donde θ̂ es un estimador de θ basado en el tamaño
de la muestra m. Esto proporciona un intervalo de confianza del 100(1 – α)%
para Q, (expresión (9) de Tzidony y Ravreboy, 1992):
s ( N − m) s ( N − m) (6.7)
Nθˆ x − t ( m −1; α / 2 ) ≤ Q ≤ Nθˆ x + t ( m −1; α / 2 )
m N m N
s ( N − m)
Nθˆ x − t ( m −1; α / 2 ) ≤Q (6.8)
m N
6.3.2 Enfoque bayesiano
f ( w | x , s) = ∫ f ( w | µ, σ 2 )f (µ, σ 2 | x , s) dµ dσ 2
otros (1997) se aportan sugerencias sobre cómo llevarlo a cabo, con refe-
rencia al caso de los Estados Unidos contra Pirre.
Se aprehenden m + n (=N) unidades. Se examinan m. La elección de m
se puede hacer siguiendo los procedimientos descritos en la Sección 6.2.
Tras el examen se encuentran z (≤ m) unidades con droga, y (m – z) sin ella.
Los contenidos de las z unidades que contienen droga son pesados y regis-
trados sus pesos (x1, …, xz). Las restantes unidades, n, no se inspeccionan.
Las cifras de m, z y n se conocen.
Primeramente tengamos en cuenta una aprehensión pequeña. Y(≤ n) ex-
presa el número desconocido de unidades no examinadas que contienen
droga. Se puede estimar esa cantidad. Siguiendo los métodos descritos en
la Sección 6.2 se puede determinar una función de probabilidad para Y. Un
promedio ponderado de las cantidades obtenidas para cada uno de los po-
sibles valores de Y se puede alcanzar partiendo de los pesos de las probabi-
lidades de Y obtenidas de una distribución Beta-binomial apropiada (2.7).
Sean (X1, …, Xz) y (W1, …, Wy) los pesos de los contenidos de droga
de las unidades inspeccionadas y no inspeccionadas, respectivamente. Se
z
asume que esos pesos están Normalmente distribuidos. Sean X =
y
∑X / z
i =1
i
Q = z x +Y W
i =1
i =1 j =1
varianza de las medidas sobre las unidades inspeccionadas que contenían
droga. En ausencia de información apriorística sobre la media o varianza
de la distribución de los pesos de la droga en las unidades que la contie-
nen, se puede utilizar una distribución apriorística uniforme. La función
w−x
de densidad de probabilidad de ( w | z, y, x , s2) es tal que 1 1 es una
s +
z y
distribución t-Student con z – 1 grados de libertad. Se pueden determinar
260 Muestreo
1 1
w = x + st ( z −1; α ) + (6.9)
z y
Para una aprehensión pequeña, el valor de y es una realización de una
variable aleatoria que tiene una distribución Beta-binomial (2.7). La distri-
bución de ( w | z, y, x , s2) puede combinarse con (2.7):
n
Γ(m + α + β) Γ( y + z + α)Γ(m + n − z − y + β)
Pr(Y = y | m, n , z, α, β) = y ( y = 0,1,..., n )
Γ(z + α)Γ(m − z + β)Γ(m + n + α + β)
donde Γ(x+1) = x! para enteros de x > 0, y Γ(1 / 2) = √π, para obtener una
distribución ( w | s2, x , z). La distribución y la correspondiente función de
densidad de probabilidad de Q pueden determinarse por la relación Q = z
x + y W . Sea ft,z–1(.) la función de densidad de probabilidad de la distribu-
ción t-Student con z – 1 grados de libertad. La función de densidad de pro-
babilidad f(q) de Q viene dada por:
−1
n
q − ( z + y ) x 1 1
f (q ) = ∑ f t , z −1 sy + Pr(Y = y) (6.10)
y=0 sy 1 + 1 z y
z y
(Aitken y Lucy, 2002)
Figura 6.4. Probabilidad de que la cantidad total de droga Q (en gramos) en una
aprehensión de 2600 unidades sea mayor que q cuando se examinan 6 unidades y se
encuentran con droga 6 (curva sólida), 5 (curva a rayas) o 4 (curva de punto y raya).
La media y desviación estándar de las cantidades encontradas en las unidades ins-
peccionadas que contenían droga fueron 0.0425 gr. y 0.0073 gr. Los parámetros de la
a priori Beta son α = β = 1. (Reimpreso con permiso de ASTM International).
264 Muestreo
6.4 Evidencia engañosa
La suma del lado derecho ∑ Pr(X = x | A) no será mayor que 1 pues se tra-
x∈S
ta de una suma de probabilidades mutuamente excluyentes. De este modo,
n
1
f 2 n = ∏ (2πσ 2 )
−1 / 2
exp− ( x i − θ2 ) 2 =
i =1 2σ 2
1 n
(2πσ 2 ) − n / 2 exp− ∑
2σ 2 i =1
( x i − θ2 ) 2
n
1
f1n = ∏ (2πσ 2 )
−1 / 2
exp− ( x i − θ1 ) 2 =
i =1 2σ 2
1 n
(2πσ 2 ) − n / 2 exp− ∑
2σ 2 i =1
( x i − θ1 ) 2
f2n 1
= exp− [∑ (x i ]
− θ2 ) 2 − ∑ ( x i − θ1 ) 2 =
f1n 2σ 2
n (θ2 − θ1 ) θ + θ2
exp x − 1
σ 2
2
f ∆ n σ log e (k )
Pr1 2 n > k = Φ − − ,
f1n 2σ ∆ n
donde ∆ = |θ2 – θ1| y el subíndice 1 asociado con Pr indica que la primera
proposición es considerada cierta. Con análoga notación, Pr2 indicaría que
Evidencia engañosa 269
f ∆ n σ log e (k )
Pr1 2 n > k = Φ − −
f1n 2σ ∆ n
f f ∆ n σ log e (k )
M (n ) = Pr1 2 n > k = Pr2 1n > k = Φ − − (6.11)
f f 2σ ∆ n
1n 2n
1 f 1 f
W (n ) = Pr1 < 2n < k = Pr2 < 2n < k = F2 (k ) − F2 (1 / k ) =
k f1n k f1n
∆ n σ log e (k ) (6.12)
= Φ − + − M(n )
2σ ∆ n
Supongamos que se decide que fuerte evidencia (bien soportando Hp, bien
soportando Hd) es aquélla que supere el valor de 8, y que es tolerable tener una
probabilidad de fuerte evidencia engañosa que no supere el 0.005 y una proba-
bilidad de evidencia débil no superior a 0.05. Estos criterios se satisfacen con
un tamaño muestral de 10. Esto se deduce de la inspección de la Tabla 6.5, en
la fila k = 8 y columnas M(10) y W(10) donde los valores de las correspondien-
tes celdillas son 0.0046 (<0.005) para M(10) y 0.0481 (<0.05) para W(10).
Una probabilidad de 0.005 de fuerte evidencia engañosa es la probabili-
dad de que haya fuerte evidencia de que los fragmentos de cristal sobre la
ropa del sospechoso puedan proceder de la ventana de la escena del crimen
272 Muestreo
cuando en realidad procedían del vaso, o que puedan proceder del vaso
cuando en realidad procedían de la ventana de la escena del crimen.
Se pueden contemplar otras aplicaciones. Por ejemplo, consideremos
el muestreo de una aprehensión de drogas, como la descrita en la Sección
6.2. El tamaño muestral n se determina por el criterio de satisfacer una
probabilidad pre especificada de que la verdadera proporción de droga en
lo aprehendido sea mayor de un determinado valor pre especificado.
En contraste con este criterio, consideremos dos proposiciones sobre la
posible fuente de lo aprehendido:
• Hp: las drogas proceden de una fuente con cantidad media de droga
por tableta de θ1;
• Hd: las drogas proceden de una fuente con cantidad media de droga
por pastilla de θ2.
Podemos elegir el criterio k de fuerte evidencia. Entonces, las proba-
bilidades de evidencia fuertemente engañosa y de evidencia débil pueden
determinarse.
En la Sección 6.3.2 se describió un procedimiento para estimar la can-
tidad de droga en una aprehensión, basándose en una muestra. Este pro-
cedimiento podría adaptarse para estimar la cantidad media de droga por
pastilla en una aprehensión.
Hay, de este modo, dos procedimientos. En el primero se determinan las
probabilidades de fuerte evidencia engañosa y evidencia débil en una etapa
valorativa previa antes del muestreo para comparar las dos proposiciones
sobre la fuente de lo aprehendido. En el segundo, se obtiene una estima-
ción de la cantidad de droga existente en lo aprehendido, sin referencia a la
fuente de lo aprehendido.
Los resultados del muestreo se pueden utilizar en la determinación del
LR que evalúe la evidencia de la aprehensión soportando Hp o Hd.
También resulta posible determinar el tamaño de la muestra a partir de
los criterios relacionados con M(n) (6.11) y W(n) (6.12). Esto puede pro-
porcionar un tamaño muestral distinto del explicado en la Sección 6.2. Sin
embargo, los dos conjuntos de criterios están diseñados para responder a
dos cuestiones distintas y, de este modo, pueden dar diferentes respuestas.
Los criterios basados en M(n) (6.11) y W(n) (6.12) están diseñados para
comparar dos proposiciones sobre el valor medio. El criterio de la Sección
6.2 está diseñado para satisfacer una probabilidad preespecificada de que
la verdadera proporción de droga en la aprehensión supere un determina-
do valor preespecificado.
Capítulo 7
Interpretación Interpretación
7.1.1 Población relevante
y otros (2003) en una discusión sobre tasas de error en análisis de ADN, del
que se dan más detalles en los Capítulos 13 y 14. El contexto que se tiene en
cuenta aquí, desde el punto de vista de la proposición del Fiscal, es que el
sospechoso es la fuente de la evidencia.
A continuación se presentan algunas sugerencias sobre cómo expresar
las apuestas a priori a favor de la proposición del Fiscal:
• 2:1 – otra evidencia anterior a la actualmente considerada es mode-
radamente fuerte pero, probablemente, no suficiente por sí misma
para sugerir que el sospechoso sea la fuente.
• 1:10, 1:100 – otra evidencia sugiere la posibilidad de que el sospecho-
so sea la fuente sin que haya una fuerte razón para creer en ello.
• 1:1000 – apenas hay otra evidencia además del vestigio.
Hay también algunas ideas que ayudan a cómo expresar las apuestas a
posteriori a favor de la proposición del Fiscal. Por ejemplo:
• ¿Qué significa la frase “más allá de la duda razonable”?
• Como se trató en la Sección 3.5.6, en un cuestionario se interpreta
la frase “más allá de la duda razonable” como variando entre 0.8 y
0.99 (Simon y Mahan, 1971).
• Puede suceder que un Jurado exija, en función de la severidad de la
sentencia, estar más convencido de la culpa en un caso importante
que en un caso de poca importancia antes de dar su veredicto.
• La frase “es mejor que diez culpables escapen que un inocente sea
condenado” (Blackstone, citado por Ceci y Friedman, 2000) ha sido
a veces utilizada, y equivale a una apuesta de 10:1.
• La frase “es mejor que noventa y nueve culpables sufran condena
que un inocente sea condenado” (Starkie, citado por el Tribunal
Supremo de los Estados Unidos, 1995) ha sido utilizada, y es equi-
valente a una apuesta de 99:1.
La cita de Jaynes (2003) en la Sección 3.5.6 es particularmente adecuada
aquí, y una parte en particular merece ser repetida: “si Vd. fuera un Juez,
¿preferiría mirar a la cara a alguien a quien hubiera condenado falsamente
o a 100 víctimas de crímenes que pudieran haberse evitado?”.
Aún puede que necesitemos alguna ulterior interpretación sobre las apues-
tas a priori y a posteriori. En la Sección 3.5.3 se expuso una aproximación con-
sistente en una escala de poblaciones propuesta por Aitken y Taroni (1998). La
escala está basada en una escala logarítmica para las apuestas a priori y a pos-
teriori, lo que nos permite manejar fácilmente grandes probabilidades. Los
logaritmos (en base 10) se relacionan con poblaciones que el Jurado será ca-
paz de relacionar con más facilidad que con las probabilidades originales. El
rango de tamaño de las poblaciones va desde un individuo, con log(apuesta)
276 Interpretación
7.1.3 Combinación de evidencias
7.1.4 Casos específicos
1
Pr(H p ) = ,
200.000
Pr(H p ) 1 1
= ≅
Pr(H d ) 199.999 200.000
Las otras dos evidencias, la identificación (I1) y la coartada (I2), fueron
calculadas como sigue:
278 Interpretación
donde Pr(E | Hp) / Pr(E | Hd) puede tomarse como 200 millones (la sugeren-
cia de la acusación) o 2 millones (la mínima de las sugerencias de la defen-
sa). Estos resultados conllevan una apuesta a posteriori de 56 a 1 (200 / 3.6)
a favor de la culpabilidad, y 1.8 a 1 a favor de la inocencia. Estas apuestas a
su vez, conllevan una probabilidad a posteriori de culpabilidad en el inter-
valo 0.98 (56/57) a 0.36 (1–(1.8/2.8)). La defensa argumentó tomando como
referencia estas cifras, que no había pruebas de culpabilidad ‘más allá de la
Conceptos y casuística pericial 279
Sin embargo, el caso de R. contra Smith, con los mismos jueces y el mismo
día que Lashley, fue tratado de forma diferente. Él fue condenado por robo en
una oficina postal de Barley, Hertfordshire. La principal evidencia en su con-
tra fue una coincidencia de ADN (con probabilidad de 1 entre 1.25 millones),
que (como en Doheny) le consideraba sospechoso junto con otros 43 varones
en el Reino Unido. Su apelación fue anulada porque la evidencia de ADN ‘no
era suficiente por sí sola porque había también una clara evidencia de que este
hombre había sido arrestado a una cortísima distancia del hecho.’
Smith fue arrestado en un lugar llamado Potton, a 13 millas de Barley.
Un radio de acción centrado en Barley con Potton como frontera encierra
varias ciudades y, tras una valoración aproximada, unos 80.000 hombres
con edad adecuada vivían por lo menos tan cerca de Barley como Smith.
Esta cifra podría usarse para proporcionar una apuesta a priori de 1 en-
tre 80.000 contra la culpabilidad de Smith. Esto puede combinarse con la
evidencia de ADN para dar una probabilidad de culpabilidad de 0.94. Si se
considera que como mínimo, debería ser 16 veces mayor condenar a un
inocente que absolver a un culpable, Smith entonces no sería condenado.
Esta sería la situación con la sentencia Blackstone, pero no con la senten-
cia Starkie, ambas citadas en la Sección 7.1.2.
Asimismo, Smith provenía de una familia numerosa —su padre tenía
13 hermanos y hermanas. El Tribunal de Apelación no se interesó por esto.
Como en R. contra Adams, D.J., no había pruebas para implicar a los fa-
miliares, pero, aparte del ADN (y la geografía), tampoco había evidencia
para implicar a Smith. Si se asumiera que todos los miembros de la po-
blación de los posibles sospechosos tuvieran la misma probabilidad de ha-
ber cometido el crimen, entonces, cualquiera de los familiares entre esa
población sería, antes de la prueba de ADN, tan probablemente culpable
como cualquier otra persona. Los familiares tendrían más probabilidades
de coincidencia que otros miembros de la población y esto no debería ser
ignorado (Lempert, 1991, 1993; Balding, 2000; Redmayne, 2002; ver tam-
bién la Sección 13.6).
R contra Clark
Resumen
7.2.1 Niveles de Proposición
7.2.3 Prevaloración de la evidencia
7.3.4 Reconocimiento de locutores
7.3.5 Pelo
n!
Pr(E | H p ) = p1n 1 ...p nk k ,
n1!...n k !
que es un ejemplo de la distribución multinomial (Sección 2.3.4).
Cuando H d es verdadera, las probabilidades q i no pueden utilizarse.
Estas probabilidades son sólo aplicables si todos los pelos proceden de
fuentes distintas. Representan la variabilidad de la característica X dentro
de la población aproximada por la base de datos. Sin embargo, se requiere
una variabilidad intra-individual. La base de datos debe contener archivos
de tal manera que cada uno se corresponda con una fuente y contenga las
frecuencias relativas de las categorías {x i , i = 1,..., k}dentro de esa fuente.
Sea N el número de archivos dentro de la base de datos y representamos
por qti a la frecuencia relativa de x i dentro del t-ésimo archivo. Entonces
la probabilidad de la evidencia, dado que H d es cierta, es estimada por el
304 Interpretación
7.3.6 Documentos
26 4 22
0.2 0.8 = 14950 x0.0016 x0.0074 = 0.176
4
7.3.7 Sobres
7.3.8 Escritura manuscrita
42
× 30 = 25830
2
n
m 0 / × m .
2
m
n
1
m 0 / × m .
2 30
1
Para el caso del testamento de Howland, ésta es aproximadamente ,
5
un número muy pequeño. Meier y Zabell (1980) estudian críticamente los
méritos de este procedimiento con particular referencia a la asunción de
independencia. La inferencia es que la firma dubitada es una copia y, por
tanto, una falsificación de una firma conocida. El número de coincidencias
en características puede considerarse como una medida de distancia entre
dos firmas. Cuanto mayor sea el número de coincidencias, más similares
son.
Otro enfoque, ejemplificado por un estudio conducido por Srihari y
otros (2002) en el examen de documentos con escritura manuscrita, utiliza
una medida de distancia donde cuanto menor sea la distancia, más simila-
res son las escrituras manuscritas de los documentos comparados. El obje-
tivo del estudio fue obtener un conjunto de muestras de escritura manus-
crita que recogieran las variaciones en la escritura inter e intra-escritores.
Esto precisó recoger muestras de escritura manuscrita de múltiples escri-
tores además de múltiples muestras por cada escritor.
La población a la que el estudio se ajustó debía ser tan representativa de
la población de los Estados Unidos como fuera posible. La base de datos
tenía unas 1500 personas. Se midieron varias características. Los datos de-
rivados de esas características eran multivariantes. Para más detalles acer-
ca del análisis multivariante de datos consúltese el Capítulo 11. Nótese, en
particular, que hay un cambio de notación para datos multivariantes. Para
datos univariantes, los datos de control se representan por x, los datos re-
cuperados por y, y los datos de contexto por z. Para datos multivariantes,
los datos de control se representan mediante y1 y los datos recuperados me-
diante y2. Los datos de contexto se representan mediante x. El ejemplo aquí
tratado sobre datos multivariantes en escritura manuscrita es puramente
ilustrativo. Las características medidas incluyen la presión ejercida sobre
el bolígrafo, movimientos de la escritura, la formación del trazo, inclina-
ción y altura. A partir de estas características, pueden derivarse los vecto-
res asociados en la muestra a cada escritor. Consideremos dos escritores
( T
) ( ) T
con sus correspondientes vectores y11,..., y1p y y21,..., y 2 p , donde p es el
número de características bajo consideración. La distancia entre los es-
p 2
critores puede definirse mediante la distancia Euclídea ∑ (y1i − y 2i ) ,
i =1
Estimación del valor de diferentes tipos deevidencia 311
f p (y1 , y 2 | H p )
, (7.3)
f d (y1 , y 2 | H d )
s
Pr( Wl* | y ) = f l* (y | Wl* ) / ∑ f l (y | Wl ),
l =1
s
Pr( Wl* | y ) = f l* (y | Wl* ) × Pr( Wl* ) / ∑ f l (y | Wl ) × Pr( Wl ).
l =1
Los dos enfoques tratados aquí (Srihari y otros, 2002; y Meier y Zabell,
1980) ilustran un método estándar de valoración de la evidencia cuando no
hay bases de datos de la población y no existe un modelo subyacente con el
que desarrollar una razón de verosimilitud. Ambos enfoques conllevan:
• desarrollar un estadístico para estimar la similitud entre dos ele-
mentos de significancia evidencial;
• desarrollar una base de datos de medidas (digamos, x1 ,..., x N ) de
esos estadísticos para elementos de origen conocido;
• desde la base de datos, construir una distribución empírica para el
estadístico;
• determinar la medida ( x 0 ) del estadístico para los dos elementos
de significancia evidencial;
• considerar x 0 en el contexto de la distribución empírica.
La probabilidad promedio, como se describe en Gaudette y Keeping
(1974) y en la Sección 4.5.2, proporciona una medida de cómo de bueno es
un tipo particular de evidencia discriminando elementos que provienen de
distintas fuentes. Esto se determina haciendo muchos pares de compara-
ciones y contando la proporción de éstas en las que no es posible distinguir
Estimación del valor de diferentes tipos deevidencia 313
7.3.9 Pintura
Cuanto mayor sea este estadístico, más información hay en los datos.
De este modo, mejor será el tipo de evidencia determinando el valor de
encontrar un cotejo positivo (en algún sentido) entre evidencias del mismo
tipo encontradas en la escena del crimen y sobre un sospechoso en casos
futuros.
Se ha tener precaución con tal interpretación por tres razones. La pri-
mera se relaciona con la asunción de independencia entre las variables que
han sido consideradas. No es suficiente considerar tan solo correlaciones
y descartar una de las dos variables que estén perfectamente correladas.
La Figura 4.1 muestra dos mediciones (llamadas variable 1 y variable 2) de
ocho elementos en cada uno de los dos grupos de datos, indicadas por un
triángulo ∆ y una circunferencia ○. Separadamente, están positivamente
correladas. Juntas, ignorando el agrupamiento, tienen una correlación de
0.9. Las medidas de la variable 1, por sí mismas, no discriminan entre los
dos grupos. Ocurre lo mismo con las medidas de la variable 2. Sin embar-
go, las medidas de la variable 1 y la variable 2 proporcionan una perfecta
discriminación.
La segunda razón para tener cuidado es la subjetiva elección del nú-
mero de celdillas elegido para el histograma de cada una de las variables.
Cuantas más celdillas se elijan para cada variable, mayor será el contenido
de información. Sin embargo, es difícil determinar el número óptimo de
celdillas que deben elegirse. Si hay demasiadas celdillas, puede que resul-
ten adecuadas para los datos presentes pero pobres para predecir datos
futuros. Si hay demasiado pocas, puede que se ajusten pobremente a los
datos y también tener escasa capacidad de predicción del futuro.
La tercera razón para tener precaución es que no todas las n1 × … × nk
celdillas en el conjunto de los datos combinados son equiprobables. Como
ejemplo extremo diríamos que algunas combinaciones de celdillas pudie-
ran estar vacías como consecuencia de la correlación entre las variables y,
por tanto, no proporcionan información pero se añaden al valor del esta-
dístico contenido de información.
El contenido de información responde a una ‘cuestión previa a los datos:
¿cuál es la probabilidad de que pueda cometerse un error si se lleva a cabo
este procedimiento de cotejo positivo?’ (obsérvense las correspondencias
en Curran y otros (1999a), y en Koons y Buscaglia (1999b)).
316 Interpretación
que f(φ|x+α, n–x+β) sea una función de densidad) puede determinarse con
referencia a (2.21):
θ α −1 (1 − θ) β −1 , con 0 < θ < 1, siendo la función
Be(α, β) = f (θ | α, β) =
B(α, β)
Beta la siguiente expresión:
Γ(α)Γ(β)
B(α, β) = , donde Γ(x+1) = x!, con x > 0; y Γ(1 / 2) = √π
Γ(α + β)
y en este ejemplo es igual a: 1 / B(x+α, n–x+β); es decir, el primer término
de la función Beta es uno más que la potencia de φ y el segundo término de
la función Beta es uno más la potencia de (1 – φ).
En las Tablas 7.4 y 7.5 se muestran algunos valores ilustrativos de φ0
para diferentes valores de n y γ. Se asume que α = β = 1 y que X = 0.
n γ
0.01 0.001
250 0.0182 0.0271
600 0.0076 0.0114
900 0.0051 0.0076
n γ
0.01 0.001
250 54 36
600 131 87
900 196 131
criminal, se puede decir que, con referencia a la última fila de la Tabla 7.5,
hay una probabilidad de:
• 0,99 de que el LR para la evidencia de que la huella de oreja del
sospechoso sea indistinguible de la marca de oreja de la escena del
crimen sea mayor de 196;
• 0,999 de que el LR para la evidencia de que huella de oreja del sos-
pechoso sea indistinguible de la marca de oreja de la escena del cri-
men sea mayor que 131.
Nótese que este análisis no es específico para un caso particular. La úni-
ca evidencia utilizada ha sido el tamaño de la base de datos (900) y el hecho
de que la huella de oreja del sospechoso se distingue de todas las existentes
en la base de datos. Si el examen de cualquier futura base de datos propor-
ciona ejemplos donde se encuentran huellas de oreja indistinguibles, en-
tonces el análisis debe modificarse para permitir esta circunstancia. Todas
las 900 huellas de oreja han sido consideradas distintas entre sí. Esto es:
(900 × 899) / 2 ó 404.550 comparaciones por parejas posibles. Como pudo
verse en la Sección 4.5, esa cantidad es el poder de discriminación del tipo
de evidencia y es una medida previa a los datos del valor de la evidencia.
Finalmente, el asunto sobre lo que es o no distinguible es algo que com-
pete a un experto y descansa considerablemente en el grado de pericia del
mismo realizando esa tarea.
Capítulo 8
Evidencia de transferencia Evidencia de transferencia
8.1.1 Probabilidad de culpabilidad
Así,
Pr(Hp | E1, E2) = (0.49 / 0.09) / (1 + (0.49 / 0.09)) = 0.49 / 0.58 = 0.84 > 0.7
Por tanto, si las apuestas a priori son iguales y si las dos evidencias son
independientes, condicionadas a las hipótesis de culpabilidad o inocencia,
respectivamente, entonces la intersección de E1 y E2 refuerza la probabili-
dad de culpabilidad.
8.1.2 Justificación
Pr(E,T | Hp) = Pr(E | Hp) Pr(T | Hp) = Pr(E | Hp) Pr(T) = θx.
f(θx,θy) = f(x,y)
V12 = V1 × V2
Tabla 8.1 Probabilidades de las evidencias en el caso del Estado contra Klindt (alteradas con
fines ilustrativos) de Lenth (1986)
P Q R S
Por tanto:
De la Tabla 8.1:
y Pr(P | E ) = 0.998.
Las probabilidades a posteriori de la Tabla 8.1 se han calculado asu-
miendo que Pr(P) = Pr(Q) = Pr(R) = Pr(S) = 1 / 4. Si esas probabilidades
no fueran iguales, las probabilidades a posteriori tendrían que calcularse
teniendo en cuenta los valores relativos de las cuatro probabilidades indi-
viduales. Por ejemplo:
∑i = 2 pi = 1 − p1 , y
n
con
8.2 Probabilidades de correspondencia
8.3 Dirección de transferencia
consultar más abajo y en Stoney (1991a). Sin embargo, a pesar de esta pro-
piedad, aún se necesita reconocer la posible importancia de la dirección de
la transferencia de la evidencia. Evett (1984) aporta resultados generales.
Observemos la Tabla 8.2. Notemos que sólo 800 / 20.000 (4%) de la po-
blación general tienen el genotipo Γ, mientras que 700 / 1.000 (70%) de la
etnia ruritana tienen el genotipo Γ, satisfaciendo la descripción anterior.
334 Evidencia de transferencia
V = Pr(E | Hp) / Pr(E | Hd) = Pr(Er, Es, Ec | Hp) / Pr(Er, Es, Ec | Hd)
Pr(Er, Es | Hp, Ec) Pr(Ec | Hp) / Pr(Er, Es | Hd, Ec) Pr(Ec | Hd)
V = Pr(Er | Hp, Ec) Pr(Es | Er, Hp, Ec) / Pr(Er | Hd, Ec) Pr(Es | Er, Hd, Ec)
7
×1
V= 8
1 7
×
20 10
7/8 200
= =
7 / 200 8
Pr(Ec | Hp, Er, Es) Pr(Er, Es | Hp) / Pr(Ec | Hd, Er, Es) Pr(Er, Es | Hd)
El numerador Pr(Ec | Hp, Er, Es) de esta razón es igual a 1. Se asume que
el sospechoso estuvo presente en la escena del crimen (Hp), que es Ruritano
(Er) y su genotipo es Γ (Es). La información de contexto I, implícitamente
asumida, es que el sospechoso dejó la mancha de sangre en la escena del
crimen. De este modo, dado Es, Pr(Ec | Hp, Er, Es) = 1. (Recuérdese que si el
contacto entre sospechoso y escena del crimen tuvo lugar, se asume que el
sospechoso fue quien dejó la mancha del crimen).
Si se asume que el sospechoso es inocente (Hd), la información de que es
Ruritano y de genotipo Γ (Es) no es relevante para calcular la probabilidad
de que la mancha del crimen sea del genotipo Γ. Así, la estimación usada
para dichas probabilidades es 800 / 20.000 (8 / 200), que es la proporción
del grupo Γ en la población general. Entonces:
Pr(E c | H d , E r , E s ) = 8 / 200,
V = 200 / 8.
La mancha en la escena del crimen puede que no haya procedido del cri-
minal (Ver Sección 9.5 para una más detallada discusión sobre esta idea,
que se conoce como relevancia; ver también Stoney, 1991a, 1994). De esta for-
ma, la probabilidad de que el genotipo del sospechoso sea Γ, dado que es
Ruritano (Er) y que hubo contacto (Hp), es la frecuencia relativa del grupo
Γ entre los Ruritanos, que es 700 / 1000 (7 / 10). Así:
Las probabilidades del denominador tienen los mismos valores que an-
tes, es decir, Pr(Er | Hd, Ec) = 1 / 20, y Pr(Es | Hd, Er, Ec) = 7 / 10. Por consi-
guiente V = 1. En el presente caso, la evidencia no tiene valor probatorio
alguno puesto que la mancha pudiera haber provenido de otra fuente. Se
puede alcanzar el mismo resultado de V desde la perspectiva del sospecho-
so.
8.3.3 Probabilidades de transferencia
e − λ t λxt
Pr(X = x | λt) = , x = 0,1, ...
x!
t0 γ b1,1 + t1 b0
V = tn (1 – bi,m) / γ bi,m
donde:
• tn: es la verosimilitud de transferencia de pintura en el curso de un acci-
dente automovilístico, consistente en una capa de pintura superficial;
• bi,m: es la probabilidad de que un vehículo aleatoriamente seleccio-
nado tenga pintura de otro cualquiera sobre su superficie;
• γ: es la probabilidad de que la pintura procedente de vehículo aje-
no coincida con la del vehículo agredido (cuando se considere que
haya podido transferirse pintura del vehículo agredido al vehículo
del sospechoso).
McDermott y otros (1999) proporcionan los siguientes valores: tn = 0.8,
basándose en la experiencia, porque considera que, al menos, en el 80 % de
los accidentes investigados se encuentra pintura transferida entre vehícu-
los en forma de capa superficial; para bi,m fija un valor de 0.094, habiéndose
obtenido a partir de un estudio sobre vehículos dañados, en el que el 9.4%
presentaban pintura procedente de vehículos ajenos. Finalmente, para γ se
proporciona el valor de 0.127, siendo ésta la proporción de vehículos con
pintura sólida blanca. El valor de la evidencia es, entonces:
α + βO + γO = 1,
βO = (1 – α) pO (8.6)
α + βa + γa = 1,
βa = (1 – α) pa (8.7)
Dirección de transferencia 345
α + βb+ γb = 1,
βb = (1 – α) pb. (8.8)
α + βab + γab = 1,
po α + (1 – α) po2 + po γo = po.
p a α + (1 – α) pa2 + pa γa = pa.
p b α + (1 – α) pb2 + pb γb = pb.
p ab α + (1 – α) pab2 + pab γab = pab.
y sumando:
α + (1 – α) (1 – δ) + γ = 1, (8.10)
donde
α = 1 – (γ / δ)
CA(O) = p (1 – α) pa
CB(O) = p (1 – α) pb
CAB(O) = p (1 – α) pab
Ropa de personas
α + (1 – α) p0 (1 – α) pa (1 – α) pb (1 – α) pab 1
de tipo 0
Poblaciones:
los 122 sospechosos tenían sangre en sus ropas (45 / 122 = 0.369, el valor de p
utilizado por Gettinby, 1984). Hubo 22 sospechosos de los que se obtuvieron
grupos sanguíneos, cuatro de los cuales proporcionaron ropa con manchas
donde el grupo difería del grupo del donante; esto proporciona un valor de
4 / 22 = 0.182 para γ, como el utilizado por Gettinby (1984). De los 122 sos-
pechosos, sólo cuatro (el 3.2%), con nueve artículos de ropa en total, tenían
sangre procedente de otras personas ajenas a su dueño. Ocho de los nueve
artículos procedieron de tres de los cuatro sospechosos, todos ellos con his-
torial delictivo violento. La conclusión de Brigss fue que la proporción de
personas con sangre en su ropa con grupo sanguíneo diferente al suyo pro-
pio es del 3.2%. El parámetro γ de Gettinby es la proporción de personas que
tiene sangre en su ropa de grupo sanguíneo distinto al suyo, siendo distin-
guibles las citadas manchas: si n es el número de personas con manchas de
sangre en sus ropas que no proceden de los que las llevan, y n0 es el número
de personas que tiene manchas de sangre en sus ropas que no son suyas y
cuyos grupos sanguíneos son distintos (y así es distinguible que provenga de
alguien más), entonces: γ = n0 / n.
Este ejemplo se refiere a grupos sanguíneos, habiéndose ya superado el
uso de este tipo de evidencias. Sin embargo, la idea subyacente de que las
frecuencias relativas de las características de las manchas sobre la ropa no
son necesariamente las mismas que las de las características de las man-
chas de la población relevante sigue siendo aún importante.
Owen y Smalldon (1975) informaron que de 100 pares de pantalones
examinados en la tintorería, 16 tenían manchas de sangre. Sin embargo,
no fue posible determinar si los grupos sanguíneos eran diferentes de los
de sus dueños. De 100 chaquetas, 5 tuvieron manchas de sangre. Respecto
a los pantalones, el 44% tenían manchas de semen. Los resultados de este
estudio puede que tengan escasa relevancia 30 años más tarde, pero los
principios del estudio apuntan hacia una importante área de investigación
futura.
8.3.4 Doble transferencia
crece notablemente.
Las probabilidades de información del caso respecto a cada una de las
direcciones de la transferencia pueden ser diferentes debido a la naturale-
za de los vehículos involucrados. Un coche procedente de una parte pobre
de la ciudad tendrá diferente probabilidad de tener pintura en el chasis que
otro procedente de una parte rica de la misma ciudad.
En los Capítulos 12 y 14 se entra en detalle sobre la doble transferencia
en casos de fibras (Champod y Taroni, 1999; Cook y otros, 1999) y fluidos
corporales (Aitken y otros, 2003).
8.4 Agrupamiento
n Percentiles
90% 95% 99%
r(0.10,n) r(0.05,n) r(0.01,n)
2 2.326 2.772 3.643
5 3.478 3.858 4.603
10 4.129 4.474 5.157
20 4.694 5.012 5.645
3. Calculamos el estadístico:
Tabla 8.5 Valores críticos λ(α, n) para muestras de tamaño n para grupos en los
que se ha aplicado el algoritmo divisivo de Triggs y otros (1997).
n Percentiles
90% 95% 99%
λ (0.10,n) λ (0.05,n) λ (0.01,n)
2 3.73 5.33 9.29
5 8.88 10.91 15.21
10 15.18 17.54 23.09
20 26.45 29.20 35.45
8.5 Poblaciones relevantes
y
Pr (E c | E s , H p )
V=
Pr (E c | E s , H d )
Asumamos que Pr(Ec | Es, Hp) = 1. Esto es razonable para datos frecuen-
ciales de grupos sanguíneos, por ejemplo. Entonces:
1
V= .
Pr(E c | H d )
y
Pr(E s | E c , H p )
V= .
Pr(E s | E c , H d )
356 Evidencia de transferencia
1
V= .
Pr(E s | H d )
1
V= . (8.12)
Pr(E tp | H d )
“La población relevante son aquellas personas que pudieron estar in-
volucradas; algunas veces puede sostenerse que el crimen debió haber
sido cometido por una particular clase de personas sobre la base de
la edad, sexo, profesión, u otro subgrupo cualquiera, y entonces es
cuando no es necesario tener en cuenta al resto, digamos, del Reino
Unido”.
con el ADN del sospechoso en los loci analizados pueda ser bastante baja, la
probabilidad de que al menos un miembro de la población relevante coincida
en ADN será sustancialmente más alta, porque los alelos de parientes no están
distribuidos de manera aleatoria con respecto a los del sospechoso.
Walsh y Buckleton (1994) hacen una interesante contribución a esta dis-
cusión. Aportan los resultados de un estudio que intenta estimar, en gene-
ral, el lugar de residencia de un criminal, dado que se había cometido un
crimen en Auckland, Nueva Zelanda. Pueden verse en la Tabla 8.6.
Pr(H p | I1, I 2 )
.
Pr(H d | I1, I 2 )
Pr(H p | I1 , I 2 ) 0.92
= = 1.14 × 10− 6 .
Pr(H d | I1 , I 2 ) 809000
9.1 Notación
Como hasta ahora, sea E la evidencia, cuyo valor deseamos estimar. Las
dos proposiciones que queremos comparar se representan mediante Hd y
Hp. La razón de verosimilitud, V, es entonces:
(ver (3.12)).
En la Sección 8.3.1 se proporciona una discusión sobre la interpreta-
ción de la evidencia de transferencia de una única mancha de sangre desde
el criminal a la escena del crimen. Esto se extiende luego a casos en los que
hay varias manchas de sangre y varios imputados.
9.2.1 Introducción
y
Pr(E c | E s , H p , I)
V=
Pr(E c | E s , H d , I)
Si el sospechoso no estuvo en la escena del crimen (Hd es cierta), enton-
ces la evidencia (Ec) sobre el perfil de la mancha del crimen es indepen-
diente de la evidencia (Es) del perfil del sospechoso. De este modo:
Una sola muestra 367
y
Pr(E c | E s , H p , I)
V= (9.2)
Pr(E c | H d , I)
Pr(E s | E c , H p , I)
V=
Pr(E s | H d , I)
Este resultado asume que Pr(Ec | Hp, I) = Pr(Ec | Hd, I), es decir, el perfil
de la mancha del crimen es independiente de si el sospechoso estuvo pre-
sente en la escena del crimen o no (recuérdese que no se conoce nada más
del sospechoso que su perfil). Esta asunción se discute posteriormente en
el Capítulo 13. La asunción de que las características del sospechoso sean
independientes de que cometiera el crimen o no, no debiera realizarse a la
ligera. Es correcta respecto al perfil de ADN del sospechoso. Sin embargo,
algunas escenas del crimen pueden ser más aptas para dar lugar a una
transferencia de material a la ropa del sospechoso que otras. Si las carac-
terísticas de interés se relacionan con esos materiales y el que perpetró el
crimen es más tarde identificado como sospechoso, la presencia de tales
materiales no son independientes de la presencia del sospechoso en el lu-
gar del crimen. Si se cuestiona la legitimidad de las simplificaciones, debe
usarse la expresión original (9.1).
La información de contexto del caso, I, se debe emplear para ayudar a
determinar la población relevante de la que se supone que proviene el au-
tor del crimen. Por ejemplo, consideremos un ejemplo centrado en Nueva
Zelanda, donde I fuera la descripción de un testigo ocular sobre el criminal
como de origen chino. Esto puede valorarse, puesto que las frecuencias de
perfiles de ADN pueden variar entre grupos étnicos y eso afectaría al valor
de la evidencia; consúltese la Sección 8.3.1.
Primeramente, consideremos el numerador Pr(Ec | Es, Hp, I) del LR des-
de la perspectiva del sospechoso. Se trata de la probabilidad de que la man-
cha del crimen sea de perfil Γ dado que el sospechoso estuvo presente en la
escena del crimen y tiene el mismo perfil de ADN Γ y el resto de informa-
ción, incluyendo, por ejemplo, el testimonio de un testigo ocular referente
368 Datos discretos
a que el criminal era de raza china. Esta probabilidad será 1 puesto que
si el sospechoso estuvo en el lugar del crimen y tiene perfil Γ, entonces la
mancha del crimen tendrá también perfil Γ, asumiendo como antes que
todas las procedencias inocentes de la mancha del crimen han sido elimi-
nadas. Así pues:
Pr(Ec| Es,Hp,I) = 1
9.2.2. Población general
Pr(Ec | Hd, I) = γ
El LR, V, es entonces:
Pr(E c | E s , H p , I) 1
V= = (9.3)
Pr(E c | H d , I) γ
9.2.3 Población particular
V=1/β
9.2.4 Ejemplo
Población general
Grupo sanguíneo A B O
Frecuencia relativa 0.254 0.063 0.683
V = 1 / 0.063 = 15.87 ≅ 16
Población particular
Grupo sanguíneo A B O
Frecuencia relativa 0.168 0.165 0.667
V = 1 / 0.165 = 6.06 ≅ 6
9.3 Dos muestras
la independencia (1.6).
Ahora bien, Pr(Ec11 | Es, Hp, I) = 1 puesto que si el sospechoso fue la fuen-
te de una de las manchas del crimen y su perfil es Γ1, entonces es cierto que
uno de los perfiles de las manchas es Γ1.
Por otra parte, Pr(Ec12 | Es, Hp, I) = γ2, puesto que la segunda mancha de
sangre fue dejada por el otro criminal. Hasta ahora, en ausencia de infor-
mación de contexto del caso I, B se considera miembro de la población
relevante. La probabilidad es, de este modo, la frecuencia relativa del perfil
Γ2 en la población de referencia, que es γ2. Entonces el numerador (de V)
toma el valor γ2.
Dos muestras 373
Este resultado debe compararse con el caso en el que tenemos una úni-
ca muestra, donde V = 1 / γ. El LR en el caso de dos muestras es la mitad del
LR para el caso de una única muestra. Esto es intuitivamente razonable.
Si hay dos criminales y un sospechoso, uno no esperaría que la evidencia
de una coincidencia con la mancha de sangre tuviera tanto valor como en
el caso en el que hubiera un criminal y un sospechoso. Observe que si γ1 es
mayor de 0.5, entonces V es menor que 1. La evidencia soporta la proposi-
ción de que la mancha del crimen vino de dos hombres, no siendo ningu-
no de ellos el sospechoso. Como ha sido anteriormente comentado, “esto
contradice la intuición a primera vista, demostrándose así que la intuición
puede a veces no ser fiable” (Evett, 1990). Evett y Weir (1998) aportan un
ilustrativo ejemplo usando la idea de la tirada de dos monedas.
En otras situaciones pueden parecer más apropiadas otros pares de pro-
posiciones. Por ejemplo, supongamos que las manchas están individual-
mente identificadas. Podríamos considerar que una estuviera sobre la al-
fombra y la otra sobre una funda de almohada. Las proposiciones podrían
ser entonces:
• Hp, el sospechoso dejó la mancha sobre la alfombra;
• Hd, dos personas desconocidas dejaron las dos manchas;
o bien,
• Hp, el sospechoso dejó la mancha sobre la alfombra;
• Hd, una persona desconocida dejó la mancha;
El contexto del caso o las estrategias del Fiscal y la defensa pueden in-
fluir en la elección de las proposiciones. Diferentes proposiciones lleva-
rían consigo valoraciones diferentes de la evidencia. Se necesita entonces
considerar el Teorema de Bayes (3.9) en toda su extensión. Proposiciones
distintas pueden conducir a apuestas a priori diferentes
Pr(Hp | I) / Pr(Hd | I) así como a distintos valores de la evidencia. Por
tanto, las apuestas a posteriori Pr(Hp | E, I) / Pr(Hd | E, I) también pueden
ser diferentes para distintas proposiciones. En Meester y Sjerps (2003)
pueden encontrarse más comentarios sobre estas ideas. Pueden también
hallarse más comentarios sobre el problema de dos trazas en el nivel de
actividad en Triggs y Buckleton (2003), los cuales subrayan varios facto-
res a tener en cuenta: el número de criminales que se dice que hubo, la
relevancia de cada mancha y la especificación de las probabilidades de
transferencia. En la Sección 9.4 puede encontrarse una generalización
para los casos con n manchas, k grupos de manchas, y m criminales, si
bien no se ha tenido en cuenta la relevancia de las manchas ni las proba-
bilidades de transferencia.
374 Datos discretos
9.3.2 Perfiles de ADN
4
Si Hd fuera verdad, hay = 6 modos (i.e, combinaciones de 4 elemen-
2
tos tomados de 2 en 2) de que dos hombres pudieran contribuir a formar el
perfil observado. Cada modo tiene probabilidad 4p1p2p3p4. Por ejemplo, si
un hombre es a1a2, con probabilidad 2p1p2, y otro es a3 a4, con probabilidad
2p3p4, la probabilidad conjunta es 4p1p2p3p4. Así pues,
V = 1 / 24p1p2p3p4
V = 1 + p1 + p2 / 4 p1 p2 (3 + p1 + p2 + p3)
9.4 Muchas muestras
Por tanto,
n
(n − 1)! ∏i = 2 γ i 1
V= n
= (9.6)
n!∏i =1 γ i nγ1
9.4.2 Casos generales
Supongamos ahora que hay k perfiles distintos Γ1, Γ2, ..., Γk con frecuen-
cias γ1, γ2, ..., γk, correspondiéndose con k personas distintas entre sí en n
manchas (k<n) formando la muestra del crimen, y que el sospechoso tiene
uno de esos perfiles. Las dos proposiciones que consideramos son:
• Hp, la muestra del crimen vino del sospechoso y de k – 1 hombres
distintos más;
Muchas muestras 377
Por tanto,
n s1
V = (n – s1)! s1! / n! γ1s1 = 1 / γ1 (9.7)
s1
Observe que V es independiente de k, el número de criminales, y que si
s1 = 1, el resultado se reduce al resultado (9.6).
El numerador es igual a:
[(n – s11)! / (s12! ... skmk!)] γ2s1–s11 γ2sk... γksk
378 Datos discretos
Entonces:
n s11
V = [(n – s11)! s11! / n!](1/ γ1s11 )= 1 / γ 1
s11
un resultado similar a (9.7).
9.5.1 Introducción
Pr(E c | H p , E s )
V= (9.8)
Pr(E c | H d )
donde Ec es el perfil Γ de la escena de la mancha del crimen y Es es el perfil
Γ del sospechoso.
Relevancia de la evidencia y material relevante 379
9.5.2 Probabilidades subjetivas
9.5.3 Proposiciones de asociación
Consideremos lo siguiente:
• B, la mancha del crimen proviene de uno de los k criminales;
• B , la mancha del crimen no proviene de ninguno de los k criminales.
El valor, V, de la evidencia puede escribirse, utilizando la ley de probabi-
lidad total (Sección 1.6.7) como:
Pr(A | H p , B, E s ) = Pr(A | H p , B) = 1 / k.
Se ha asumido, pues, que no existe nada en la información del caso I
que distinga al sospechoso, dado Hp, de los otros criminales respecto a la
sangre derramada. De forma similar,
Pr(A | H p , B, E s ) = (k − 1) / k.
Relevancia de la evidencia y material relevante 381
También:
Pr(E c | H p , B, A, E s ) = Pr(E c | H p , B, A) = γ
ya que si A es cierto, Ec y Es son independientes y uno de los otros crimina-
les dejaron la mancha (puesto que B se mantiene). De este modo:
Pr(E c | H p , B, E s ) = {1 + (k − 1) γ}/ k.
Pr(E c | H p , B, E s ) = γ '
Si A es cierto, Pr( E c | H d , B, A, E s ) = 1 .
También Pr( A | H d , B, E s ) = Pr( A | H d , B) . Esta es la probabilidad p de ad-
quisición inocente, es decir, que la mancha podría haber sido dejada por el sos-
pechoso aunque éste fuera inocente del crimen. Aquí se asume que la propen-
sión a dejar una mancha es independiente del perfil de la persona que la dejó.
Por consiguiente: Pr( A | H d , B) = p y Pr( A | H d , B, E s ) = Pr( A | H d , B) = 1 − p .
También Pr( E c | H d , B, A ) = γ ' . De este modo:
382 Datos discretos
Pr(E c | C, B, E s ) = p + (1 − p) γ '.
La sustitución de las anteriores expresiones en (9.9) proporciona que:
V=
[r{1 + (k − 1)γ} / k ]+ {γ ' (1 − r)} =
γr + {p + (1 − p) γ ' }(1 − r )
(9.10)
r{1 + (k − 1) γ} + kγ ' (1 − r )
=
k[γr + {p + (1 − p) γ ' }(1 − r )]
9.5.5 Ejemplos
r (1 + (k − 1) γ ) + kγ (1 − r ) r + (k − r ) γ
V= = (9.11)
k ( γr + γ (1 − r ) kγ
Probabilidades subjetivas
Llegados hasta aquí es necesario pensar más sobre r y p. El primero, r, es
la probabilidad de que la mancha del crimen proceda de uno de los crimi-
384 Datos discretos
V = 1.004/0.004 = 251
log10 (V) = 2.40.
V = r / γ1.
r1 + (1 − r1 − r2 ) γ1
V=
γ1
Se pueden presentar ciertos casos especiales. Cuando r1 y r2 tiendan a
cero, lo que implica que ninguna de las manchas es relevante, entonces
el LR tiende a uno. Un LR de 1 no proporciona ningún soporte a cual-
quiera de las proposiciones, algo enteramente consistente con la falta de
relevancia de las manchas. Para r1 = r2 = 1 / 2, V = 1 / 2γ1. Para r1 = 1, V = 1 /
γ1. Cuando r2 → 1, entonces r1 → 0 y V → 0. Todos estos resultados son abso-
lutamente razonables.
9.6 Resumen
∑
k
Hay si manchas de tipo i (i = 1, ..., k; s = n). Hay un sospechoso con
i =1 i
perfil Γ1 , con frecuencia g1. Las proposiciones que vamos a comparar son:
• H p , la muestra del crimen provino del sospechoso y de otros k – 1
hombres;
• H d , la muestra del crimen provino de k hombres desconocidos.
Resumen 389
Entonces:
1
V= .
n s1
γ1
s1
n manchas, k perfiles distintos, m criminales
V=
[r{1 + (k − 1)γ} / k ]+ {γ ' (1 − r)} =
γr + {p + (1 − p) γ ' }(1 − r )
r{1 + (k − 1) γ} + kγ ' (1 − r )
=
k[γr + {p + (1 − p) γ ' }(1 − r )]
Hay varias simplificaciones.
Si γ = γ ' y p = 0, entonces
γr + {p + (1 − p) γ ' }(1 − r ) r + (k − r ) γ
+ (k − 1) γ} + kγ ' (1 − r ) V=
kγ
r + {p + (1 − p) γ ' }(1 − r )]
Si, además, r = 1,
1 + (k − 1) γ
V=
kγ
1 + (k − 1) γ
V= =
kγ
1 1
= 1+ + ,
kγ k
V=
[r{1 + (k − 1)γ} / k ]+ {γ (1 − r )} = r + (k − r ) γ
=
r + (k − r
[γr + {p + (1 − p)γ}(1 − r )] k[p(1 − r ) + γ{r + (1 − p)(1 − r )}] k[p(1 − r ) + γ (1 −
)} r + (k − r ) γ r + (k − r ) γ
= =
k[p(1 − r ) + γ{r + (1 − p)(1 − r )}] k[p(1 − r ) + γ (1 − p + pr )]
Resumen 391
r1 + (1 − r1 − r2 ) γ 1
V=
γ1
Sean dos proposiciones, Hp1 que el sospechoso cometió el crimen (nivel del
crimen) y Hp2 que el sospechoso estuvo presente en la escena del crimen
mientras se cometía (nivel de actividad). Entonces:
9.7 Personas desaparecidas
9.7.3 Cálculo del LR
Caso 1:
La probabilidad de que los padres fueran los responsables de la existen-
cia del fenotipo de la mancha es igual a 0.5264 × 0.25 × 0.50 × 1.00 × 0.50 ×
0.50 = 0.0164; ver Tabla 9.8. La probabilidad de que el fenotipo de la man-
cha ocurra por casualidad es 1.2650 × 10–4. Por tanto:
Caso 2:
La probabilidad de que los padres fueran los responsables de la transfe-
rencia del fenotipo de la mancha es igual a 1.00 × 0.50 × 1.00 × 1.00 × 1.00
× 1.00 × 1.00 = 0.50; ver Tabla 9.9. La probabilidad de que el fenotipo de la
mancha ocurra por casualidad es 1.146 × 10–2, y
Perfiles
Evidencia Locus Presunto
Hijo Madre
padre
E1 PentaD 13-13 9-13 11-13
E2 VWA 18-19 16-19 18-18
Sean GCi, GMi y GAFi los genotipos del hijo C (C-child), madre M (M-mother)
y presunto padre AF (AF-alleged father), respectivamente, para la eviden-
cia Ei. AMi y APi representan los alelos maternos y paternos para la evidencia
Ei. Sea γi,j la frecuencia del alelo j para la evidencia Ei.
Para E1, el numerador del LR es igual a Pr(GC1| GM1,GAF1,Hp) = 1 / 4. Esto
es así porque 9 - 13 cruzado con 11 - 13 produce 13 - 13 con probabilidad
de 1 / 4. El denominador es igual a Pr(GC1| GM1,GAF1,Hd) = Pr(AM1 | GM1) ×
P(AP1 | Hd) = Pr(AM1 = 13 | GM1 = 9 - 13) × Pr(AP1 = 13 | Hd) = (1 / 2) × γ1,13. Por
tanto, el LR para PentaD es 1 / 2γ1,13.
Para E2, el numerador del LR es igual a Pr(GC2| GM2,GAF2,Hp) = 1 / 2. Esto
es así porque 16 - 19 cruzado con 18 - 18 produce 18 - 19 con probabilidad
de 1 / 2. El denominador es igual a Pr(GC2| GM2,GAF2,Hd) = Pr(AM2 | GM2) ×
Pr(AP2 | Hd) = Pr(AM2 = 19 | GM2 = 16 - 19) × Pr(AP2 = 18 | Hd) = (1 / 2) × γ2,18. Por
tanto, el LR para VWA es 1 / γ2,18.
Bajo la asunción de independencia, el LR para la combinación (E1, E2)
de la evidencia es:
Paternidad:
Paternidad:Combinación
combinacióndede lrs 399
LRS
Pr(E1,E2 | Hp) / Pr(E1,E2 | Hd) = [Pr(E1 | Hp) / Pr(E1 | Hd)] × [Pr(E2 | Hp) /
/ Pr(E2 | Hd)] = (1 / 2γ1,13) × (1 / γ2,18).
(ver Sección 8.1.3). Dando valores a las frecuencias: γ1,13 = 0.206 y γ2,18 =
0.2274, entonces (1 / 2γ1,13 γ2,18) = 10.7 ≅ 11; la evidencia de los sistemas de dos
marcadores es 11 veces más probable si el presunto padre es el verdadero
padre que si no lo es. Utilizando la Tabla 3.10 esto proporciona un soporte
moderado a la proposición de que el presunto padre es el verdadero padre.
así:
Pr(E1 | H p ) Pr(H p )
Pr(H p | E1 ) =
Pr(E1 | H d )
×
Pr(H d )
{
× 1 − Pr(H p | E1 ) }
y
Pr(E1 | H p ) Pr(H p ) Pr(E1 | H p ) Pr(H p )
Pr(H p | E1 )1 + × = × ,
Pr(E1 | H d ) Pr(H d ) Pr(E1 | H d ) Pr(H d )
así −1
Pr(E1 | H d ) Pr(H d )
Pr(H p | E1 ) = 1 + × (9.13)
Pr(E1 | H p ) Pr(H p )
un resultado análogo a (4.6). Supongamos, de forma bastante poco realis-
ta, que el presunto padre y sólo otro hombre (cuyo grupo sanguíneo des-
400 Datos discretos
−1
Pr(H d | E1 ) Pr(E 2 | H d )
Pr(H p | E1 , E 2 ) = 1 + ×
Pr(H p | E1 ) Pr(E 2 | H p )
−1 (9.14)
0.292 0.227 / 2
= 1 + ×
0.708 1/ 2
= 0.914,
donde se ha asumido la independencia entre E1 y E2. La probabilidad de
que el presunto padre fuera el verdadero padre, la verosimilitud de pater-
nidad, fue inicialmente 0.5. Después de la presentación de la evidencia
PentaD (E1) fue de 0.708. Tras la presentación de la evidencia VWA (E2) se
llegó a 0.914. Obsérvese que esta probabilidad a posteriori es justo la rela-
ción PI / (1+ PI); en este caso: 10.7 / 11.7 = 0.914.
Nótese que la asunción Pr(Hp) = Pr(Hd) = 0.5 no es realista y puede condu-
cir a tergiversar las leyes de la probabilidad (Berry, 1991b; Allen y otros, 1995).
Si hubiera dos presuntos padres, ambos del tipo (11 – 13, 18 – 18), ambos ten-
drían probabilidad a posteriori 0.914 de ser el verdadero padre. La probabili-
dad de la unión de ambos sucesos —que sea padre uno u otro— sería la suma
de sus probabilidades, lo que supondría una clara violación de la primera ley
de la probabilidad (1.4) al sumar 1.828 pues una probabilidad mayor que 1
no tiene sentido. Ha habido muchas críticas de esta asunción (Ellman y Kaye,
1979; Kaye, 1989; Allen y otros, 1995; Taroni y Aitken, 1998a, y otras referen-
cias en esos trabajos). Algunos Tribunales se han dado cuenta de la falta de
realismo de esa asunción desde hace mucho tiempo. Por ejemplo:
Paternidad:
Paternidad:Combinación
combinacióndede lrs 401
LRS
Nótese que en el caso en que se contase con dos presuntos padres, pu-
diera alegarse una tercera opción, es decir, que no fuera ninguno de ellos.
Las probabilidades a priori asignadas a esos sucesos valdrían 1 / 3. Sin em-
bargo, es mejor dejar la decisión a quien legalmente le corresponde, como
se argumentó en el caso sobre paternidad, de M.J.B.:T.A.T.
El efecto en la probabilidad a posteriori como consecuencia de alterar la
probabilidad a priori puede ser determinado a partir de (9.13) y (9.14). En
la Tabla 9.11 pueden verse algunos resultados.
“Se requiere el testimonio del experto para explicar al Jurado qué pro-
babilidades de paternidad se obtendrían partiendo de un amplio ran-
go de valoraciones de probabilidades a priori: desde 0.1 a 0.9”. (Estado
de Nueva Jersey contra J.M. Spann.)
−1
n
Pr(E i | H d )
Pr(H p | E1 ,..., E n ) = 1 + ∏
i =1 Pr(E i | H p )
n
donde ∏ Pr(Ei | Hd ) / Pr(Ei | H p ) es el producto de los inversos de las n ra-
i =1
zones de verosimilitud Pr(E i | H p ) / Pr(E i | H d ) . A la expresión anterior se
le llama plausibilidad de paternidad (Berry y Geisser, 1986). Obsérvese que
depende de suponer Pr(Hp) = Pr(Hd) = 0.5, que es muy poco realista en la
mayoría de los casos. Se puede prescindir de la asunción de que Pr(Hp) sea
igual a Pr(Hd) resultando:
−1
Pr(H d ) n Pr(E i | H d )
Pr(H p | E1 ,..., E n ) = 1 + ∏ .
Pr(H p ) i =1 Pr(E i | H p )
Weir (1996a) comenta que puede ser útil caracterizar un marcador gené-
tico por su habilidad por excluir a un hombre aleatoriamente seleccionado
como presunto padre. Las llamadas probabilidades de exclusión dependen
de las frecuencias alélicas para los locus pero no de las probabilidades ge-
notípicas.
Consideremos un locus autosómico simple con alelos codominantes.
Hay K alelos en ese locus. A cada uno de ellos los llamaremos como u, v e
y. Primeramente, asumimos que la madre es de genotipo AuAu. Esto tiene
probabilidad pu2. El hijo puede ser Au Au con probabilidad pu o Au Av con
probabilidad pv (v≠u) (dado el genotipo de la madre). Si la madre es de
genotipo Au Av con probabilidad 2 pu pv, hay cinco posibles genotipos para
el hijo: Au Au; Av Av; Au Av; Au Ay; Av Ay, donde y ≠ u, v. Weir (1996a) tiene en
cuenta las probabilidades para los hombres excluidos para cada una de las
posibles combinaciones madre-hijo. La probabilidad de exclusión se calcu-
404 Datos discretos
Q = ∑ p u (1 − p u ) 2 − (1 / 2)∑∑ p 2u p 2v (4 − 3p u − 3p v )
u u v≠u
2K 3 + K 2 − 5K + 3
Q max = 1 −
K4
Q = 1 − ∏ (1 − Q l )
l
Para dos loci independientes, cada uno de ellos con 10 alelos equiproba-
bles, Q aumenta de 0.79 a 0.96.
Fung y otros (2002) han estudiado la probabilidad de exclusión cuando
el verdadero padre pueda ser un pariente del presunto padre.
Capítulo 10
Datos continuos Datos continuos
P r (E | H p , I)
V=
P r (E | H d , I)
una columna a una fila). Consúltese el Capítulo 11 para más detalles. La par-
te cuantitativa de la evidencia sobre fragmentos de cristal en este caso puede
escribirse de la siguiente forma:
E = (x, y)
f(x, y | H p , I)
V= (10.1)
f(x, y | H d , I)
Las medidas de x son las de la fuente, las de control o las del objeto. Su
distribución y la función de densidad de probabilidad correspondiente son
independientes de si Hp o Hd son ciertas. De este modo:
f(x | H p , I) = f(x | H d , I)
y entonces:
f(x, y | H p , I) f(y | x, H p , I)
V= =
f(x, y | H d , I) f(y | x, H d , I)
f(y | x, H d , I) = f(y | H d , I)
La razón de verosimilitud 407
f(x, y | H p , I) f(y | x, H p , I)
V= = (10.2)
f(x, y | H d , I) f(y | H d , I)
10.2.1 Fuentes de variación
f ( x | µ, σ2 , τ2 ) = ∫ f ( x | θ, σ2 )f (θ | µ, τ2 )dθ =
1 1 1
=∫ exp− ( x − θ) 2 exp− (θ − µ) 2 dθ =
2πσ2 τ2 2σ 2 2τ2
1 1
exp− ( x − µ) 2
2π(σ 2 + τ2 ) 2(σ 2 + τ2 )
utilizando el resultado de que:
1 1 (θ − µ1 ) 2 ( x − µ) 2
( x − θ) 2 + (θ − µ ) 2 = +
2σ 2 2τ 2 τ12 σ2 + τ2
donde
σ 2µ + τ 2 x
µ1 =
σ2 + τ2
σ2 τ2
τ12 =
σ2 + τ2
De forma similar:
1 1
f ( y | µ, σ 2 , τ 2 ) = exp− ( y − µ) 2
2π(σ 2 + τ 2 ) 2(σ 2 + τ 2 )
Obsérvese que τ2 ha sido omitido de las distribuciones de x y de y dados
θ1, θ2 y σ2. Esto es porque las distribuciones de x e y dados esos parámetros
son independientes de τ2. De forma similar, la distribución de θ, dados µ y
τ2, es independiente de σ2.
El efecto de las dos fuentes de variabilidad es que la media de las medi-
das de índices de refracción es la media total µ y la varianza es la suma de
las varianzas σ2 y τ2. La distribución permanece Normal. De este modo:
Para τ2 mucho mayor que σ2, asumimos también que τ2 + σ2 puede aproxi-
marse por τ2. El LR es entonces:
1 ( y − x)2
exp −
2σ 2 τ ( y − µ) 2 ( y − x ) 2
V = σ 2π = exp −
1 ( y − µ) 2 σ 2τ2 2σ 2
exp−
τ 2π 2τ2
Entonces:
m1/2 τ m( x − y) 2 ( z − µ) 2
V≅ exp− exp− (10.7)
21 / 2 σ 4σ 2 2τ2
Observe de nuevo que este resultado asume implícitamente que los
fragmentos provienen de una sola fuente. Denotemos esta asunción por S.
Entonces, el resultado anterior es la razón entre las funciones de densidad
f ( x , y | H p , S)
de probabilidad . Grove (1980) aportó un resultado incluyen-
f ( x , y | H d , S)
do a S como uno de los elementos de incertidumbre y derivando la siguien-
f ( x , y, S | H p , S)
te expresión: .
f ( x , y, S | H d , S)
Sea T el suceso de que los fragmentos fueron transferidos desde la ven-
tana rota al sospechoso y persistieron en él hasta que fueron descubiertos
por la policía. Sea A el suceso de que el sospechoso hubiera tenido contac-
to con otros cristales de distinta fuente. Asumamos que Pr(A | Hp) = Pr(A
| Hd) = pA, que Pr(T | Hp) = pT, que A y T son independientes dado Hp y que
Pr(T | Hd) ≅ 0. Grove (1980) demostró que:
Distribución normal para datos interfuente 415
f ( x , y, S | H p ) f ( x, y | H p )
V= = 1 + p T (p −A1 − 1) − 1
f ( x , y, S | H d ) f ( x, y | H d )
p T (1 − p A ) f ( x , y | H p )
= (1 − p T ) + × (10.8)
pA f ( x, y | H d )
f (x, y | H p )
donde es la razón de Lindley (1977a). El valor derivado por
f (x, y | H d )
Grove (1980) tiene en cuenta la transferencia y la persistencia en una for-
ma ya derivada para datos discretos (ver la Sección 8.3.3). En la Sección
10.5.2 se proporciona otra derivación para datos continuos (10.14).
|x−y|
=λ
σ 2
Entonces, el valor del primer factor es exp(–λ2/2). Un valor grande de λ
favorece la hipótesis de que los dos fragmentos proceden de fuentes dis-
tintas. Este factor tiene un efecto similar al contraste de una hipótesis de
identidad nula (θ1 = θ2).
− ( z − µ) 2 1
El segundo factor, exp 2 , con z = ( x + y) , mide la rareza de
2τ 2
las dos medidas. Este factor alcanza su valor mínimo, el valor 1, cuando z
= µ, y sube a medida que |z – µ| se incrementa con respecto a su desviación
estándar. De este modo, cuanto más raro sea el cristal (es decir, cuanto
más grande sea el valor de |z – µ|), mayor será el valor de V y más fuerte
será la inferencia a favor de que las dos medidas provienen de una misma
fuente. Tengamos en cuenta el comentario de Parker y Holford (1968) en
la Sección 4.7. El primer factor tiene en cuenta la similitud. El segundo la
rareza. No se ha pasado por alto la valoración de la similitud.
416 Datos continuos
10.2.6 Ejemplos
100e −2
V= = 9.57
2
La apuesta a favor de una fuente común ha sido incrementada por un
factor cercano a 10, un resultado que contrasta con el rechazo con un nivel
de significación del 5% en un contraste de hipótesis convencional. En la
Tabla 10.2 pueden verse los valores de (10.7) para (τ / σ) = 100 como una
función de λ y δ = |z – µ| / τ, la desviación de la media de las dos medidas de
µ, estandarizada sobre la asunción de que la hipótesis de que proceden de
una misma fuente es cierta.
λ
δ
0 1.0 2.0 4.0 6.0
0 70.7 42.9 9.57 0.024 1.08 x 10–6
1.0 117 70.7 15.8 0.039 1.78 x 10–6
2.0 522 317 70.7 0.175 7.94 x 10–6
3.0 6370 3860 861 2.14 9.71 x 10–5
τ ( x − y) 2 ( w − µ) 2 ( z − µ) 2
V≅ exp− exp− + (10.9)
aσ 2a 2 σ 2 2τ 2 τ2
Se necesita la siguiente información para evaluar V:
• el número de medidas de la fuente (m);
• la media de las medidas de la fuente ( x );
• el número de medidas del receptor (n);
• la media de las medidas del receptor ( y );
• la varianza (se asume conocida) de las medidas en las muestras de
la fuente y del receptor (σ2);
• la media total (se asume conocida) de los índices de refracción (µ);
• la varianza total (se asume conocida) de los índices de refracción (τ2).
Los siguientes valores se derivan de los anteriormente referidos:
x+y
z= ;
2
mx + ny
w= ;
m+n
1 1
a2 = + .
m n
Figura 10.2. Anchura medular (en micras) de 220 pelos de gato (de Peabody
y otros, 1983).
420 Datos continuos
k
(z i − z ) 2
s2 = ∑ (10.10)
i =1 ( k − 1)
1 ⎧ (θ − z i ) 2 ⎫
K (θ | z i , λ ) = exp⎨− 2 2 ⎬
λs 2 π ⎩ 2λ s ⎭
1 k
f̂ (θ | D, λ) = ∑ K (θ | z i , λ )
k i =1
(10.11)
k
(z i − z ) 2
s2 = ∑
σˆ 2
i =1
(k − 1) −
k
σˆ 2
un ajuste de si nos fijamos en (10.10).
k
El parámetro de suavizado k se tiene que elegir. Existen procedimien-
tos matemáticos para una elección automática. Por ejemplo, el llamado
procedimiento de pseudomáxima verosimilitud (Habbema y otros, 1974) se
utilizó para determinar el valor de λ (0.09) usado en la Figura 10.4. Un va-
lor de λ igual a 0.5 fue utilizado para generar la curva de la Figura 10.5 que
ilustra el efecto de que un valor mayor de λ produce una curva más suave.
1 ( x − y ) 2 ( m + n )1 / 2 ( w − θ) 2 (m + n )
exp− ∫ exp− f (θ)dθ
aσ 2a σ
2 2 σ 2σ 2
V≅ (10.12)
m ( x − θ) m
2
n ( y − θ) n
2
( x − y) 2 k (m + n )( w − z i ) 2
K exp− ∑
2a 2 σ 2 i =1
exp −
2[σ 2 + (m + n )s 2 λ2 ]
V≅
m( x − z i ) 2 k n ( y − z i ) 2 (10.13)
∑i =1 exp− 2(σ 2 + ms 2 λ2 ) ∑i =1 exp− 2(σ 2 + ns 2 λ2 )
k
donde:
k m + n σ 2 + ms 2 λ2 σ 2 + ns 2 λ2
K=
aσ mn σ 2 + (m + n )s 2 λ2
Existen cuatro factores, explícitamente dependientes de los datos, en la
expresión para V que contribuyen al valor final:
( x − y) 2
(a) exp− ;
2a 2σ 2
(m + n )( w − z i ) 2
∑
k
(b) exp− ;
2[σ 2 + (m + n )s 2 λ2 ]
i =1
Estimación de la densidad de núcleo para datos interfuente 429
m( x − z i ) 2
∑
k
(c) exp − ;
2(σ 2 + ms 2λ2 )
i =1
n( y − zi )2
∑
k
(d) exp − .
2(σ 2 + ns 2λ2 )
i =1
x y σ V
λ = 0.09 λ = 0.50
15 15 10 16.50 12.01
15 25 10 1.39 0.782
15 35 10 9.81 x 10–4 4.47 x 10–4
110 110 10 84.48 53.61
50 50 10 6.97 6.25
50 50 16 3.86 3.93
50 50 5 16.14 12.48
50 55 10 3.75 3.54
–3
1.51600 1.51601 2.643×10 563 489 419 191
1.51700 1.51701 2.863×10–2 54.3 52.4 48.9 172
1.51800 1.51801 3.083×10–2 53.3 54.4 49.2 164
–2
1.51900 1.51901 2.246×10 70.0 69.2 102.4 167
–9
1.52000 1.52001 8.536×10 5524 2297 471.2 182
1.52100 1.52101 4.268×10–9 13083 4381 1397 210
1.52200 1.52201 1.321×10–2 128 143 304 259
1.51500 1.51505 – 740 519 217 18.4
1.51600 1.51605 – 48.4 42.4 32.6 15.6
1.51600 1.51610 – 1.74×10–2 1.74×10–2 1.22×10–2 6.30×10–3
1.51700 1.51710 – 1.35×10–3 1.35×10–3 1.51×10–3 5.69×10–3
Probabilidades de transferencia 433
10.5 Probabilidades de transferencia
10.5.1 Introducción
Pr(E | H d , I) = Pr(m 1 , y | H d , I)
= Pr(m 1 | H d , I) × f ( y | H d , I, m 1 ) = b 1,1 f ( y | H d , I, m 1 )
t 0 b1,1f ( y | H d , I, m1 ) + t 1b 0 f ( y | H p , x, I)
t 1 b 0 f( y | H p , I, x)
V = t0 + (10.14)
b1,1 f( y | H d , I, m1 )
t 1b 0 σ2 + τ2 ( y − µ) 2 (y − x) 2
V = t0 + exp − .
b1,1 σ 2(σ 2 + τ 2 ) 2σ 2
En las Tablas 10.7 y 10.8 (Evett, 1986) se encuentran valores para los
parámetros distribucionales y para las probabilidades de transferencia.
µ τ α σ
1.5186 4 x 10–3 3 x 10–3 4 x 10–5
b0 b1,1 b1,2 t0 t1 t2
0.37 0.24 0.11 0 0.056 0.056
Los valores para b0, b1,1 y b1,2 son sugeridos por Evett (1986), que citó a
Pearson y otros (1971). Evett se refiere a b2f2(y) como la probabilidad de
436 Datos continuos
τ2 + σ 2 τ
≅
σ σ
( y − µ) 2 ( y − x ) 2
V ≅ 8.6 exp − . (10.15)
2τ 2 2σ 2
En la Tabla 10.9 se muestran algunos valores para distintos valores de
( y − µ) ( y − x )
y (diferencias estandarizadas de y respecto de la media de
τ σ
los fragmentos fuente y respecto de la media global). Pequeños valores de
(y − x)
implican similitud entre los fragmentos fuente y los recuperados.
σ ( y − µ)
Pequeños valores de implican un valor común de y.
τ (y − x)
Nótese que los mayores valores de V se dan cuando tiene un va-
( y − µ) σ
lor pequeño y un valor grande.
τ
Probabilidades de transferencia 437
( y − µ)
(y − x) τ
σ
0.0 1.0 2.0
0.0 9 14 63
1.0 5 9 38
2.0 1 2 9
3.0 0.1 0.2 0.7
10.5.3 Dos fragmentos
t 0 b1, 2 f( y1 , y 2 | H d , I, m 2 ) + t 1b1,1 f( y1 | H p , x) f( y 2 | H d , I, m1 )
+ t 1 b1,1 f( y 2 | H p , x) f( y1 | H d , I, m1 ) + t 2 b 0 f( y1 , y 2 | H p , x)
438 Datos continuos
donde:
t 1b1,1{f( y1 | H p , x, m1 ) f( y 2 | H d , I, m1 ) + f( y 2 | H p , x, m1 ) f( y1 | H d , I, m1 )}
φ(1) =
b1, 2 f( y1 , y 2 | H d , I, m 2 )
t 2 b 0 f( y1 , y 2 | H p , x, m 2 )
y φ(2) = .
b1, 2 f( y1 , y 2 | H d , I, m 2 )
El término φ(1) se considera para el caso en el que un fragmento se haya
transferido desde la escena del crimen y el otro desde otro contexto. El tér-
mino φ(2) se considera para el caso en el que ambos fragmentos se hayan
transferido desde la escena del crimen. Se han de tener en cuenta varias
asunciones para comprender mejor numéricamente la variabilidad de V.
Algunas se corresponden con las asunciones de Evett (1986), pero otras di-
fieren con respecto a las distribuciones de y y de (y1, y2), tanto en los casos
de uno como de dos fragmentos, respectivamente.
En primer lugar, se ha asumido que los fragmentos de cristal proceden-
tes de una misma fuente tienen una distribución Normal con una media θ
y varianza σ2. Esta media θ, a su vez, se distribuye Normalmente con me-
dia µ y varianza τ2 (se discutió este asunto en la Sección 10.2.1). Cuando se
consideró el caso de los dos fragmentos con medidas de índices de refrac-
y1 + y 2
ción (y1, y2), se asumió que la media y = está Normalmente distri-
2
Probabilidades de transferencia 439
V = φ(1) + φ(2)
Asumamos, como siempre, que τ2 sea mucho mayor que σ2, de forma
que τ2 + σ2 pueda aproximarse por τ2. Las expresiones generales para φ(1)
y φ(2), utilizando los resultados distribucionales anteriores, puede demos-
trarse que son las siguientes:
( y − x ) 2 ( y 2 − µ) 2 ( y − x ) 2 ( y 1 − µ ) 2
t 1b1,1α exp− 1 − + exp− 2 − .
2σ 2 2τ 2 2σ 2 2τ 2
φ(1) =
( y − µ) 2 | y1 − y 2 |
σb1, 2 2π exp− exp−
2τ
2
α
y
(y − x) 2 (y 2 − x) 2
t 2 b 0 ατ exp− 1 −
2σ 2 2σ 2
φ(2) =
( y − µ) 2 | y1 − y 2 |
σ 2 b1, 2 2π exp− exp−
2τ
2
α
|y−x|
Se presentan aquí dos conjuntos de resultados en términos de
σ
cuando se asume que y es igual a µ y que los valores paramétricos y las
probabilidades de transferencia son las que figuran en las Tablas 10.7 y
|y−x|
10.8. Sean k = ; V = φ(1) + φ(2). Si |y1 – y2| = σ, entonces:
σ
φ(1) = 3.675 exp{− (4k 2 + 1) / 8}(e k / 2 + e − k / 2 )
Figura 10.9. Gráficos de log 10 φ(1), log 10 φ( 2), log 10 V = log 10 (φ(1) + φ(2))
frente a | y − x | / σ para y = µ , para la transferencia de dos fragmen-
tos de cristal desde la escena del crimen al criminal: (a) | y 1 − y 2 |= σ, (b)
| y 1 − y 2 |= 4σ. El valor de la evidencia es V = φ(1) + φ(2). La línea de puntos
es log 10 V . (Adaptado de Evett, 1986).
Observe que los gráficos de log10 φ(2) son cuadráticos. También que para
|y1 – y2| = σ, la mayor contribución a V procede de la transferencia de los
|y−x|
dos fragmentos. Para |y1 – y2| = 4σ, cuando es próximo a 2, la mayor
σ
contribución a V procede de φ(1), el término correspondiente a la transfe-
rencia de un único fragmento. Esto es razonable, puesto que para |y1 – y2| =
4σ y | y − x |= 2σ , y1 ó y2 debe ser igual a x .
El LR es:
p0 t l
V1 = t 0 + . (10.17)
p1s l γ 1
Caso 2. Se ha roto una ventana y se encuentran dos grandes grupos de
fragmentos sobre el sospechoso. Uno de ellos presenta propiedades idénti-
cas a los de la ventana rota y el otro no. El LR es:
p1 t l
V2 = t 0 + .
2p 2 s l γ 1
El factor 2 aparece en el denominador por la existencia de dos grupos.
Las características (tamaño y frecuencia de ocurrencia) del segundo grupo
de fragmentos ocurren tanto en el numerador como en el denominador,
por lo que se cancelan. Por ello, no aparecen en la expresión final.
p0 t 0 t l
V3 = t 02 + ,
p1s l γ 1
en el que se ha asumido que las probabilidades de transferencia (t0, t l ) son
las mismas para ambas ventanas.
Caso 4. Se han roto dos ventanas y se han identificado dos grandes gru-
pos de fragmentos, uno con características coincidentes con una de las
ventanas rotas y el otro con las de la otra ventana. El LR es:
p 0 t l2 pt t pt t
V4 = t 02 + + 1 0 l + 1 0 l .
2p 2 s l γ 1 γ 2 2p 2 s l γ 1 2p 2 s l γ 2
2
p0 t l
V1 ≅ . (10.18)
p1s l γ 1
Probabilidades de transferencia 445
p1 t l
V2 ≅ . (10.19)
2p 2 s l γ 1
p0 t 0 t l
V3 ≅ , (10.20)
p1s l γ 1
p 0 t l2
V4 ≅ . (10.21)
2p 2 s l2 γ 1 γ 2
V1 ≅ 1843
V2 ≅ 943
V3 ≅ 369
V4 ≅ 1738000
y
nx
(x i − x)2
ny
( y − y) 2
s 2x = ∑ , y s 2y = ∑ j .
i =1 (n x − 1) j=1 ( n y − 1)
f( x − y | x , s x , s y , H p )
V= (10.22)
f( y | x , s x , s y , H d )
x−y
tW = (10.23)
s 2x s 2y
+
nx ny
2
s 2x s 2y
+
n
v= x ny , (10.24)
s 4x s 4y
+
n 2 (n − 1) n 2 (n − 1)
x x y y
Johnston Control
1.51940 1.51950
1.51946 1.51952
1.51947 1.51953
1.51948 1.51956
1.51950 1.51957
1.51952 1.51959
1.51952 1.51960
1.51953 1.51960
1.51956 1.51962
1.51957 1.51964
1.51957
Medias 1.5195073 1.5195730
Desviaciones estándar parciales 5.24 × 10 –5
4.55 × 10–5
Desviación estándar conjunta 4.92 × 10–5
σ12 + σ 22 σ1 + σ 2
2 2
1 ( x − y) 2 (z − µ) 2 (σ12 + σ 22 )
exp− exp−
2πσ1σ 2 2(σ1 + σ 2 )
2 2
2σ12 σ 22
En el numerador, se puede demostrar que la distribución incondicional
conjunta de X y de Y es una Normal bivariante con medias µ, varianzas
σ 12 y σ 22 y covarianza τ2.
1 1 mX + n Y
La distribución de (X − Y ) es N 0, σ 2 + . Sea W = . La
m n m+n
τ2 + σ2
distribución de W es N µ, . También, (X − Y) y W son indepen-
m+n
1 1 τ2 + σ 2
dientes. Sean a 2 = + y σ32 = . Entonces, el numerador puede
m n m+n
escribirse como:
1 ( x − y) 2 ( w − µ) 2
exp− exp −
2πaσσ3 2a 2 σ 2 2σ 32
Apéndice:
Apéndice:derivaciónde derivación
vcuandolas de V cuando
medidasinterfuente las normalmente
seasumen medidas interfuente ... 453
distribuidas 453
σ1 σ 2 ( x − y) 2 τ 2 ( w − µ) 2 (z − µ) 2 (σ12 + σ 22 )
exp− exp− + .
aσσ 3 a 2 σ 2 (σ 2 + σ 2 )
1 2 2σ 2
3
2σ 1
2σ2
2
Valores grandes de V proporcionarían fuerte evidencia de que el sospe-
choso estuviera en la escena del crimen.
La expresión puede simplificarse. Normalmente, τ es mucho mayor que
σ. Entonces, σ 12 = σ 22 = σ 32 = τ 2 , Z = (X + Y) / 2, y:
τ x − y) 2 ( w − µ) 2 ( z − µ) 2
V≅ exp− exp− + . (10.25)
aσ 2a 2 σ 2 2τ 2 τ2
Si el número de medidas de control es igual al número de medidas recu-
peradas, entonces m = n, Z = W = (X + Y) / 2, σ 12 = σ 22 y:
m1 / 2 τ m( x − y) 2 ( z − µ) 2
V≅ exp− exp .
21 / 2 σ 4σ 2 2τ 2
Capítulo 11
Análisis Multivariante Análisis Multivariante
11.1 Introducción
0.805
= ,
0.016
0.002 0.00004
U = ,
(11.1)
0.00004 0.000002
0.011 0.0006
C = .
0.0006 0.00004
Descripción del ejemplo 457
0.929 0.859
y11 = , y12 =
0.022 0.018
La media de estos dos vectores se obtiene calculando la media de la pri-
mera componente y la media de la segunda componente. Estas dos medias
juntas generan el vector de medias. Éste puede representarse por y 1 y es:
0.894
y1 =
0.020
Disponemos de dos conjuntos de fragmentos recuperados. Uno se usará
para la evaluación de la evidencia cuando los fragmentos de control y los
recuperados provengan de la misma fuente, y el otro se usará para la eva-
luación de la evidencia cuando los fragmentos de control y los recuperados
provengan de diferentes fuentes.
0.845 0.931
y 21 = , y 22 = ,
0.018 0.020
con media
0.888
y 2 = .
0.019
458 Análisis Multivariante
0.751 0.659
y 31 = , y 32 = ,
0.011 0.009
con media
0.705
y 3 = .
0.010
Nótese que éstas están representadas con un subíndice 3 para distin-
guirlas de las de los fragmentos recuperados, que tienen subíndice 2, con-
sideradas como provenientes de la misma fuente que los fragmentos de
control, los cuales se representan con el subíndice 1. Nótese también que,
para datos multivariantes, y se usa para representar tanto los datos de con-
trol como los recuperados.
Se consideran varias medidas para la evaluación de la evidencia:
• t - test univariantes para el aluminio y para el bario separadamente;
• T 2 de Hotelling, que combina la información proporcionada por los
dos elementos;
• LRs univariantes usando (10.7);
• LRs multivariantes usando los resultados que se dan en el Apéndice.
| y1k − y lk |
t= , (11.2)
1 1
σ +
n1 n l
11.4 T2 de Hotelling
(n1 + n l − 2)p
T2 ~ Fp ,n +n −p−1
n1 + n l − p − 1 1 l
0.006
(0.006,0.001)U −1 = 0.6633 (11.4)
0 . 001
La diferencia en las medias y 1 e y 3 es (0.189,0.010) T . También
(1 / n1 + 1 / n 3 )U −1 = (1 / 2 + 1 / 2)U −1 = U −1 . El valor de T 2 (11.3) es, de este
modo:
0.189
(0.189,0.010)U −1 = 50.1008
0.010
Estos valores divididos por 4 (el valor apropiado de
(n1 + n l − 2)p /(n1 + n l − p − 1) para este ejemplo), esto es, 0.168 y 12.525, de-
ben entonces referirse a F2,1 . El punto 5 % de la distribución F2,1 es 199.5,
de tal manera que estos resultados son muy insignificantes. Hay muy poca
evidencia para cualquier caso en el que los fragmentos de control y los re-
cuperados provengan de fuentes distintas.
11.5 L
R para Normalidad univariante con dos fuentes
de variación
0.891
y = (n1y1 + n 2 y 2 )/( n1 + n 2 ) = ( y1 + y 2 ) / 2 = .
0.0195
Las matrices S1 y S 2 miden la variabilidad en los fragmentos de control
y los recuperados, respectivamente, y se obtienen a partir de (11.19):
0.00245 0.00014
S1 = , (11.5)
0.00014 0.000008
0.014792 0.000172
S 2 = , (11.6)
0.000172 0.000002
Definimos las matrices D1 = U / n1 y D2 = U / n 2 . Para el ejemplo que es-
tamos tratando, n1 = n 2 = 2 y así D1 + D 2 = U .
Consideremos cómo determinamos el numerador.
El término H 3 (11.17) mide la diferencia entre las medias de los frag-
mentos de control y recuperados. En este ejemplo,
H 3 = ( y1 − y 2 ) T (D1 + D 2 ) −1 ( y1 − y 2 ) = ( y1 − y 2 ) T (U −1 )( y1 − y 2 ) = 0.6633
como en (11.4).
Lr para normalidad multivariante con dos fuentes de variación 465
LR
U
H 2 = ( y − )T ( + C) −1 ( y − ) = 0.7816
n1 + n 2
La suma H1 + H 2 + H 3 = 13.7424
Todos estos términos pueden juntarse para dar el numerador del LR, el
cual es:
1
traza (S1U −1 )
2
compara la variación interna para el grupo de control con la matriz de co-
varianza intragrupo. En este ejemplo, es igual a 2.02.
Los distintos términos con determinantes de las matrices de covarianza
toman los valores siguientes:
1
− n
| 2πU | 2 1 = 1.05 × 107 ,
| 2πC |−1/ 2 = 5.62 × 102 ,
| 2π{(n1U −1 + C−1 )} |1/ 2 = 1.33 × 10−4
−1
Todos estos términos pueden juntarse para dar el primer término del
denominador del LR, que es:
1 U
( y 2 − )T ( + C) −1 ( y 2 − ) (11.9)
2 n1
1
traza (S 2 U −1 )
2
4.6 × 109
V= ≅ 7.3
7.33 × 104 × 8.63 × 103
1 0.7995
y = (n1y1 + n 3 y 3 ) /( n1 + n 3 ) = ( y1 + y 3 ) = .
2 0.0150
0.00423 0.000092
S 3 = . (11.10)
0 . 000092 0 . 000002
Así H1 + H 2 + H 3 = 56.32916
Los otros términos con determinantes, inversas y raíces cuadradas de
determinantes de funciones de las dos matrices de covarianzas U y C son
los mismos que antes, concretamente:
1
− ( n +n )
| 2πU | 2 1 2 = 1.11 × 1014 ,
| 2πC |−1/ 2 = 5.62 × 102 ,
| 2π{(n1 + n 2)U −1 + C−1} |1/ 2 = 7.11 × 10−5
−1
14 2 −5
(1.11 × 10 ) × (5.62 × 10 ) × (7.11 × 10 ) × exp(−56.32916 / 2) = 2.60
1 U
( y 3 − ) T ( + C) −1 ( y 3 − )
2 n3
1
traza (S3U −1 )
2
2.60
V= = 2.1 × 10−10
7.33 × 104 × 1.72 × 105
11.7 Advertencias al lector
11.8 Resumen
11.9 Apéndice
11.9.1 Terminología matricial
a a12
A = 11 (11.11)
a 21 a 22
Los subíndices refieren la celda en la que ha de colocarse cada término.
Así a ij es el miembro de la celda (i,j), la celda en la fila i y la columna j de la
matriz. Una matriz A es a veces denotada por { a ij }.
{}
La traspuesta de una matriz r × c, A = a ij , (i = 1,..., r; j = 1,..., c) es una
{ }
matriz c × r, B = b ji ,( j = 1,..., c; i = 1,..., r ) tal que b ji = a ij . El elemento en la
j-ésima fila y la i-ésima columna de B es el elemento en la i-ésima fila y la
j-ésima columna de A. La traspuesta de A es A T .
Sea A una matriz 3 x 2
a 11 a 12
A = a 21 a 22
a a
31 32
Apéndice 473
Entonces
a11 a 21 a 31
A T =
a
12 a 22 a 32
x1
x = x2
x
3
y
x T = ( x1 x2 x3 ).
Dos matrices del mismo orden pueden sumarse para dar una tercera
matriz del mismo orden. Sea B una matriz
b b12
B = 11
b 21 b 22
Nótese que A + B = B + A.
| A | = a11a 22 − a12a 21
Hay que tener cuidado con la notación. Para una matriz, el símbolo | . |
representa el determinante. Para un número real, el símbolo | . | represen-
ta el valor positivo del número. La multiplicación de una matriz por una
constante, digamos c, da como resultado otra matriz con todas sus celdas
multiplicadas por c. Así:
ca11 ca12
cA =
ca 21 ca 22
Multiplicación matricial
x
x = 1
x2
(x a
1 11 + x 2a 21 , x1a12 + x 2a 22 )
a11x1 + a12 x 2
Ax =
a 21x1 + a 22 x 2
Esto no es igual a x T A. La expresión x T Ax es
x1
(x a + x 2a 21 , x1a12 + x 2a 22) ,
x2
1 11
que es igual a:
x12 a11 + x1x 2a 21 + x1x 2a12 + x 22a 22 = x12a 11 + x1x 2 (a 21 + a12 ) + x 22a 22
a b +a b a 11b12 + a 12 b 22
AB = 11 11 12 21
a 21b11 + a 22 b 21 a 21b12 + a 22 b 22
(11.12)
a b + a 21b12 a12 b11 + a 22 b12
BA = 11 11
a11b 21 + a12 b 22 a12 b 21 + a 22 b 22
1 0
I =
0 1
476 Análisis Multivariante
1 a 22 − a12
A −1 = (11.13)
| A | − a 21 a11
p características del j-ésimo miembro del i-ésimo grupo) se toma como una
Normal, donde la notación es la misma que en la Sección 2.4.6:
( i | C)~ N ( C)
Y1 = ∑ Y1 j / n c e Y 2 = ∑ Y2 j / n s
j=1 j=1
(Y l | l , Dl ; ) l = 1, 2
(Y l | C, D l ~ N ( ) C + D l); l = 1, 2
∫ f (y
θ
1
| D1) f (y 2 | D2)f ( | C)d
(11.14)
1
× exp− (H1 + H 2 + H 3 )
2
donde
2
H1 = ∑ traza(S l U −1 ) (11.15)
l=1
U
H 2 = ( y − )T ( + C) −1 ( y − ) (11.16)
n1 + n 2
H 3 = ( y1 − y 2 )T (D1 + D2 ) −1 ( y1 − y 2 ) (11.17)
Apéndice 479
S l = ∑ (y lj − y l)(y lj − y l)
nl
T
(11.19)
j=1
∫ {f (y
θ
1
| U )× f ( | C)}d ×∫ {f (y 2 |
θ
U )× f ( | C)}d
∫ {f (y
θ
1
| U )× f ( | C)}d
1
−1
(11.20)
1
× exp− traza (S1U −1 ) − (y1 − ) U + C (y1 −
T
)
2 2 n1
∫ {f (y
θ
2
| U )× f ( | C )}d
12.1 Introducción
o bien:
• Hp, el sospechoso se sentó en el asiento del conductor del coche ro-
bado;
• Hd2, el sospechoso se sentó en el asiento del conductor una semana
antes por razones legítimas.
En otro contexto, las proposiciones pudieran ser las siguientes:
• Hp, la víctima se sentó en el asiento del pasajero del coche del sos-
pechoso;
• Hd, la víctima nunca se sentó en el asiento del pasajero del coche del
sospechoso.
Interesadamente, esta clase de proposiciones permiten al experto ilus-
trar su impacto en la evaluación de la evidencia mediante la determinación
de la influencia de las probabilidades de transferencia y de contexto en la
razón de verosimilitud y mostrando que el valor de la razón de verosimi-
litud a nivel de actividad puede (bajo ciertas asunciones) llegar a ser 1/γ.
Consideremos los siguientes ejemplos.
Pr( y, x | H p , I)
V=
Pr( y, x | H d , I)
donde:
• Hp, el sospechoso se sentó en el asiento del conductor del coche robado;
• Hd, el sospechoso nunca se sentó en el asiento del conductor del
coche robado.
Obsérvese que Hd implica que alguna otra persona se sentó sobre el
asiento del conductor del coche robado. Esta puntualización es importan-
te para la valoración de las probabilidades de transferencia, como se verá
más adelante. La ecuación anterior puede desarrollarse utilizando la terce-
ra ley de probabilidad (1.7):
Pr( y, x | H p , I) Pr( y | x , H p , I)
V= = .
Pr( y, x | H d , I) Pr( y | x , H d , I)
en el asiento del conductor del coche robado. Esto significa que la proba-
bilidad, digamos t’170, ha de estimarse considerando que las fibras han sido
transferidas desde la ropa del criminal (no desde el jersey del sospechoso).
Esta probabilidad depende de las características físicas de una ropa desco-
nocida, la que llevara el criminal. Esta probabilidad es distinta de la pro-
babilidad p de la Sección 9.5.4 (d) en la que p significaba la probabilidad
de que el material (la mancha en la Sección 9.5.4) hubiera sido dejado por
el sospechoso aunque el sospechoso fuera inocente del hecho delictivo. El
sospechoso es una persona conocida. Para una probabilidad como t’170, la
persona, o la ropa en nuestro caso, se desconocen.
Pr(y | Hd, T0) representa la probabilidad de que un grupo de 170 fibras
de lana roja sea observado sobre el asiento del conductor dado que el sos-
pechoso nunca se sentó sobre el asiento del conductor del coche robado y
que este grupo de fibras no fue transferido, no permaneció ni fue recupe-
rado con éxito durante la actividad. Si el grupo no fue transferido, eso im-
plica que se encontraba en el asiento antes de la comisión del crimen. b1,m
× γ representa la probabilidad de que aparezca por azar un grupo de fibras
ajenas al objeto de interés sobre el asiento del conductor enlazada con la
frecuencia estimada γ de las características y observadas.
Pr(T0 | Hp) representa la probabilidad de que ningún grupo de fibras fue-
ra transferido, hubiera persistido o fuera recuperado del asiento del con-
ductor procediendo de la ropa del criminal. Esta probabilidad, t’0, se estima
partiendo de que el sospechoso nunca se sentó en el asiento del conductor
y, de este modo, fue otro individuo el que se sentó en el coche robado, Hd.
El denominador del LR es, entonces, b0 γ t’170 + b1,m γ t’0. El LR (12.2) es
entonces:
b 0 t 170 + b 1, m γt 0
V= . (12.3)
b 0 γt '170 + b 1, m γt ' 0
∑b
g =1
g ,mg = 1.
Entonces:
∞
b1,m1 = 1 − b0 − ∑ bg ,mg ≤ 1 − b0 .
g =2
t 170
V= .
γt '170
b 0 t 170 + b 1, m γt 0
V= . (12.4)
b 1, m γ
b 0 t 170 + b 1, m γt 0 b 0 t 170 bt
V= = + t 0 ≈ 0 170 ,
b 1, m γ b 1, m γ b 1, m γ
Pr( y 1 , y 2 ,..., y g | H d )
(12.5)
12.2.4 Transferencia cruzada
Pr(E 2 | H p , E 1 ) Pr(E 1 | H p )
V= × . (12.6)
Pr(E 2 | H d , E 1 ) Pr(E 1 | H d )
u 20
V= (12.7)
γ1γ 2
uk
V= (12.8)
(g 1 γ 1 )(g 2 γ 2 )
Lo anterior sólo ocurre si u20 > 6 / 20, es decir, si u20 > 0.3. Si las dos
transferencias no fueran compatibles, entonces puede que el punto de vista
subjetivo del experto se incline por u20 < 0.3, y la presencia de la evidencia
en la ropa del sospechoso soportaría la proposición de la defensa en lugar
de la proposición del Fiscal. Una transferencia cruzada no implica necesa-
riamente un incremento en la fuerza de la evidencia. La siguiente observa-
ción es pertinente llegado este momento:
sobre pelos y saliva son muy limitados; hay datos sobre transferencias
de fibras a pelo y sobre persistencia (consultar, por ejemplo, Ashcroft y
otros, 1988; Salter y Cook, 1996; Cook y otros, 1997). Si se satisfacen los
criterios (a) y (b), los expertos pueden considerar primeramente las fi-
bras. Si no tienen suficiente información de contexto para considerar la
evidencia (fibras, saliva, pelos) bajo proposiciones de nivel de actividad,
entonces están obligados a permanecer a nivel de fuente. En el escenario
descrito más arriba, la estrategia consistiría en ofrecer una valoración
en el nivel de actividad para fibras y en el nivel de fuente para las otras
evidencias.
El segundo paso en la prevaloración consiste en determinar los posibles
resultados de las investigaciones. Fijándonos en la evidencia de fibras en
el peine, el experto podría presentar los siguientes resultados: no se han
observado fibras; se ha observado un pequeño número de fibras (digamos
entre 1 y 3); o se ha observado un gran número de fibras (esto es, más de
3). Observemos que las definiciones de esas categorías pueden ser flexibles
y pueden depender de los datos disponibles. Observemos también que pu-
dieran estar presentes más de un grupo de fibras.
Luego, se definen los sucesos relacionados con la valoración a nivel de
actividad. Para ayudar al experto a determinar qué sucesos son relevantes
para la prevaloración de los resultados de las investigaciones en tales esce-
narios es útil considerar lo que podría ocurrir si el Sr. U llevaba la máscara
cuando tuvo lugar el robo. Si el Sr. U llevaba la máscara, entonces podemos
imaginar tres posibilidades:
• No se ha transferido, persistido ni recuperado fibra alguna (llama-
mos a este suceso T0);
• Se ha transferido, persistido y recuperado un pequeño número de
fibras (suceso Ts);
• Se ha transferido, persistido y recuperado un gran número de fibras
(suceso Tl).
La presencia de las fibras tiene dos explicaciones principales: han sido
transferidas durante la realización del crimen o estaban antes de la comi-
sión del crimen por azar. Los sucesos relacionados con esas dos explicacio-
nes son los siguientes:
• Ningún grupo de fibras está presente por azar (suceso P0);
• Un grupo de fibras está presente por azar (suceso P1).
Cuando aparece un grupo al azar, puede tratarse de un grupo pequeño o
grande. Los sucesos son:
• El grupo de fibras presente por azar es pequeño (suceso Ss);
• El grupo de fibras presente por azar es grande (suceso Sl).
Prevaloración en escenarios de fibras 497
A 0 0 0
B 1 1 0
C 1 0 1 Pequeño
D 1 0 1 Grande
Resultados
Sucesos (Ev) que Sucesos (Ev) que
de la Pr(Ev|Hp) Pr(Ev|Hd)
ocurren si Hp es cierta ocurren si Hd es cierta
Tabla 12.1
A T0, P0 t0p0 P0 p0
B T0, P0, M t0p1(1–m) P1, M p1(1–m)
C T0, P1, Ss, M o Ts, P0 t0p1ssm+ tsp0 P1, Ss, M p1ssm
D T0, P1, Sl, M o Tl, P0 t0p1slm+ tlp0 P1, Sl, M p1slm
Puede utilizar un estudio con una ‘fibra diana’ enfatizando que tales es-
tudios ofrecen una estimación diferente de la probabilidad, en particular
las probabilidades de observar por casualidad un grupo diana de fibras
que coinciden con las de control, Pr(p1, ss, m | Hd) y Pr(p1, sl, m | Hd), y no
una estimación de m. Se pueden utilizar también bases de datos, asumien-
do que la fuente potencial de las fibras son sombreros, bufandas, ropa de
cama y jerseys, de tal forma que el experto será capaz de valorar la frecuen-
cia relativa de coincidencia entre las fibras en esta población.
En la Tabla 12.3 se muestran razones de verosimilitud que utilizan pro-
babilidades propuestas por Champod y Jackson (2000).
Resultado V
A 0.01
B 0.01
C 3.09
D 842.05
Pr( y | x , H p , I)
V= ,
Pr( y | H d , I)
donde y es la evidencia de fibras rojas en la verja y x es la evidencia de fi-
bras en el jersey rojo del sospechoso.
Si Hd es cierta, la probabilidad del denominador es la probabilidad de
hallar las características del penacho de fibras en la verja en una población
de fuentes potenciales (una población relevante). Asumamos que se ha rea-
lizado un estudio sobre las características en una población relevante y que
la frecuencia de las características es γ. Como en la Sección 9.2, el valor de
la evidencia es entonces:
1
V= .
γ
Como se vio en la Sección 8.5, la población relevante está definida por
Hd e I. En Champod y Taroni (1999) se aportan algunas consideraciones
sobre las definiciones en este ejemplo:
Población relevante de fibras 501
13.1 Introducción
13.2 Equilibrio Hardy-Weinberg
1 j=k
pi = Pii + ∑ Pij
2 j≠i
(13.1)
2pi p j , i ≠ j,
Pij = (13.2)
pi , i = j.
2
Alelos Genotipos
Alelo Frecuencia (%) Observada Esperada
Frecuencia
{10 + (6 + 8 + 14 + 2 + 6) / 2} / 95 = 0.295
DPm = 1 − ∏ Q l
l=1
Pr(E c = A | E S = A, H p , I)
Pr(E c = A | E S = A, H d , I)
13.4 Incertidumbre
ne dada por:
Pr(K tiene el perfil | J tiene el perfil) = Pr(J y K tienen el perfil) / Pr (J
tiene el perfil) =
E(P 2 )
=
E (P)
p2 + σ2
=
p
σ2
=p+
p
rFST + p A (1 − FST )
Pr(A r+1Bs | p A , p B ) = Pr(A r Bs | p A , p B ) (13.5)
1 + (r + s − 1)F
Pr(G c = AB | G s = AB) = 2
{F ST
+ (1 − FST )p A}{FST + (1 − FST )p B }
(13.8)
(1 + FST )(1 + 2FST )
conocida como probabilidad de coincidencia condicional. Nótese que cuan-
do FST = 0, la probabilidad se reduce a 2p A p B , el resultado básico asumien-
do el equilibrio de Hardy – Weinberg.
De manera similar, la probabilidad de coincidencia para homocigotos
puede obtenerse de (13.6), para dar:
Pr(G c = A 2 | G s = A 2 ) =
{2F
ST + (1 − FST )p A}{3FST+ (1 − FST )p A }
(1 + FST )(1 + 2FST )
Éstas son las ecuaciones a las que se hace referencia en la recomenda-
ción 4.2 del informe NRC (1996). Dichas ecuaciones permiten a los cien-
tíficos obtener probabilidades de coincidencia para perfiles completos. La
fórmula de Balding y Nichols (1994) para calcular probabilidades de locus
simples se multiplica a través de los loci. Debería enfatizarse que los resul-
tados para dos personas de la misma subpoblación, son sólo un promedio
sobre las subpoblaciones. Las frecuencias alélicas son un promedio sobre
subpoblaciones y no lo son sobre una subpoblación particular. Las dos úl-
timas ecuaciones permiten que las frecuencias alélicas de una amplia po-
blación se usen en subpoblaciones para las que se aplica FST . Harbison y
Buckleton (1998) aportan una derivación simple de la fórmula de Balding
y Nichols (1994) para heterocigotos y homocigotos. Triggs y Buckleton
(2002) presentan implicaciones lógicas de la aplicación de los principios
genéticos de la población para la evaluación de la evidencia de ADN.
En cálculos forenses es posible valorar el efecto de la sub-estructura de
la población. Para heterocigosis entre alelos con frecuencias iguales p, la
razón de verosimilitud se calcula a nivel de fuente como el recíproco de las
probabilidades de coincidencia condicional (un resultado análogo a (9.3)).
En la Tabla 13.3 se presentan las razones de verosimilitud para varios valo-
res de FST . El efecto de FST decrece cuando las frecuencias alélicas aumen-
tan y no es importante cuando p = 0.1 e incluso para FST tan altos como
0.01 (Weir, 1998).
514 Perfiles de ADN
13.6 Individuos emparentados
Hermanastro ( p i + p j + 4p i p j ) / 4 16.67
No emparentado 2 pi p j 50
Hermanastro p i (1 + p i ) / 2 18.2
No emparentado p i2 100
Tabla 13.5 Efectos del parentesco en la probabilidad de coincidencia, Pr(Gc | Gs, Hd, I), de Weir (2001a). Obsérvese
que se usa θ para representar a FST para una mayor claridad. © 2001. John Wiley & Sons, Ltd. Reproducido
con permiso.
Sospechoso Parentesco Pr ( G c G s, H d, I )
2
( 1 + p i + p j + 2p i p j ) + ( 5 + 3p i + 3p j – 4p i p j )θ + 2 ( 4 – 2p i – 2p j + p i p j )θ
AiAj Hermanos Carnales --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
4 ( 1 + θ ) ( 1 + 2θ )
2θ + ( 1 – θ ) ( p i + p j )
Padre e hijo --------------------------------------------------
2(1 + θ)
2
( p i + p j + 4p i p j ) + ( 2 + 5p i + 5p j – 8p i p j )θ ( 8 – 6p i – 6p j + 4p i p j )θ
Hermanastros -----------------------------------------------------------------------------------------------------------------------------------------------------------------------
4 ( 1 + θ ) ( 1 + 2θ )
2
( p i + p j + 12p i p j ) + ( 2 + 13p i + 13p j – 24p i p j )θ + 2 ( 8 – 7p i – 7p j + 6p i p j )θ
Primos Carnales --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
8 ( 1 + θ ) ( 1 + 2θ )
2 [ θ + ( 1 – θ )p i ] [ 0 + ( 1 – θ )p j ]
No emparentados ----------------------------------------------------------------------------
( 1 + θ ) ( 1 + 2θ )
2 2 2 2
( 1 + p i ) + ( 7 + 7p i – 2p j )θ + ( 16 – 9p i + p j )θ
AiAi Hermanos Carnales ----------------------------------------------------------------------------------------------------------------------
4 ( 1 + θ ) ( 1 + 2θ )
2θ + ( 1 – θ )p i
Padre e hio ----------------------------------
1+θ
[ 2θ + ( 1 – θ )p i ] [ 2 + 4θ + ( 1 – θ )p i ]
Hermanastros -----------------------------------------------------------------------------------------
2 ( 1 + θ ) ( 1 + 2θ )
[ 2θ + ( 1 – θ )p i ] [ 1 + 11θ + 3 ( 1 – θ )p i ]
Primos Carnales -----------------------------------------------------------------------------------------------
4 ( 1 + θ ) ( 1 + 2θ )
[ 2θ + ( 1 – θ )p i ] [ 1 + 11θ + 3 ( 1 – θ )p i ]
No emparentados -----------------------------------------------------------------------------------------------
4 ( 1 + θ ) ( 1 + 2θ )
Individuos emparentados 517
518 Perfiles de ADN
Pr(E | H p )θ0
Pr(H p | E ) =
Pr(E | H p )θ0 + Pr(E | H d1 )θ1 + Pr(E | H d 2 )θ2
θ0
= ,
θ0 + φ1θ1 + φ2θ2
φ1 θ1 + φ2θ2
Pr(H d | E) =
θ0 + φ1θ1 + φ2θ2
θ0
.
φ1θ1 + φ2θ2
1
.
φ1 N + φ2 (n − 1)
1 1
2
1
1/ + = ≅ 15
250 4 0.004 + 0.063
Pr(E | H p )
V= .
Pr(E | H d )
Se ha hecho una búsqueda en una base de datos que contiene los perfi-
les de ADN de N individuos conocidos. Justamente uno de los perfiles de la
base de datos coincide con el ADN encontrado en la escena del crimen y, por
tanto, ese individuo se convierte en sospechoso. Nótese que V no depende
Búsqueda en bases de datos 523
Pr(E c , E s | H p , O)
Pr(E c , E s | H d , O)
Pr(E c , E s | H p , O) p 1
= = .
Pr(E c , E s | H d , O) p2 p
Pr(O | H p )
Es necesario determinar si la segunda razón es menor o ma-
Pr(O | H d )
yor que 1. Consideramos O . Se trata del suceso de que, al menos, uno de
los otros individuos en la base de datos coincida con el perfil de la mancha
del crimen. Si H d es cierta, O puede suceder de dos formas. O bien uno de
los otros individuos es la fuente de la mancha, o bien ninguno es la fuente
pero, al menos, uno coincide por azar con E c . Si H p es verdadera, en-
tonces sólo la segunda de estas consideraciones es posible. De este modo,
Pr( O | H p ) < Pr( O | H d ). De ahí Pr(O | H p ) > Pr(O | H d ) y la segunda razón en
524 Perfiles de ADN
cunstancia. Pudiera pensarse que debido a que ésta fue la razón para selec-
cionar al sospechoso, el valor de la evidencia debería modificarse; es menos
útil que si el sospechoso hubiese sido arrestado por otra evidencia. Esto no
es correcto. El poder de la evidencia está todavía determinado por la razón
de dos probabilidades: que el acusado llevase una mancha de sangre en la
camisa siendo culpable o siendo inocente. Lo que sucede exactamente en
el ejemplo es que hay menos evidencia en un caso que en el otro. Cuando se
para al sospechoso por tener una mancha de sangre en la camisa puede que
no haya otra evidencia. Cuando el sospechoso es detenido sobre la base de
otra evidencia y luego se advirtió de que tenía una mancha de sangre en su
camisa, el LR para la camisa con la mancha de sangre se combina con un a
priori que ya tiene en cuenta otra evidencia. El valor de una parte de la evi-
dencia no debe confundirse con el valor de toda la evidencia.
Pensemos en una isla con N+2 personas, una de las cuales ha sido asesi-
nada. De las restantes N+1 personas, N son inocentes y la otra es el asesino.
Las etiquetamos desde 0 hasta N. Hay una evidencia de traza (por ejemplo,
una frecuencia de perfil de ADN) que vincula al asesino con el crimen. La
frecuencia de esta evidencia en la población relevante es . El valor de la
evidencia es entonces:
1 /(1 + Nγ )
(Sección 3.5.6).
Los argumentos de esta sección están basados en los expuestos
por Balding y Donnelly (1995b) y Balding (2000). Balding y Donnelly
(1995b) tratan de cuestiones que van más allá del alcance de este libro.
Otros artículos relevantes son los de Balding (1995) y Dawid y Mortera
(1996). Sin embargo, podemos abordar algunos argumentos iniciales
seguidamente porque arrojan luz sobre las ideas subyacentes en las in-
ferencias para la identificación forense. Hay que considerar dos propo-
siciones:
• H p , el sospechoso es el criminal;
• H d , el sospechoso no es el criminal.
La información de contexto se representa mediante I, y ésta se asume in-
dependiente de la evidencia. Si H d es cierta, uno de los otros miembros de la
población de la isla es el criminal. Sea C la variable aleatoria que representa
528 Perfiles de ADN
Pr(C = s | E, I)
Pr(E | C = s) Pr(C = s | I)
= (13.10)
Pr(E | C = s) Pr(C = s | I) + ∑x ≠s Pr(E | C = x ) Pr(C = x | I)
Pr(E | C = x )
Vs ( x ) = .
Pr(E | C = s)
La notación con s como un subíndice indica la asimetría del contexto en
que la evidencia está siendo considerada con relación a las proposiciones
H p y H d , es decir que s sea o no el criminal. Sea w s ( x ) la razón siguiente:
Pr(C = x | I)
w s (x) = .
Pr(C = s | I)
1
Pr(C = s | E, I) =
1 + ∑x ≠s Vs ( x ) w s ( x )
Mezclas 529
13.10 Mezclas
Una muestra mixta en este contexto es una mancha (traza) que contie-
ne una mezcla de material genético de más de una persona (Weir, 1995).
Sobre este particular, Weir y otros (1997) propusieron las fórmulas para
muestras mixtas basadas en el trabajo de Evett y otros (1991). Las fórmulas
asumen independencia de todos los alelos en la mezcla. Esta asunción im-
plica el equilibrio de Hardy-Weinberg y el equilibrio de enlace, además de
independencia entre los individuos. Por tanto, se ignoró el nivel de depen-
dencia entre los individuos dentro de la misma población ( FST = 0, Sección
530 Perfiles de ADN
1
V= .
2p a p c + 2p b p c + p c2
Mezclas 531
1
Pr(A a A c | A c A c ) + Pr(A b A c | A c A c ) + Pr(A c A c | A c A c )
Pr(A c A c )
. (13.11)
Pr(A a A c , A c A c ) + Pr(A b A c , A c A c ) + Pr(A c A c , A c A c )
xFST + (1 − FST )p a
1 + (n − 1) FST
para el Condado de los Ángeles, caso número BA097211; mezcla de tres ale-
los con una víctima homocigótica y un sospechoso heterocigoto), Buckleton y
otros, (1998) variaron el número de donantes desconocidos, r, de 2 a 10 para
determinar el rango de valores del LR, sugiriendo que r podría no ser creíble si
excediera de 10, por lo que la máxima reducción del LR es un factor de 4 con
respecto a los dos valores extremos. Lauritzen y Mortera (2002) han propues-
to recientemente un enfoque alternativo para resolver el mismo problema.
13.11 Tasa de error
Pr(E | H p ) Pr(E | M )
= .
Pr(E | H d ) Pr(E | M) Pr(M | H d ) + Pr(E | M) Pr(M | H d )
En esta versión del LR, el término Pr(E | M) es la probabilidad de que el
laboratorio informe de una coincidencia si el sospechoso y la mancha de la
escena del crimen tienen perfiles de ADN coincidentes, y se asume que es 1.
El término Pr(M | H d ) es la probabilidad de una coincidencia por casuali-
dad. Para una comparación entre muestras de una única fuente, Pr(M | H d )
es la probabilidad de coincidencia aleatoria, representada por γ, y Pr( M | H d )
es el complementario de la probabilidad de coincidencia aleatoria. El térmi-
no Pr(E | M ) es la probabilidad de falso positivo, representada por ε. Así:
Pr(E | H p ) 1
= .
Pr(E | H d ) γ + {ε(1 − γ )}
En la Tabla 13.8 se muestra la influencia de las variaciones en γ, ε y las
apuestas a priori a favor de H p en las apuestas a posteriori de que el sospe-
choso fue la fuente de la mancha encontrada en la escena del crimen.
Las apuestas a priori presentadas en la Tabla 13.8 se corresponden con
dos tipos de casos distintos que varían en la fuerza en la que el sospechoso
536 Perfiles de ADN
2:1 10 −9 0 2000000000
−9
2:1 10 0.0001 20000
2:1 10 −6 0 2000000
2:1 10 −6 0.0001 19802
−9
1:1000 10 0 1000000
1:1000 10 −9 0.0001 10
−6
1:1000 10 0 1000
−6
1:1000 10 0.0001 9.9
14.1 Introducción
14.2 Redes Bayesianas
Por otra parte, si A recibe flechas de otras variables B1, …, Bn, entonces A
es un nodo hijo, y las variables B1, …, Bn son los nodos padres. La tabla de
probabilidades asociada al nodo A contendrá probabilidades del nodo con-
dicionales Pr(A | B1, …, Bn).
La combinación de nodos y flechas constituyen caminos a través de la
red. Por consiguiente, una red puede considerarse como una representación
gráfica compacta de una evolución de todas las posibles historias relaciona-
das con un escenario. Las BNs han acaparado la atención fundamentalmen-
te porque son fáciles de desarrollar. Existen varias publicaciones con ejem-
plos del uso de las BNs en la ciencia forense (Aitken y Gammermann, 1989;
Dawid y Evett, 1997; Dawid y otros, 2002; Evett y otros, 2002; Garbolino y
Taroni, 2002; Aitken y otros, 2003; y Mortera y otros, 2003).
En resumen, la utilización de BNs tiene algunas ventajas clave que po-
drían describirse de la siguiente manera:
• la capacidad para estructurar los procesos de inferencia, permitien-
do afrontar los problemas de una forma lógica y secuencial;
• la necesidad de evaluar todas las historias posibles;
• la comunicación de los procesos involucrados en problemas de in-
ferencia con otros de una forma sucinta, ilustrando sobre lo que se
asume como cierto en cada nodo;
• la capacidad de centrar la discusión sobre probabilidad y las asun-
ciones subyacentes.
Cada nodo representa una variable aleatoria que puede asumir valores
continuos o discretos, aunque en este capítulo sólo utilizaremos nodos dis-
cretos que tienen un número finito de estados.
Existen tres tipos básicos de conexiones entre nodos en una BN: en se-
rie, divergente y convergente. Se ilustran en la Figura 14.1.
(a) � � �
(b)
� �
Redes bayesianas 543
� �
(c)
Figura 14.1. Conexiones básicas en redes bayesianas: (a) serie; (b) diver-
gencia; (c) convergencia.
Ejemplo 14.1:
Este ejemplo relaciona la evidencia E, una coincidencia entre las carac-
terísticas de la mancha recuperada y el perfil de ADN de un sospechoso,
y la proposición de que el sospechoso es el autor de la mancha (Hp). La
relación se muestra en la Figura 14.2. La flecha directa desde H (donde H
representa o bien Hp o bien Hd)) a E ilustra que las probabilidades consi-
Redes bayesianas 547
deradas son Pr(E | Hp) y Pr(E | Hd). Se desea determinar Pr(Hp | E). Dando
valores a Pr(Hp), Pr(E | Hp) y Pr(E | Hd), es posible, utilizando el teorema de
Bayes, encontrar el valor de Pr(Hp | E):
Pr(E | H p ) × Pr(H p )
Pr ( H p | E ) =
Pr(E | H p ) × Pr(H p ) + Pr(E | H d ) × Pr(H d )
� �
Ejemplo 14.2:
Este ejemplo relaciona la evidencia de una coincidencia contenida en
un informe pericial entre perfiles de ADN (RM – reported match) extraídos
de una mancha de sangre encontrada en la ropa de la víctima de un crimen
y el de un sospechoso, el suceso de una coincidencia verdadera (M) entre
esos dos perfiles y la proposición de que el sospechoso es la fuente de la
mancha de sangre en la ropa de la víctima (Hp). La relación se muestra en
la Figura 14.3, y se trata de un ejemplo de una conexión en serie.
Las flechas dirigidas de H a M y de M a RM muestran que se conocen o se
requieren las probabilidades para hallar Pr(M | Hp), Pr(M | Hd), Pr(RM | M) y
Pr(RM | M ), donde M es el complementario de M y significa que no hay
coincidencia entre las características que se comparan. También, y esto
es importante, la separación entre el nodo RM y el nodo Hp mediante el
nodo M demuestra que RM es condicionalmente independiente de Hp,
dado M. Análogamente al Ejemplo 14.1, dando valores a Pr(M | Hp), Pr(M |
Hd), Pr(RM | M), Pr(RM | Hd) y Pr(Hp), es posible, utilizando el teorema de
Bayes, determinar Pr(Hp | RM):
Pr(RM | H p ) × Pr(H p )
Pr (H p | RM ) = ;
Pr(RM | H p ) × Pr(H p ) + Pr(RM | H d ) × Pr(H d )
Pr(RM | H p ) = Pr(RM | M, H p ) × Pr(M | H p ) + Pr(RM | M, H p ) × Pr(M | H p ) =
Pr(RM | M ) × Pr(M | H p ) + Pr(RM | M ) × Pr(M | H p ),
con una expresión similar para Pr(RM | Hd). En la Sección 14.5 se presen-
tan más detalles sobre este ejemplo práctico.
548 Redes bayesianas
� � ��
Figura 14.3. Red bayesiana para una conexión en serie y para una coinci-
dencia documentada (RM) en un perfil de ADN, donde M significa una coinci-
dencia y H una proposición
14.3.1 Preliminares
� �
Se asume que los cuatro nodos son binarios. Los dos posibles valores de
cada uno de ellos son los siguientes:
• H, el sospechoso es o no el criminal, representados por Hp y Hd;
• B, la mancha del crimen vino o no vino del criminal, representados
por B y B ;
• A, la mancha del crimen vino o no vino del sospechoso, representa-
dos por A y A ;
• E, el sospechoso y la mancha del crimen comparten o no compar-
ten el mismo perfil de ADN, representados por E y E .
Los nodos H y B son nodos padre e independientes (no existe enlace
entre ellos). El conocimiento de que la mancha viene del criminal no nos
dice nada sobre la probabilidad de que el sospechoso sea (o no sea) el cri-
minal. De este modo, sólo necesitamos especificar una probabilidad para
cada nodo: Pr(Hp), la probabilidad de que el sospechoso sea el criminal,
y Pr(B), la probabilidad de que la mancha del crimen venga del criminal
(es decir, el término “relevancia”). Las probabilidades complementarias
Pr(Hd) y Pr( B ) se calculan de forma automática. El resultado del nodo A
es dependiente de los valores de H y B. Se necesitan cuatro probabilida-
des:
550 Redes bayesianas
• Pr(A | Hp, B): probabilidad de que la mancha del crimen viniera del
sospechoso, condicionada a que el sospechoso es el criminal y que
la mancha del crimen viene del criminal; esta probabilidad es igual
a la unidad;
Pr(A | H p , B) : probabilidad de que la mancha del crimen viniera del
•
sospechoso, condicionada a que el sospechoso es el criminal y que
la mancha del crimen no viene del criminal; esta probabilidad es
igual a cero;
• Pr(A | Hd, B): probabilidad de que la mancha del crimen viniera del
sospechoso, condicionada a que el sospechoso no es el criminal y
que la mancha del crimen viene del criminal; en este caso la man-
cha no vino del sospechoso sin ninguna duda, así pues esta probabi-
lidad es igual a cero;
Pr(A | H d , B) : probabilidad de que la mancha del crimen viniera del
•
sospechoso, condicionada a que el sospechoso no es el criminal y
que la mancha del crimen no viene del criminal; esta es la probabili-
dad de que la mancha hubiera sido dejada por el sospechoso siendo
inocente de la ofensa (esta probabilidad recibe el nombre de p en la
Sección 9.5.4).
Para el cuarto nodo E hay dos probabilidades a determinar. La primera,
Pr(E | A), la probabilidad de que el sospechoso y la mancha del crimen ten-
gan el mismo perfil dado que la mancha del crimen vino del sospechoso; que
es la unidad. La segunda, Pr (E | A ) , la probabilidad de que el sospechoso y
la mancha de sangre tengan el mismo perfil dado que la mancha no vino del
sospechoso; esta es la frecuencia del perfil en la población relevante γ.
La probabilidad de interés es Pr(Hp | E). Las probabilidades anteriores
son las que nos vienen dadas. Hay, luego, una observación por la que E
toma el valor: “la mancha del crimen y el sospechoso comparten el mismo
perfil de ADN”. Entonces:
con Pr (A | H p ) = 1 − Pr(A | H p ).
Si se asume que Pr(B) = r, y que Pr (A | B, H d ) = p , se obtiene una versión
simplificada de la ecuación presentada en la Sección 9.5.4 (con k = 1). Esto
enfatiza lo apropiada que es la estructura gráfica y las valoraciones proba-
bilísticas asociadas. Si se asume también más tarde que p es igual a cero
y que la relevancia alcanza su valor máximo (r = 1), entonces la razón de
verosimilitud se reduce a su forma más simple: 1/γ.
El trabajo de Garbolino y Taroni (2002) puede considerarse como una
demostración de que las BNs pueden utilizarse para resolver problemas de
inferencia forense con soluciones probabilísticas precisas y aceptadas.
14.4 Evidencia desaparecida
14.4.1 Preliminares
(a)
(b)
�
(c)
14.4.3 Comentarios
14.5 Tasas de error
14.5.1 Preliminares
Pr (S | R ) Pr(R | S) Pr(S)
= × . (14.2)
Pr (S | R ) Pr(R | S) Pr(S)
Para tener en cuenta la posibilidad de error (principalmente los falsos
positivos), se introdujo una proposición intermedia M. La proposición
M significa que la coincidencia entre perfiles es cierta, y se distingue de
R, una coincidencia entre perfiles documentada en un informe pericial.
Análogamente a S, M debe tomarse como una variable no observada, pues-
to que su estado de verdad no puede ser conocido con certeza, pero puede
revisarse gracias a la adquisición de nueva información, como podría ser el
suceso R. En Thompson y otros (2003) se presentó una razón de verosimi-
litud modificada.
556 Redes bayesianas
� Pr(S)
� Pr(M|S)
� Pr(R|M)
Figura 14.6. Red bayesiana para tasas de error. Las dependencias probabi-
lísticas se indican a la derecha de cada nodo.
Evidencia de transferencia 557
14.6 Evidencia de transferencia
14.6.1 Preliminares
� � �
X Tipo = x Tipo = x
T t1 t0 t1 t0
B b0 b1 b0 b1 b0 b1 b0 b1
y 1 0 0 0.01 0 0 0 0.01
y 0 0 1 0.99 1 0 1 0.99
2 grupos 0 1 0 0 0 1 0 0
� � �
T t0 ts tl
P p0 pl p0 p1 p0 p1
S ss sl ss sl ss sl ss sl ss sl ss sl
0 grupos 1 1 0 0 0 0 0 0 0 0 0 0
1 grupo no coincidente 0 0 0.95 0.95 0 0 0 0 0 0 0 0
1 grupo pequeño coincidente 0 0 0.05 0 1 1 0 0 0 0 0 0
1 grupo grande coincidente 0 0 0 0.05 0 0 0 0 1 1 0 0
2 grupos 0 0 0 0 0 0 1 1 0 0 1 1
14.7 Combinación de evidencias
Vcomb
Pr ( H p ) Pr(A, B | H p ) Pr(H p | A, B)
× = . (14.5)
Pr ( H d ) Pr(A, B | H d ) Pr(H d | A, B)
{
Pr ( A y B | H p ) Pr(A | B, H p ) Pr(B | H p )
= × . (14.6)
Pr ( A y B | H d ) Pr(A | B, H d ) Pr(B | H d )
Pr ( A y B | H p ) Pr(A | H p ) Pr(B | H p )
= × . (14.7)
Pr ( A y B | H d ) Pr(A | H d ) Pr(B | H d )
562 Redes bayesianas
Pr ( E , D | H p ) Pr(E | D, H p ) Pr(D | H p )
V= = × . (14.8)
Pr ( E , D | H d ) Pr(E | D, H d ) Pr(D | H d )
Una vez que ha sido elegida una mancha sobre el sospechoso (o sobre
la víctima) para su análisis, se analiza y se encuentra una coincidencia con
el perfil de la víctima (o con el perfil del sospechoso). Es posible establecer
una distinción entre una coincidencia documentada mediante el informe
pericial correspondiente y una verdadera coincidencia, considerando la
probabilidad de falso positivo distinta de cero (Thompson y otros, 2003;
consultar también la Sección 14.5). Se asume que no hay falsos negativos.
La red ilustrada en la Figura 14.9 nos permite determinar la probabilidad
de culpabilidad del sospechoso, dado que se ha informado documental-
mente sobre la existencia de una coincidencia entre el perfil de ADN de
las manchas analizadas procedentes del sospechoso y las de la víctima y/o
de las manchas analizadas procedentes de la víctima y las del sospecho-
so, teniendo en cuenta otros aspectos: relevancia, transferencia, presencia
inocente y adquisición inocente. Esas otras consideraciones han sido de-
terminadas dada la información de contexto, y las correspondientes proba-
bilidades son probabilidades subjetivas valoradas por el experto (Taroni y
otros, 2001).
14.8.1 Descripción de nodos
Para una BN es necesario tener una clara descripción de cada uno de los
nodos. El ejemplo de Aitken y otros (2003) que se representa en la Figura
14.9 tiene 14 nodos, los cuales incluyen factores como la transferencia del
material entre el sospechoso y la víctima, la elección de las manchas sobre
el sospechoso y la víctima, las actividades de contexto, las coincidencias
reales y las documentales entre las manchas, y el asunto clave sobre si el
sospechoso cometió o no cometió el crimen.
566 Redes bayesianas
�������������������������� �������������������������������
��������������������������������
��������������� ��������������������
�����������������������������
����������������������� ������������
�����������������������������
������������������ ���������������������
��������������������������������
����������������������������� ��������������������������������
14.9.1 Elección de parámetros
La elección de los valores para los parámetros del modelo anterior puede
obtenerse a partir de tablas de consulta construidas a partir de datos experi-
mentales. Los parámetros son al, bl, aq, bq, p y q. Por ejemplo, los parámetros
al y bl se eligen basándonos en la rigidez de la máscara y en la recepción de
transferencia. Estos toman valores muy bajos, bajos, medios, altos y muy al-
tos. Los datos experimentales están clasificados dentro de esas categorías, y
para cada categoría se calculan los valores de al y bl. Estos valores están gra-
bados en una tabla de consulta que el software FINDS usa para determinar
la distribución gamma la cual es mostrada al científico forense. La persis-
tencia se clasifica también como muy baja, baja, media, alta y muy alta. El
tipo de modificaciones sobre la cabeza son ninguna, peinada y lavada. Las
modificaciones de orden físico elegibles son baja, media y alta. “Recipiente
de recuperación” se refiere a si el tipo de pelo facilita la recuperación; las
elecciones son entre muy alto, alto, medio, bajo y muy bajo.
14.10 Resumen
Adams, B.J. (2003) The diversity of adult dental patterns in the United States and
the implications for personal identification. Journal of Forensic Sciences, 48,
497-503.
Aitchison, J. and Dunsmore, I.R. (1975) StatistícaI Prediction Analysis. Cambridge
University Press, Cambridge.
Aitchison. J., Habbema. J.D.F. and Kay. J.W. (1977) A critical comparison of two
methods of statistical discrimination. Applied Statistics, 26, 15-25.
Aitken, C.G.G. (1986) Statistical discriminant analysis in forensic science. Journal
of the Forensic Science Society, 26, 237-247.
Aitken. C.G.G. (1991) Report on International Conference on Forensic Statistics.
Journal of the Royal Statistical Society, Series A, 154, 45-48. Selected papers in-
cluded on pp. 49-130.
Aitken. C.G.G. (1993) Statistics and the law: report of a discussion session at the
Royal Statistical Society Conference, Sheffield, September 1992. Journal of
the RoyaI StatisticaI Society, Series A, 156, 301-304.
Aitken, C.G.G. (1999) Sampling - how big a sample? Journal of Forensic Sciences, 44,
750-760.
Aitken, C.G.G. (2000) Interpretation of evidence and sample size determination. In
Statistical Science in the Courtroom (Gastwirth, J.L., ed.), Springer-Verlag, New
York, pp. 1-24.
Aitken, C.G.G. (2003) Conviction by probability. New Law Journal. 153, 1153-1154.
Aitken, C.G.G. and Gammerman. A. (1989) Probabilistic reasoning in evidential
assessment. Journal of the Forensic Science Society, 29, 303-316.
Aitken, C.G.G. and Lucy. D. (2002) Estimation of the quantity of a drug in a con-
signment from measurements on a sample. Journal of Forensic Sciences, 47,
968-975.
Aitken, C.G.G. and Lucy. D. (2004) Evaluation of trace evidence in the form of
multivariate data. Applied Statistics, 53, 109-122.
Aitken, C.G.G. and MacDonald. D.G. (1979) An application of discrete kernel me-
thods to forensic odontology. Applied Statistics, 28. 55-61.
Aitken, C.G.G. and Robertson. J. (1987) A contribution to the discussion of probabi-
lities and human hair comparisons. Journal of Forensic Sciences, 32, 684-689.
Aitken, C.G.G. and Stoney. D.A. (eds) (1991) The Use of Statistics in Forensic Science,
Ellis Horwood, Chichester.
Aitken, C.G.G. and Taroni. F. (1997) A contribution to the discussion on ‘Bayesian
analysis of deoxyribonucleic acid profiling data in forensic identification appli-
cations’. Foreman et al. Journal of the Royal Statistical Society, Series A, 160. 463.
572 Referencias
Aitken, C.G.G. and Taroni. F. (1998) A verbal scale for the interpretation of eviden-
ce (Letter to the Editor). Science & Justice, 38, 179-281.
Aitken, C.G.G, Gammerman, A., Zhang, C., Connolly, T., Bailey, D., Gordon, R.
and Oldfield, R. (1996a) Bayesian belief networks with an application in
specific case analysis. In Computational Learning and Probabilistic Reasoning
(Gammerman A., ed.). John Wiley & Sons Ltd. London, pp. 169-184.
Aitken, C.C.G., Connolly, T., Gammerman, A., Zhang, G., Bailey, D., Gordon, R. and
Oldfield, R. (1996b) Statistical modelling in specific case analysis. Science &
Justice, 36, 245-255.
Aitken, C.G.G., Bring. J., Leonard, T. and Papasouliotis, O. (1997) Estimation
of quantities of drugs handled and the burden of proof. Journal of the Royal
Statistical Society, Series A, 160, 333-350.
Aitken, C.G.G., Taroni, F. and Garbolino, P. (2003) A graphical model for the
evaluation of cross-transfer evidence in DNA profiles. Theoretical Population
Biology, 63, 179-190.
Allen, R.J., Balding, D.J., Donnelly, P., Friedman, R., Kaye, D., LaRue, H., Park,
R.C., Robertson, B. and Stein, A. (1995) Probability and proof in State v.
Skipper: an internet exchange. Jurimetrics Journal, 35, 277-310.
Allen, T.J., and Scranage, J.K. (1998) The transfer of glass. Part I - Transfer of glass
to individuals at different distances. Forensic Science International, 93, 167-174.
Allen, T.J., Hoefler, K. and Rose, S.J. (1998a) The transfer of glass. Part II - A stu-
dy of the transfer of glass to a person by various methods. Forensic Science
International, 93, 175-193.
Allen, T.J., Hoefler, K. and Rose, S.J. (1998b) The transfer of glass. Part III - The
transfer of glass from a contaminated person to another uncontaminated
person during a ride in a car. Forensic Science International, 93, 195-200.
Allen, T.J., Cox, A.R., Barton, S., Messam, P. and Lambert, J.A. (1998c) The trans-
fer of glass. Part IV - The transfer of glass fragments from the surface of an
item to the person carrying it. Forensic Science International, 93. 201-208.
Allen, T.J., Loeke, J. and Scranage, J.K. (1998d) Breaking of flat glass. Part V -
Size and distribution of fragments from vehicle windscreens. Forensic Science
International, 93, 209-218.
Anderson, T. and Twining, W. (1998) Analysis of Evidence: How to Do Things with Facts
Based on Wigmore’s Science of Judicial Proof. Northwestern University Press,
Evanston, IL.
Anderson, T.W. (1984) An Introduction to Multivariate Analysis. John Wiley & Sons,
lnc., New York.
Antelman, G. (1997) Elementary Bayesian Statistics, Edward Elgar. Cheltenham.
Ashcroft, C.M., Evans, S. and Tebbett, LR. (1988) The persistence of fibres in head
hair. Journal of the Forensic Science Society, 28, 289-293.
Ayres, K.L. (2000) Relatedness testing in subdivided populations. Forensic Science
International, 114, 107-115.
Referencias 573
Balding, D.J. (1995) Estimating products in forensic identification using DNA pro-
files. Journal of the American Statistical Association, 90, 839-844.
Balding, D.J. (1997) Errors and misunderstandings in the second NRC report.
Jurimetrics Journal, 37, 469-476.
Balding, D.J.(1999) When can a DNA profile be regarded as unique? Science &
Justice, 39, 257-260.
Balding, D.J. (2000) lnterpreting DNA evidence: can probability theory help? In:
Statistical Science in the Courtroom (Gastwirth, J.L. ed.), Springer-Verlag, New
York, pp. 51-70.
Balding, D.J. (2002) The DNA database search controversy. Biometrics, 58, 241-144.
Balding. D.J. (2005) Assessing Weight-of-Evidence for DNA Profiles. John Wiley & Sons
Ltd. Chichester.
Balding, D.J. and Donnelly, P. (1994a) How convincing is DNA evidence? Nature
368, 285-286.
Balding, D.J. and Donnelly, P. (1994b) The prosecutor’s fallacy and DNA evidence.
Criminal Law Review, 711-72l.
Balding, D.J. and Donnelly, P. (1995a) Inferring identity from DNA profile eviden-
ce. Proceedings of the National Academy of Sciences USA, 92, 11741-11745.
Balding, D.J. and Donnelly, P. (1995b) Inference in forensic identification (with
discussion). Journal of the Royal Statistical Society, Series A, 158, 21-53.
Balding, D.J. and Donnelly, P. (1996) Evaluating DNA profile evidence when the
suspect is identified through a database search. Joumal ol Forensic Sciences, 41,
603-607.
Balding, D.J. and Nichols, R.A. (1994) DNA profile match probability calculation:
how to allow for population stratification, relatedness, database selection
and single bands. Forensic Science Internatíonal, 64, 125-140.
Balding, D.J. and Nichols, R.A. (1995) A method for quantifying differentiation
between populations at multi-allelic loci and its implications for investi-
gating identity and paternity. In Human Identificatíon: The Use of DNA Markers
(Weir, B.S., ed.). Kluwer Academic, Dordrecht, pp. 3-12.
Balding, D.J. and Nichols, R.A. (1997) Significant genetic correlations among
Caucasians at forensic DNA loci. Heredity, 78, 583-589.
Balding, O.J., Greenhalgh, M. and Nichols, R.A. (1996) Population genetics of STR
loci in Caucasians. Internatíonal Journal of Legal Medicine, 108, 300-305.
Balthazard, V. (1911) De l’identification par les empreintes digitales. Comptes Rendus
des Séances de l’Académie des Sciences, 152, 1862-1864.
Bar-Hillel, M. and Falk, R. (1982) Some teasers concerning conditional probabili-
ties. Cognition, 11, 109-122.
Barnard, G.A. (1958) Thomas Bayes - a biographical note (together with a re-
printing of Bayes, 1763). Biometrika, 45, 293-315. Reprinted in Pearson and
Kendall (1970). 131-153.
Barnett, P.D. and Ogle, R.R. (1982) Probabilities and human hair comparison.
Journal of Forensic Sciences, 27, 272-278.
574 Referencias
Bates, J.W. and Lambert, J.A. (1991) Use of the hypergeometric distribution for
sampling in forensic glass comparison. Journal of the Forensic Science Society,
31, 449-455.
Bayes, T. (1763) An essay towards solving a problem in the doctrine of chances.
Philosophical Transactions of the Royal Society of London for 1763, 53, 370-418.
Reprinted with Barnard (1958) in Pearson and Kendall (1970), 131-153.
Belin, T.R., Gjertson, D.W. and Hu, M. (1997) Summarizing DNA evidence when
relatives are possible suspects. Journal of the American Statistical Association,
92,706-716.
Bentham, J. (1827) Rationale of Judicial Evidence, Specially Applied to English Practice
(Mill. J.S., ed.), Hunt and Clarke, London.
Berger, J.O. (1985) Statistical Decision Theory and Bayesian Analysis, Springer-Verlag,
New York.
Berger, J.O. and Sellke. T. (1987) Testing a point null hypothesis: the irreconcila-
bility of P values and evidence. Journal of the American Statistical Association, 82,
112-139.
Bernardo, J.M. and Smith, A.F.M. (1994) Bayesian Theory. John Wiley & Sons, Ltd,
Chichester.
Bernoulli, J. (1713) Ars conjectandi, Basle, Switzerland.
Bernoulli, N. (1709) Specimina artis conjectandi ad quaestiones juris applicable, Basle,
Switzerland.
Berry, O.A. (1990) DNA fingerprinting: what does it prove? Chnnce, 3, 15-25.
Berry, O.A. (1991a) Inferences using DNA profiling in forensic identification and
paternity cases. Statistical Science, 6, 175-205.
Berry, O.A. (1991b) Probability of paternity. In The Use of Statistics in Forensic Science
(Aitken, C.G.G. and Stoney, O.A., eds). Ellis Horwood, Chichester, pp. 150-156.
Berry, O.A. (1991c) Bayesian methods in Phase III trials. Drug Information Journal,
25, 345-368.
Berry, O.A. (1993) A case for Bayesianism in c1inical trials. Statistics in Medicine, 12,
1377-1393.
Berry, O.A. (1996) A Bayesian Perspective, Duxbury Press, Belmont, CA.
Berry, D.A. and Geisser, S. (1986) Inference in cases of disputed paternity. In
Statistics and the Law (DeGroot, M.H., Fienberg, S.E. and Kadane, J.B., eds).
John Wiley & Sons. Inc., New York, pp. 353-382.
Berry, D.A., Evett, I.W. and Pinchin, R. (1992) Statistical inference in crime inves
tigations using deoxyribonucleic acid profiling (with discussion). Applied
Statistics, 41, 499-531.
Bertillon, A. (1897/1898) La comparaison des écritures et l’identification graphique.
Revue Scientifique. 18.12.1897-1.1.1898. Reprint published by Typographie
Chamerot et Renouard, Paris.
Bertillon, A. (1899) Déposition Bertillon (du 18 janvier, 2 février, 4 février et 6 fé-
vrier 1899. In La révision du procès Drefus - Enquête de la Cour de Cassation, P.-V.
Stock, Paris, pp. 482-500.
Referencias 575
Cakir, A.H., Simsek, F., Acik, L. and Tasdelen, B. (2001) Distribution of HumTPOX,
HumvWA, HumTH01 alleles in a Turkish population sample, Journal of Forensic
Sciences, 46, 1257-1259.
Calman, K.C (1996) Cancer: science and society and the communication of risk.
British Medical Journal, 313, 799-802.
Calman, K.C. and Royston, G.B.D. (1997) Risk language and dialects. British Medical
Journal, 315, 939-941.
Cantrell, S., Roux, C., Maynard, P. and Robertson, J. (2001) A textile fibre survey as
an aid to the interpretation of fibres evidence in the Sydney region. Forensic
Science International, 123, 48-53.
Carracedo, A., Barros, F., Lareu, M.V., Pestoni, C. and Rodríguez-Calvo, M.S. (1996)
Focusing the debate on forensic genetics, Science & Justice, 36, 204-205.
Carracedo, A., Bär, W., Lincoln, P.J., Mayr, W., Morling, N., Olaisen, B., Schneider, P.,
Budowle, B., Brinkmann, B., Gill, P., Holland, M., Tully, G. and Wilson, M. (2000)
DNA Commission of the International Society for Forensic Genetics: guidelines
for mitochondrial DNA typing. Forensic Science International, 110, 79-85.
Ceci, S.J. and Friedman, R.D. (2000) The suggestibility of children: scientific re-
search and legal implications. Cornell Law Review, 86. 33-108.
Chable, J., Roux, C. and Lennard, C.J. (1994) Collectíon of fiber evidence using
watersoluble cellophane tape. Journal of Forensic Sciences, 39, 1520-1527.
Chabli, S. (2001) Scene of crime evidence: fibres. In Proceedings of the 13th INTERPOL
Forensic Science Symposium (Tontarski Jr, R.E., ed.), National Forensic Science
Technology Centre, Largo, FL, pp. 106-119.
Champod, C. (1995) Locard, numerical standards and ‘probable’ identification.
Journal of Forensic ldentification, 45, 132-159.
Champod, C. (l996) Reconnaissance automatique et analyse statistique des minuties
sur les empreintes digitales. Doctoral thesis, Institut de Police Scientifique et
de Criminologie, Université de Lausanne, Imprimerie Evard, Concise,
Switzerland.
Champod, C. (1999) The inference of identity of source: theory and practice.
Paper presented at the First International Conference on Forensic Human
Identification in The Millenium, London, 24-26 October.
Champod, C. (2000) Identification/individualization. In Encyclopedia of Forensic
Sciences (Siegel, J.A., Saukko, P.J. and Knupfer, G.C., eds) Academic Press,
San Diego, CA, pp, 1077-1084.
Champod, C. and Evett, I.W. (2000) Commentary on Broeders, A.P.A. (1999) ‘Some
observations on the use of probability scales in forensic identification’.
Forensic Linguistics, 6, 228-241; Forensic Linguistics, 7, 238-243.
Champod, C. and Evett, I.W. (2001) A probabilistic approach to fingerprint eviden-
ce. Journal of Forensic Identification, 51, 101-122.
Champod, C. and Jackson, G. (2000) European Fibres Group Workshop: Case as-
sessment and Bayesian interpretation of fibres evidence. In Proceedings of the
8th Meeting of European Fibres Group, Kraków, Poland, 33-45.
Referencias 577
Cohen, L.J. (1977) The Probable and the Provable, Clarendon Press, Oxford.
Cohen, L.J. (1988) The difficulty about conjunction in forensic proof, The Statistician,
37, 415-416.
Coleman, R.F. and Walls, H.J. (1974) The evaluation of scientific evidence. Criminal
Law Review, 276-287.
Colón, M., Rodríguez, G. and Díaz, R.O. (1993) Representative sampling of ‘street’
drug exhibits. Journal of Forensic Sciences, 38, 641-648.
Condorcet (de Caritat. M.J.A.N.), Marquis de (1785) Essai sur l’application de l’analyse à
la probabilité des décisions rendues à la pluralité des voix, Imprimerie Royale, Paris.
Cook, R., Evett, I.W., Jackson, G. and Rogers, M. (1993) A workshop approach to
improving the understanding of the significance of fibres evidence. Science
& Justice, 33, 149-152.
Cook, R., Webb-Salter, M.T. and Marshall, L. (1997) The significance of fibres
found in head hair. Forensic Science International, 87, 155-160.
Cook, R., Evett, I.W., Jackson, G., Jones, P.J. and Lambert, J.A. (1998a) A model for
case assessment and interpretation. Science & Justice, 38, 151-156.
Cook, R., Evett, I.W., Jackson, G., Jones, P.J. and Lambert, J.A. (1998b) A hier
archy of propositions: deciding which level to address in casework. Science
& Justice, 38, 231-239.
Cook, R., Evett, I.W., Jackson, G., Jones, P.J. and Lambert, J.A. (1999) Case pre
assessment and review of a two-way transfer case. Science & Justice, 39, 103-
122.
Coulson, S.A., Buckleton, J.S., Gummer, A.B. and Triggs, C.M. (2001a) Glass on
clothing and shoes of members of the general population and people sus-
pected of breaking crimes. Science & Justice, 41, 39-48.
Coulson, S.A., Coxon, A. and Buckleton, J.S. (2001b) How many samples from a
drug seizure need to be analyzed? Journal of Forensic Sciences, 46, 1456-1461.
Coumot, A.A. (1838) Sur les applications du calcul des chances á la statistique ju-
diciaire. Journal des Mathématiques Pures et Appliquées, 3, 257-334.
Cowell, R.C., Dawid, A.P., Lauritzen, S.L. and Spiegelhalter, D. (1999) Probabilistic
Networks and Expert Systems, Springer-Verlag, New York.
Crow, E.L., Davis, FA and Maxfield, M.W. (1960) Statistics Manual, Dover, New
York, 51-52.
Cullison, A.D. (1969) Probability analysis of judicial fact-finding: a preliminary
outline of the subjective approach. University of Toledo Law Review, 538-598.
Curran, J.M. (2003) The statistical interpretation of forensic glass evidence.
International Statistical Review, 71, 497-520.
Curran, J.M., Triggs, C.M., Almirall, J.R., Buckleton, J.S. and Walsh, K.A.J. (1997a)
The interpretation of elemental composition measurements from forensic
glass evidence: I. Science & Justice, 37, 241-244.
Curran, J.M., Triggs, C.M., Almirall, J.R., Buckleton, J.S. and Walsh, K.A.J. (1997b)
The interpretation of elemental composition measurements from forensic
glass evidence: n. II. Science & Justice, 37, 245-249.
Referencias 579
Curran, J.M., Triggs, C.M., Buckleton, J.S., Walsh, K.A.J. and Hicks, T. (1998a)
Assessing transfer probabilities in a Bayesian interpretation of forensic glass
evidence. Science & Justice, 38, 15-21.
Curran, J.M., Triggs, C.M. and Buckleton, J.S. (1998b) Sampling in forensic com-
parison problems, Science & Justice, 38, 101-107.
Curran, J.M., Triggs, C.M., Buckleton, J.S. and Coulson, S. (1998c) Combining a
continuous Bayesian approach with grouping information. Forensic Science
lnternational, 91, 181-196.
Curran, J.M., Buckleton, J.S. and Triggs, C.M. (1999a) Commentary on Koons,
R.D. and Buscaglia. J., The forensic significance of glass composition and
refractive index measurements. J. Forensic Sci., 1999, 44, 496-503. Journal of
Forensic Sciences, 44, 1324-1325.
Curran, J.M., Triggs, C.M., Buckleton, J.S. and Weir, B.S. (1999b) Interpreting DNA
mixtures in structured populations. Journal of Forensic Sciences, 44, 987-995.
Curran, J.M., Hicks, T.N. and Buckleton, J.S. (2000) Forensic Interpretation of Glass
Evidence, CRC Press, Boca Raton, FL.
Curran, J.M., Buckleton, J.S., Triggs, C.M. and Weir, B.S. (2002) Assessing uncer-
tainty in DNA evidence caused by sampling effects. Science & Justice, 42, 29-37.
Dabbs, M.G.D. and Pearson, E.F. (1970) Heterogeneity in glass. Journal of the Forensic
Science Society, 10, 139-148.
Dabbs, M.G.D. and Pearson, E.F. (1972) Some physical properties of a large num-
ber of window glass specimens. Journal of the Forensic Sciences, 17, 70-78.
Darboux, J.G., Appell, P.E. and Poincaré, J.H. (1908) Examen critique des divers
systèmes ou études graphologiques auxquels a donné lieu le bordereau. In
L’affaire Drefus - La révision du procès de Rennes - enquête de la chambre criminelle de la
Cour de Cassation, Ligue francaise des droits de l’homme et du citoyen, Paris,
pp. 499-600.
Darroch, J. (1985) Probability and criminal trials. Newsletter of the Statistical Society oi
Australia, 30, 1-7.
Darroch, J. (1987) Probability and criminal trials; some comments prompted by
the Splatt trial and The Royal Commission. Professional Statistician, 6, 3-7.
Davis, R.J. (ed.) (1986) The Splatt case. Journal of the Forensic Science Society, 26, 219-221.
Davis, R.J. and DeHaan, J.D. (1977) A survey of men’s footwear. Journal of the Forensic
Science Society, 17, 271-285.
Davison, A.C. and Hinkley, D.V, (1997) Bootstrap Methods and Their Application,
Cambridge University Press, Cambridge.
Dawid, A.P. (1987) The difficulty about conjunction. The Statistician, 36, 91-97.
Dawid, A.P. (1994) The island problem: coherent use of identification evidence. In
Aspects of Uncertainty: A Tribute to D.V. Lindley (Freeman, P.R. and Smith, A.F.M.,
eds), John Wiley & Sons, Ltd, Chichester, pp. 159-170.
Dawid, A.P. (2001) Comment on Stockmarr (Likelihood ratios for evaluating DNA
evidence when the suspect is found through a database search. Biometrics,
1999, 55,671-677). Biometrics, 57, 976-980.
580 Referencias
Dawid, A.P. (2002) Bayes’s theorem and the weighing of evidence by juries. In
Bayes’s theorem: Proceedings of the British Academy, Vol. 113 (Swinburne, R., ed.),
Oxford University Press, Oxford, pp. 71-90.
Dawid, A.P. (2003) An object-oriented Bayesian network for evaluating mutation
rates. In Proceedings of the Ninth International Workshop on Artificial 1ntelligence
and Statistics (Bishop, C.M. and Frey, B.J., eds), Key West (available at http://
research.microsoft.com/conferences/aistats200 3/proceedings/188. pdf).
Dawid, A.P. and Evett, I.W. (1997) Using a graphical model to assist the evaluation
of complicated patterns of evidence. Journal of Forensic Sciences, 42, 226-231.
Dawid, A.P. and Mortera, J. (1996) Coherent analysis of forensic identification evi-
dence. Journal of the Royal Statistical Society, Series B, 58, 425-443.
Dawid, A.P., Mortera, J. and Pascali, V.L. (2001) Non-fatherhood or mutation? A
probabilistic approach to parental exclusion in paternity testing. Forensic
Science lnternational, 124, 55-61.
Dawid, A.P., Mortera. J., Pascali, V.L. and van Boxel. D. (2002) Probabilistic expert
systems for forensic inference from genetic markers. Scandinavian Journal of
Statistics, 29, 577-595.
de Finetti, B. (1930) Fondamenti logici del ragionamento probabilistico. Bollettino
della Unione Matematica Italiana, 9, 258-261.
de Finetti, B. (1931) Sul significato soggettivo delle probabilita. Fundamenta
Mathematicae, 17, 298-329.
de Finetti, B. (1952) La nozione di evento. Atti del Congresso di Metodologia, Centro
Studi Metodologici, Ramella, Turin, pp. 170-174. Translated in B. de Finetti,
Probabilità e induzione, Clueb, Bologna (1993).
de Finetti, B. (1968) Probability: the subjectivistic approach. In La philosophie
contemporaine. Vol. 2 (Klibansky, R., ed.), La Nuova Italia, Florence, pp. 45-53.
Decorte, R. and Cassiman, J.J. (1993) Forensic medicine and the polymerase chain
reaction technique. Journal of Medical Genetics, 30, 625-633.
DeGroot, M.H. (1970) Optimal Statistical Decisions, McGraw-Hill, New York.
Devlin, B. (2000) The evidentiary value of a DNA database search. Biometrics, 56, 1276.
Diaconis, P. and Freedman, D. (1981) The persistence of cognitive illusions.
Behavioural and Brain Sciences, 4, 333-334.
Dickson, D. (1994) As confusion leads to retrial in UK. Nature, 367, 101-102.
Donnelly, P. and Friedman, R, (1999) DNA database searches and the legal con-
sumption of scientific evidence. Michigan Law Review, 97, 931-984.
Dujourdy, L., Barbati, G., Taroni. F., Guéniat, O., Esseiva, P., Anglada, F. and
Margot, P. (2003) Evaluation of links in heroin seizures. Forensic Science 1nter-
national, 131, 171-183.
Edwards, A.W.F. (1992) Likelihood, expanded edition, John Hopkins University
Press, Baltimore, MD.
Edwards, W. (1986) Comment. Boston University Law Review, 66, 623-626.
Edwards, W. (1991) Influence diagrams, Bayesian imperialism, and the Collins
case: an appeal to reason. Cardozo Law Review, 13, 1025-1079.
Referencias 581
Edwards, W., Lindman, H. and Savage, L.J. (1963) Bayesian statistical inferen-
ce for psychological research. Psychological Review. 70, 193-242. Reprinted in
Robustness of Bayesian Analyses (Kadane, J., ed.), Elsevier, Amsterdam, 1984.
Encyclopaedia Britannica (1993) DNA. In Micropaedia, Vol. 4, Encyclopaedia Britanica
(15th edition), pp. 140-141.
Eggleston, R. (1983) Evidence, Proof and Probability, 2nd edition. Weidenfeld and
Nicolson, London.
Ellman, LM. and Kaye, D. (1979) Probabilities and proof: can HLA and blood
group testing prove paternity? New York University Law Review, 54, 1131-1162.
Engel, E. and Venetoulias, A. (1991) Monty Hall’s probability puzzle. Chance, 4,
6-9.
Essen-Möller, E. (1938) Die Beweiskraft der Ähnlichkeit im Vaterschaftsnachweis:
Theoretische Grundlagen. Mitteilungen der Anthropologischen Gesellschaft, 68, 9-53.
Evans, M., Hastings, N. and Peacock, B. (2000) Statistical distributions, 3rd edition,
John Wiley & Sons. Inc., New York.
Evett, I.W. (1977) The interpretation of refractive index measurements. Forensic
Science International, 9, 209-217.
Evett, I.W. (1978) The interpretation of refractive index measurements, II. Forensic
Science International, 12, 34-47.
Evett, I.W. (1983) What is the probability that this blood came from that person? A
meaningful question? Journal of the Forensic Science Society, 23, 35-39.
Evett, I.W. (1984) A quantitative theory for interpreting transfer evidence in crimi-
nal cases. Applied Statistics, 33, 25-32.
Evett, I.W. (1986) A Bayesian approach to the problem of interpreting glass evidence
in forensic science casework. Journal of the Forensic Science Society, 26, 3-18.
Evett, I.W. (1987a) Bayesian inference and forensic science: problems and pers-
pectives. The Statistician, 36, 99-105.
Evett, I.W. (1987b) On meaningful questions: a two-trace transfer problem. Journal
of the Forensic Science Society, 27, 375-381.
Evett, I.W. (1990) The theory of interpreting scientific transfer evidence. In Forensic
Science Progress, Volume 4, Springer- Verlag, Berlin, pp. 141-179.
Evett, I.W. (1992) Evaluating DNA profiles in the case where the defence is ‘It was
my brother’. Journal of the Forensic Science Society, 32, 5-14.
Evett, I.W. (1993a) Establishing the evidential value of a small quantity of material
found at a crime scene. Journal of the Forensic Science Society, 33, 83-86.
Evett, I.W. (1993b) Criminalistics: the future of expertise. Journal of the Forensic
Science Society, 33, 173-178.
Evett, I.W. (1995) Avoiding the transposed conditional. Science & Justice, 35,127-131.
Evett, I.W. (1998) Towards a uniform framework of reporting opinions in forensic
science casework. Science & Justice, 38, 198-202.
Evett, I.W. and Buckleton, J.S. (1990) The interpretation of glass evidence. A prac-
tical approach. Journal of the Forensic Science Society, 30, 215-223.
582 Referencias
Evett, I.W. and Buckleton, J.S. (1996) Statistical analysis of STR data. In Advances
in Forensic Haemogenetics, Volume 6 (Carracedo, A., Brinkmann, B. and Bar, W.,
eds), Springer-Verlag, Berlin, pp. 79-86.
Evett, I.W. and Lambert, J.A. (1982) The interpretation of refractive index measure
ments, III. Forensic Science International, 20, 237-245.
Evett, I.W. and Lambert, J.A, (1984) The interpretation of refractive index measu-
rements, IV. Forensic Science International, 26, 149-163.
Evett, I.W. and Lambert, J.A. (1985) The interpretation of refractive index measure
ments, V. Forensic Science International, 27, 97-110.
Evett, I.W. and Weir, B.S. (1992) Flawed reasoning in court. Chance, 4, 19-21.
Evett, I.W. and Weir, B.S, (1998) Interpreting DNA Evidence. Sinauer Associates,
Sunderland, MA.
Evett, I.W. and WiIliams, R. (1996) A review of the sixteen point fingerprint stan-
dard in England and Wales. Journal of Forensic Identification, 46, 49-73.
Evett, I.W., Cage, P.E. and Aitken, C.G.G. (1987) Evaluation of the likelihood ratio
for fibre transfer evidence in criminal cases. Applied Statistics, 36, 174-180.
Evett, I.W., Werrett, D.J. and Buckleton, J.S. (1989a) Paternity calculations from
DNA multilocus profiles. Journal of the Forensic Science Society, 29, 249-254.
Evett, I.W., Werrett, D.J. and Smith, A,F.M. (1989b) Probabilistic analysis of DNA
profiles. Journal of the Forensic Science Society, 29, 191-196.
Evett, I.W., Buffery, C., Willott, G. and Stoney, D.A. (1991) A guide to interpreting
single locus profiles of DNA mixtures in forensic cases. Journal of the Forensic
Science Society, 31, 41-47.
Evett, I.W., Pinchin, R. and Buffery, C. (1992a) An investigation of the feasibility
of inferring ethnic origin from DNA profiles. Journal of the Forensic Science
Society, 32, 301-306.
Evett, I.W., Scranage, J. and Pinchin, R. (1992b) An efficient statistical procedure
for interpreting DNA single locus profiling data in crime cases. Journal of the
Forensic Science Society, 32, 307-326.
Evett, I.W., Scranage, J. and Pinchin, R. (1993) An iIlustration of the advantages of
efficient statistical methods for RFLP analysis in forensic science. American
Journal of Human Genetics, 52, 498-505.
Evett, I.W., Lambert, J.A. and Buckleton, J.S. (1995) Further observations on glass
evidence interpretation. Science & Justice, 35, 283-289.
Evett, I.W., Lambert, J.A. and Buckleton, J.S. (1998a) A Bayesian approach to
interpreting footwear marks in forensic casework. Science & Justice, 38,
241-247.
Evett, I.W., Gill P.D. and Lambert, J.A. (1998b) Taking account of peak are as when
interpreting mixed DNA profiles. Journal of Forensic Sciences, 43, 62-69.
Evett, I.W., Jackson, G., Lambert. J.A. and McCrossan, S. (2000a) The impact of
the principies of evidence interpretation and the structure and content of
statements. Science & Justice, 40, 233-239.
Referencias 583
Evett, I.W., Jackson, G. and Lambert, J.A. (2000b) More on the hierarchy of pro-
positions: exploring the distinction between explanations and propositions.
Science & Justice, 40, 3-10.
Evett, I.W., Foreman, L.A. and Weir, B.S. (2000c) Letter to the Editor. Biometrics,
56, 1274-1275.
Evett, I.W., Foreman, L.A. and Weir, B.S. (2000d) A response to Devlin (The eviden-
tiary value of a DNA database search. Biometrics, 56, 1276). Biometrics, 56, 1277.
Evett, I.W., Foreman, LA, Jackson, G. and Lambert, J.A (2000e) DNA profiling: a
discussion of issues relating to the reporting of very small match probabili-
ties. Criminal Law Review, 341-355.
Evett, I.W., Gill, P.D., Jackson, G., Whitaker, J. and Champod, C. (2002) Interpreting
small quantities of DNA: the hierarchy of propositions and the use of
Bayesian networks. Journal of Forensic Sciences, 47, 520-530.
Faber, N.M., Sjerps, M., Leijenhorst, H.A.L. and Maljaars, S.E. (1999) Determining
the optimal sample size in forensic casework - with application to fibres.
Science & Justice, 39, 113-122.
Fairley, W.B. (1973). Probabilistic analysis of identification evidence. Journal of
Legal Studies, II, 493-513.
Fairley, W.B. (1975), Probabilistic analysis of identification evidence. In Utility,
Probability and Human Decision Making (Wendt, D. and Vlek, C., eds), Reidel,
Dordrecht, p. 251.
Fairley, W.B. and Mosteller, W. (1974) A conversatíon about Collins. University of
Chicago Law Review. 41, 242-253.
Fairley, W.B. and Mosteller, W. (1977) Statistics and Public Policy. Addison-Wesley,
London, pp.355-379.
Falk, R. (1992) A doser look at the probabilities of the notorious three prisoners.
Cognition, 43, 197-223.
Fienberg, S.E. (ed.) (1989) The Evolving Role of Statistical Assessments as Evidence in the
Courts, Springer-Verlag, New York.
Fienberg, S.E. and Finkelstein, M.P. (1996) Bayesian statistics and the law. In
Bayesian Statistics 5 (Bernardo, J.M., Berger, J.O., Dawid, A.P. and Smith,
A.F.M., eds). Oxford University Press, Oxford, pp. 129-146.
Fienberg, S.E. and Kadane, J.B. (1983) The presentation of Bayesian statistical
analyses in legal proceedings. The Statistician, 32, 88-98.
Fienberg, S.E. and Kaye, D.H. (1991) Legal and statistical aspects of some myste-
rious dusters. Journal of the Royal Statistical Society, Series A, 154, 265-270.
Fienberg, S.E. and Schervish, M.J. (1986) The relevance of Bayesian inference for
the presentation of statistical evidence and for legal decision making. Boston
University Law Review, 66, 771-798.
Fienberg, S.E., Krislov, S.H. and Straf, M.L. (1996) Understanding and evaluating
statistical evidence in litigation. Jurimetrics Journal, 36, 1-32.
Finkelstein, M.O. and Fairley, W.B. (1970) A Bayesian approach to identification
evidence. Harvard Law Review, 83, 489-517.
584 Referencias
Fung, W.K. (2003) User-friendly programs for easy calculations in paternity testing
and kinship determinations. Forensic Science International, 136, 22-34.
Fung, W.K. and Hu, Y.Q. (2000a) Interpreting DNA mixtures based on the
NRC-II recommendation 4.1. Forensic Science Communications, 2. Available at
http://www.fbigov/hq/lab/fsc/backissu/oct2000/fung.htm
Fung, W.K. and Hu, Y.Q. (2000b) Interpreting forensic DNA mixtures, allowing for
uncertainty in population substructure and dependence. Journal of the Royal
Statistical Society, Series A, 163, 241-254.
Fung, W.K. and Hu, Y.Q. (2002) The statistical evaluation of DNA mixtures with
contributors from different ethnic groups. International Joumal of Legal
Medicine, 116, 79-86.
Fung, W.K., Chung, Y. and Wong, D. (2002) Power of exclusion revisited: probabili-
ty of excluding relatives of the true father fram paternity. Internatianal Journal
of Legal Medicine, 116, 64-67.
Fung, W.K., Carracedo, A. and Hu, Y.Q. (2003) Testing for kinship in a subdivided
population. Forensic Science International, 135, 105-109.
Gaensslen, R.E., Bell, S.C. and Lee, H.C. (1987a) Distribution of genetic markers
in United States populations: 1. Blood group and secretor systems. Journal of
Forensic Sciences, 32, 1016-1058.
Gaensslen, R.E., Bell, S.C. and Lee, H.C. (1987b) Distribution of genetic markers in
United States populations: 2. Isoenzyme systems, Journal of Forensic Sciences,
32, 1348-1381.
Gaensslen, R.E., Bell, S.C. and Lee, H.C. (1987c) Distribution of genetic markers
in United States populations: 3. Serum group systems and haemoglobin va-
riants. Journal of Forensic Sciences, 32, 1754-1774.
Garber, D. and Zabell, S. (1979) On the emergence of probability. Archive for History
of Exact Sciences, 21, 33-53.
Garbolino, P. (2001) Explaining relevance. Cardozo Law Review. 22, 1503-1521.
Garbolino, P. and Taroni, F. (2002) Evaluation of scientific evidence using Bayesian
networks. Forensic Science International, 125, 149-155.
Gastwirth, J.L. (1988a) Statistical Reasoning in Law and Public Policy, Volume 1: Statistical
Concepts and Issues of Fairness, Academic Press, San Diego, CA.
Gastwirth, J.L. (1988b) Statistical Reasoning in Law and Public Policy, Volume 2: Tort
Law, Evidence and Health, Academic Press, San Diego, CA.
Gastwirth, J.L. (ed.) (2000) Statistical Science in the Courtroom, Springer-Verlag, New
York.
Gastwirth, J.L., Freidlin, B. and Miao, W. (2000) The Shonubi case as an example of
the legal system’ s failure to appreciate statistical evidence. In Statistical Science
in the Courtroom (Gastwirth, J.L., ed.), Springer-Verlag, New York, pp. 405-413.
Gaudette, B.D. (1982) A supplementary discussion of probabilities and human
hair comparisons. Journal of Forensic Sciences, 27, 279-289.
Gaudette, B.O. (1986) Evaluation of associative physical evidence. Journal of the
Forensic Science Society, 26, 163-167.
586 Referencias
Hicks, T., Monard Sermier, F., Goldmann, T., Brunelle, A., Champod, C. and
Margot, P. (2003) The classification and discrimination of glass fragments
using non-destructive energy dispersive X-ray microfluorescence. Forensic
Science International, 137, 107-118.
Hicks, T.N. (2004) De l’interprétation des fragments de verre en sciences forensiques.
Doctoral thesis, Ecole des Sciences Criminelles, Lausanne, Switzerland.
Hilton, O. (1995) The relationship of mathematical probability to the handwriting
identification problem. International Journal of Forensic Document Examiners, 1,
224-229.
Hoffmann, K. (1991) Statistical evaluation of the evidential value of human hairs pos-
sibly coming from multiple sources. Journal of Forensic Sciences, 36, 1053-1058.
Hoggart, C.J., Walker, S.G. and Smith, A.F.M. (2003) Bivariate kurtotic distribu-
tions of garment fibre data. Applied Statistics, 52, 323-335.
Holden, C (1997) DNA fingerprinting comes of age. Science, 278, 1407.
Hu, Y.Q. and Fung, W.K. (2003) Evaluating forensic DNA mixtures with contribu-
tors of different structures ethnic origins: a computer software. International
Journal of Legal Medicine, 117, 248-249.
HUGIN Lite (2001) version 5.7, free demonstration version available at http://
www.hugin.dk
Hummel, K. (1971) Biostatistical opinion of parentage based upon the re-
sults of blood group tests. In Biostatistische Abstammungsbegutachtung mit
Blutgruppenbefunden (P. Schmidt, ed.), Gustav Fisher, Stuttgart, (Quoted in
Family Law Quarterly, 1976, 10, 262).
Hummel, K. (1983) Selection of gene frequency tables. In Inc1usion Probabilities in
Parentage Testing (R.H. Walker, ed.), American Association of Blood Banks,
Arlington, VA, pp. 231-243.
Ihaka, R. and Gentleman, R. (1996) R: a language for data analysis and graphics.
Journal of Computational and Graphical Statistics, 5, 299-314.
Iman, K.L and Rudin, N. (2001) Principles and Practice of Criminalistics - The Profession
of Forensic Science, CRC Press, Boca Raton, FL.
Intergovernmental Panel on Climate Change (2001) Report of Working Group I.
Available at http://www.ipcc.ch/pub/spm22-01.pdf
Izenman, A.J. (2000a) Statistical issues in the application of the Federal senten-
cing guidelines in drug, pornography and fraud cases. In Statistical Science in
the Courtroom (Gastwirth. J.L., ed.), Springer-Verlag, New York, pp. 25-50.
Izenman, A.J, (2000b) Introduction to two views on the Shonubi case. In Statistical
Science in the Courtroom (Gastwirth, J.L., ed.), Springer-Verlag, New York, pp.
393-403.
Izenman, A.J. (2000c) Assessing the statistical evidence in the Shonubi case. In
Statistical Science in the Courtroom (Gastwirth, J.L., ed.), Springer-Verlag, New
York, pp. 415-433.
Izenman, A.J. (2001) Statistical and legal aspects of the forensic study of illicit
drugs. Statistical Science, 16, 35-57.
Referencias 589
Izenman, A.J. (2003) Sentencing illicit drug traffickers: how do the courts handle
random sampling issues? International Statistical Review, 71, 535-556.
Jackson, G. (2000) The scientist and the scales of justice. Science & Justice, 40, 81-85.
Jaynes, E.T. (2003) Probability Theory. Cambridge University Press, Cambridge.
Jeffrey, R.C. (1975) Probability and falsification: critique of the Popper program.
Synthèse, 30, 95-117.
Jeffreys, A.J., Wilson, V. and Morton, D.B. (1987) DNA fingerprints of dogs and
cats. Animal Genetics. 18, 1-15.
Jeffreys, H. (1983) Theory of Probability, 3rd edition, Clarendon Press, Oxford.
Jensen, F.V. (2001) Bayesian Networks and Decision Graphs, Springer-Verlag, New
York.
Johnson, R.E. and Peterson, J. (1999) HLA-DQA1 and polymarker locus allele fre-
quencies for Chicago, IlIinois, USA, Journal of Forensic Sciences, 44, 1097.
Jolliffe, I.T. (1986) Principal Component Analysis, Springer-Verlag, New York.
Jones, D.A. (1972) Blood samples: probability of discrimination. Journal of the
Forensic Science Society, 12, 355-359.
Jordan, M.I. (ed.) (1999) Learning in Graphical Models. MIT Press, Cambridge, MA.
Kadane, J.B. and Schum, D.A. (1996) A Probabilistic Analysis ol the Sacco and Vanzetti
Evidence, John Wiley & Sons, Inc., New York.
Kahneman, D., Slovic, P. and Tversky, A. (eds) (1982) Judgment under Uncertainty:
Heuristics and Biases. Cambridge University Press, Cambridge.
Kass, R.E. and Raftery, A.E. (1995) Bayes factors. Joumal of the American Statistical
A.ssociation. 90, 773-795.
Katterwe, H. (2002a) Comments/objections to reproaches of Forensic Science
Service and University of Lausanne. Information Bulletin for Shoeprint/Toolmark
Examiners, 8(1), 25-30.
Katterwe, H. (2002b) Comments of Horst Katterwe to the Article of F. Taroni and
J.Buckleton. Information Bulletin for Shoeprint/Toolmark Examiners, 8(3), 16-20.
Katterwe, H. (2003) True or false. Information Bulletin for ShoeprintlToolmark
Examiners, 9(2), 18-25.
Kaye, D.H. (1979) The laws of probability and the law of the land. University of
Chicago Law Review, 47, 34-56.
Kaye, D.H. (1986) Quantifying probative value. Boston University Law Review, 66,
761-766.
Kaye, D.H. (1987) Apples and oranges: confidence coefficients versus the burden
of persuasion. Cornell Law Review, 73, 54-77.
Kaye, D.H. (1989) The probability of an ultimate issue: the strange cases of pater-
nity testing. Iowa Law Review, 75, 75-109.
Kaye, D.H. (l993a) Proceedings of the Second International Conference on Forensic
Statistics. Arizona State University, Center for the Study of Law, Science and
Technology, Tempe, AZ. Selected papers included in Jurimetrics Journal, 34(1),
1-115.
590 Referencias
Kaye, D.H. (1993b) DNA evidence: probability, population genetics and the courts.
Harvard Journal of Law and Technology, 7, 101-172.
Kaye, D.H. (1997a) DNA, NAS, NRC, ��������������������������������������
DAB, RFLP, PCR, and more: an introduc-
tion to the symposium on the 1996 NRC report on forensic DNA evidence.
Jurimetrics Joumal, 37, 395-404.
Kaye, D.H. (1997b) DNA identification in criminal cases: some lingering and
emerging evidentiary issues. In Proceedings of the 7th International Symposium
on Human Identification. Madison, WI, Promega Corporation, pp. 12-25.
Kaye, D.H. and Aickin, M. (1986) Statistical Methods in Discrimination Litigation,
Marcel Dekker, New York.
Kaye, D.H and Koehler, J.J. (1991) Can jurors understand probabilistic evidence?
Journal of the Royal Statistical Society, Series A, 154, 21-39.
Kaye, D.H. and Koehler, J.J. (2003) The misquantification of probative value. Law
and Human Behaviour, 27, 645-659.
Kaye, D.H and Sensabaugh, G.F. (2000) Reference guide on DNA evidence. In
Reference Manual on Scientific Evidence (Cecil, J. ed.). Federal Judicial Center,
Washington, DC, pp. 485-576.
Kendall, M.G. and Buckland, W.R. (1982) A Dictionary of Statistical Terms, 4th edi-
tion, Longman, London.
Kennedy, R.B., Pressman, LS., Chen S., Petersen, P.H. and Pressman, A.E. (2003)
Statistical analysis of barefoot impressions. Journal of Forensic Sciences, 48,
55-63.
Kind, S.S. (1994) Crime investigation and the criminal trial: a three chapter para-
digm of evidence. Journal of the Forensic Science Society, 34, 155-164.
Kind, S.S., Wigmore, R. Whitehead. P.H. and Loxley, D.S. (1979) Terminology in
forensic science. Journal of the Forensic Science Society, 19, 189-192.
Kingston, C.R. (1964) Probabilistic analysis of partial fingerprint patterns. D.Crim.
dissertation. University of California, Berkeley.
Kingston, C.R. (1965a) Applications of probability theory in criminalistics. Journal
of the American Statistical Association, 60, 70-80.
Kingston, C.R. (1965b) Applications of probability theory in criminalistics – II.
Journal of the American Statistical Association, 60, 1028-1034.
Kingston, C.R. (1966) Probability and legal proceedings. Journal of Criminal Law,
Criminology and Police Science, 57, 93-98.
Kingston, C.R. (1970) The law of probabilities and the credibility of witness and
evidence. Journal of Forensic Sciences, 15, 18-27.
Kingston, C.R. (1988) Discussion of ‘A critical analysis of quantitative fingerprint
individuality models’. Journal of Forensic Sciences, 33, 9-11.
Kingston, C.R. and Kirk, P.L. (1964) The use of’ statistics in criminalistics. Journal
of Criminal Law, Criminology and Police Science, 55, 514-521.
Kirk, P.L. (1963) The ontogeny of criminalistics. Journal of Criminal Law, Criminology
and Police Science, 54, 235-238.
Referencias 591
Kirk, P.L. and Kingston, C.R. (1964) Evidence evaluation and problems in general
criminalistics. Presented at the Sixteenth Annual Meeting of the American
Academy of Forensic Sciences, Chicago.
Knowles, R. (2000) The new (non-numeric) fingerprint evidenee standard. Science
& Justice, 40, 120-121.
Koehler, J.J. (1992) Probabilities in the courtroom: an evaluation of the objection
and policies. In Handbook of Psychology and Law (Kagehiro, D.K. and Laufer,
W.S., eds), Springer-Verlag, New York, pp. 167-184.
Koehler, J.J. (1993a) Error and exaggeration in the presentation of DNA evidence
at trial. Jurimetrics Journal, 34, 21-39.
Koehler, J.J. (1993b) DNA matches and statistics: important questions, surprising
answers. Judicature, 76, 222-229.
Koehler, J.J. (1995) The random match probability in DNA evidence: irrelevant
and prejudicial? Jurimetrics Journal, 35, 201-219.
Koehler, J.J. (1996) On conveying the probative value of DNA evidence: frequen-
cies, likelihood ratios, and error rates. University of Colorado Law Review, 67,
859-886.
Koehler, J.J. (1997a) One in millions, billions, and trillions: lessons from People v.
Collins (1968) for People v. Simpson (1995). Journal of Legal Education, 47(2).
214-223 at 219.
Koehler, J.J. (1997b) Why DNA likelihood ratios should account for error (even
when a National Research Council report says they should not). Jurimetrics
Journal, 37, 425-437.
Koehler, J.J. (2001a) The psychology of numbers in the courtroom: how to make
DNA match statistics seem impressive or insufficient. Southern California Law
Review, 74, 1275-1306.
Koehler, J.J. (2001b) When are people persuaded by DNA match statistics? Law and
Human Behaviour, 25, 493-513.
Koehler, J.J., Chia, A. and Lindsey, J.S. (1995) The random match probability
(RMP) in DNA evidence: irrelevant and prejudicial? Jurimetrics Journal, 35,
201-219.
Koons, R.D. and Buscaglia, J. (1999a) The forensic significance of glass composi-
tion and refractive index measurements. Journal of Forensic Sciences, 44, 496-
503.
Koons, R.D. aod Buscaglia, J. (1999b) Authors’ response to Curran et al. (1999a).
Journal of Forensic Sciences, 44, 1326-1328.
Koons, R.O. and Buscaglia, J. (2002) Interpretation of glass composition measu-
rements: the effects of match criteria on discrimination capability. Journal of
Forensic Sciences, 47, 505-512.
Kuo, M. (1982) Linkíng a bloodstain to a missing person by genetic inheritance.
Journal of Forensic Sciences, 27, 438-444.
Kwan, Q.Y. (1977) Inference of identity of source, Doctor of Criminology thesis,
University of California, Berkeley.
592 Referencias
Lambert, J.A. and Evett, I.W. (1984) The refractive index distribution of control
glass samples examined by the forensic science laboratories in the United
Kingdom. Forensic Science International, 26, 1-23.
Lambert, J.A., Satterthwaite, M.J. and Harrison, P.H. (1995) A survey of glass frag-
ments recovered from clothing of persons suspected of involvement in cri-
me. Science & Justice, 35, 273-281.
Lange, K. (1995) Applications of the Dirichlet distribution to forensic match pro-
babilities. In Human Identification: The Use of DNA Markers (Weir, B.S., ed.).
Kluwer Academic, Dordrecht, pp. 107-117.
Laplace, Marquis de (1886) Essai philosophique sur les probabilités, Introductíon à
la theorie analytique des probabilités, Oeuvres Complètes de Laplace, Vol.7, Gauthier-
Villars, Paris.
Lau, L. and Beveridge, A.D. (1997) The frequency of occurrence of paint and glass
on the clothing of high school students. Journal of the Canadian Society of
Forensic Science, 30, 233-240.
Lauritzen, S.L. and Mortera, J. (2002) Bounding the number of contributors to
mixed DNA stains. Forensic Science International, 130, 125-126.
Lee, J.W., Lee, H.S., Park, M. and Hwang, J.J. (1999) Paternity probability when a
relative of the father is an alleged father. Science & Justice, 39, 223-230.
Lee, J.W., Lee, H.S., Han, G.R. and Hwang, J.J. (2000) Motherless case in paternity
testing. Forensic Science International, 114, 57-65.
Lee, J.W., Lee, H.S. and Hwang, J.J. (2002) Statistical analysis for estimating
heterogeneity of the Korean population in DNA typing using STR loci.
International Joumal of Legal Medicine, 116, 153-160.
Lee, P.M. (2004) Bayesian Statistics: An Introduction, 3rd edition, Arnold, London.
Lempert, R. (1977) Modelling relevance. Michigan Law Review, 89, 1021-1057.
Lempert, R. (1991) Some caveats concerning DNA as criminal identification evi-
denee: with thanks to the Reverend Bayes. Cardozo Law Review, 13, 303-341.
Lempert, R. (1993) The suspect population and DNA identification. Jurimetrics
Journal, 34, 1-7.
Lempert, R. (1997) After the DNA wars: skirmishing with NRC II. Jurimetrics
Journal, 37, 439-468.
Lenth, R.V. (1986) On identification by probability. Journal of the Forensic Science
Society, 26, 197-213.
Leonard, T. (2000) A Course in Categorical Data Analysis. Chapman & Hall/CRC, Boca
Raton, FL.
Leonard, T. and Hsu, J.S.J. (1999) Bayesian Methods. Cambridge University Press,
Cambridge.
Levitt, T.S. and Blackmond Laskey, K. (2001) Computational inference for evi-
dential reasoning in support of judicial proof. Cardozo Law Review. 22,
1691-1731.
Lewontin, R.C. (1993) Which population? (Letter), American Journal of Human
Genetics, 52, 205.
Referencias 593
Liao, X.H., Lau, T.S., Ngan, K.F.N. and Wang, J. (2002) Deduction of paternity in-
dex from DNA mixture. Forensic Science International, 128, 105-107.
Lindley, D.V. (1957) A statistical paradox. Biometrika, 44, 187-192. (Comments by
M.S. Bartlett and M.G. Kendall appear in 45, 533-534.)
Lindley, D.V. (1977a) A problem in forensic science. Biometrika, 64, 207-213.
Lindley, D.V. (1977b) Probability and the law. The Statistician, 26, 203-212.
Lindley, D.V. (1980) L.J. Savage - his work in probability and statistics. Annals of
Statistics, 8, 1-24.
Lindley, D.V. (1987) The probability approach to the treatment of uncertainty in
artificial intelligence and expert systems. Statistical Science, 2, 17-24.
Lindley, D.V. (1991) Probability. In The Use of Statistics in Forensic Science (Aitken,
C.G.G. and Stoney, D.A., eds), Ellis Horwood, Chichester, pp. 27-50.
Lindley, D.V. (1998) Making Decisions, 2nd edition, John Wiley & Sons, Ltd, London.
Lindley, D.V. and Eggleston, R. (1983) The problem of missing evidence. Law
Quarterly Review, 99, 86-99.
Lindley, D.V. and Scott, W.P. (1995) New Cambridge Statistical Tables, 2nd edition,
Cambridge University Press, Cambridge.
Locard, E. (1914) La preuve judiciaire par les empreintes digitales. Archives
d’Anthropologie Criminelle, de Médicine Légale et de Psychologie Normale et Pathologique,
28, 321-348.
Locard, E. (1920) L’enquête criminelle et les méthodes scientifiques, Flammarion, Paris.
Locard, E. (1929) L’analyse des poussières en criminalistique. Revue Internationale de
Criminalistique, September, 176-249.
Louis, T.A. (1981) Confidence intervals for a binomial parameter after observing
no successes. American Statistician, 35, 154.
Lyon, T.D. and Koehler, J.J. (1996) The relevance ratio: evaluating the probative value
of expert testimony in child sexual abuse cases. Cornell Law Review, 82, 43-78.
Mallows, C. (1998) The zeroth problem. American Statistician, 52, 1-9.
Mardia, K.V., Kent, J.T. and Bibby, J.M. (1979) Multivariate Analysis. Academic Press,
London.
Massonnet, G. and Stoecklein, W. (1999) Identification of organic pigments in coa-
tings: applications to red automotive topcoats. Part III: Raman spectroscopy
(NIR FT-Raman). Science & Justice, 39, 181-187.
Matthews, R. (1994) Improving the odds on justice. New Scientist, 16 April, p. 12.
McDermott, S.D. and Willis, S.M. (1997) A survey of the evidential value of paint
transfer evidence. Journal ofForensic Sciences. 42, 1012-1018.
McDermott, S.D., Willis, S.M. and McCullough, J.P. (1999) The evidential value of
paint. Part II: A Bayesian approach. Journal of Forensic Sciences, 44, 263-269.
McQuillan, J. and Edgar, K. (1992) A survey of the distribution of glass on c1o-
thing. Journal of the Forensic Science Society, 32, 333-348.
Meester, R. and Sjerps, M. (2003) The evidential value in the DNA database search
controversy and the two-stain problem. Biometrics, 59, 727-732.
594 Referencias
Meier, P. and Zabell, S. (1980) Benjamin Peirce and the Howland will. Journal of the
American Statistical Association, 75, 497-506.
Mellen, B.G. (2000) A likelihood approach to DNA evidence. In StatisticaI Science in
the Courtroom (Gastwirth, J.L., ed.), Springer-Verlag, New York.
Mellen, B.G. and Royall, R.M. (1997) Measuring the strength of deoxyribonucleic
acid evidence, and probabilities of strong implicating evidence. Journal of the
Royal Statistical Society, Series A, 160, 305-320.
Meuwly, D. (2001) Reconnaissance de locuteurs en sciences forensiques: l’apport d’une
approache automatique. Doctoral thesis, Institut de Police Scientifique et de
Criminologie, University of Lausanne, Switzerland.
Meuwly, D. and Drygajlo, A. (2001) Forensic speaker recognition based on a
Bayesian frarnework and Gaussian mixture modelling (GMM}. In Proceedings
of the 2001 Speaker Odyssey Recognition Workshop, 18-22 June 2000, Crete, Greece,
pp. 145-150.
Miller, L.S. (1987) Procedural bias in forensic science examinations of human hair.
Law and Human Behaviour, 11, 157-163.
Mode, E.B. (1963) Probability and criminalistics. Journal of the American Statistical
Association, 58, 628-640.
Moran, B. (2003) Toolmark criteria for identification: pattern match. CMS or
Bayesian? Interface, 28, 9-10.
Moran, B. (2002) A report on the AFTE theory of identification and range of con-
clusions for tool mark identification and resulting approaches to casework.
AFTE (Association of Firearm and Toolmark Examiners) Journal, 34, 227-235.
Moran, B. (2003) Comments and clarification of responses from a member of the
AFTE 2001 criteria nfor identification of toolmarks discussion panel. AFTE
(Association of Firearm and Toolmark Examiners) Journal, 35, 55-65.
Moras, C. (1906) L’Affaire Dreyfus: les débats de la Cour de Cassation (15 juin 1906 - 12 jui-
llet 1906). Société Nouvelle de Librairie et d’Édition, Paris.
Morgan, J.P., Chaganty, N.R., Dahiya, R.C. and Doviak, M.J. (1991) Let’s make a
deal: the player’s dilemma. American Statistician, 45, 284-287.
Mortera, J., Dawid, A.P. and Lauritzen, S.L. (2003) Probabilistic expert systems for
DNA mixture profiling. Theoretical Population Biology, 63, 191-205.
Mosteller, F. and Wallace, D.L. (1963) Inference in an authorship problem. Journal
of the American Statistical Association, 58, 275-309.
Mosteller, F. and Wallace, D.L. (1984) Applied Bayesian and Classical Inference; The Case
of the Federalist Papers, Springer-Verlag, New York.
National Research Council (1992) DNA Technology in Forensic Science. National
Academies Press, Washington, DC.
National Research Council (1996) The Evaluation of Forensic DNA Evidence. National
Academies Press, Washington, DC.
Nichols, R.A. and Balding, D, (1991) Effect of population structure on DNA finger-
print analysis in forensic science. Heredity, 66, 297-302.
Referencias 595
Nichols, R.G. (1997) Firearm and toolmark identification criteria: a review of the
literature. Journal of Forensic Sciences, 42, 466-474.
Nichols, R.G. (2003) Firearm and toolmark identification criteria: a review of the
literature, Part II. Journal of Forensic Sciences, 48, 318-327.
Ogino, C. and Gregonis, D.J. (1981) Indirect typing of a victim’s blood using pater-
nity testing. Presentation before the California Association of Criminalists
57th Semi-annual Seminar, Pasadena, CA.
Ogle, R.R. (1991) Discussion of ‘Further evaluation of probabilities in human scalp
hair comparisons’ (Wickenheiser and Hepworth, 1990). Journal of Forensic
Sciences, 36, 971-973.
Olkin, I. (1958) The evaluation of physical evidence and the identity problem by
means of statistical probabilities. General Scientific Session of the American
Academy of Forensic Sciences, Cleveland, Ohio, U.S.A.
Osterburg, J.W. and Bloomington, S.A. (1964) An inquiry into the nature of proof
‘The Identity of Fingerprints’. Journal of Forensic Sciences, 9, 413-427.
Owen, D.B. (1962) Handbook of Statistical Tables. Addison-Wesley Reading, MA.
Owen, G.W. and Smalldon, K.W. (1975) Blood and semen stains on outer clothing
and shoes not related to crime: report of a survey using presumptive tests.
Journal of Forensic Sciences, 20, 391-403.
Palmer, R. and Chinherende, V. (1996) A target fibre study using cinema and car
seats as recipient items. Journal of the Forensic Science Society, 41, 802-803.
Pankanti, S., Prabhakar, S. and Jain, A.K. (2002) On the individuality of fingerprints.
IEEE Transactions on Pattern Analysis and Machine Intelligence, 24, 1010-1025.
Parker, J.B. (l966) A statistical treatment of identification problems. Forensic Science
Society Journal, 6, 33-39.
Parker, J.B. (1967) The mathematical evaluation of numerical evidence. Forensic
Science Society Journal, 7, 134-144.
Parker, J.B. and Holford, A. (1968) Optimum test statistics with particular referen-
ce to a forensic science problem. Applied Statistics, 17, 237-251.
Peabody, A.J., Oxborough, R.J., Cage, P.E. and Evett, I.W. (1983) The discrimina-
tion of cat and dog hairs. Journal of the Forensic Science Society, 23, 121-129.
Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems: Networks of Plausible
Inference, Morgan Kaufmann, San Mateo, CA.
Pearson, E.F., May, R.W. and Dabbs, M.G.D. (1971) Glass and paint fragments
found in men’s outer clothing - report of a survey. Journal of Forensic Sciences,
16, 283-300.
Pearson, E.S. and Hartley, H.O. (eds) (1966) Biometrika Tables for Statisticians, Volume
1, Cambridge University Press, Cambridge.
Pearson, E.S. and Kendall, M,G. (eds) (1970) Studies in the History of Statistics and
Probability, Charles Griffin, London.
Peirce, C.S. (1878) The probability of induction. Popular Science Monthly Reprinted in
The World of Mathematics, Volume 2 (Newman, J,R., ed.), Simon and Schuster,
New York, (1956), pp. 1341-1354.
596 Referencias
Petterd, C.I., Hamshere, J., Stewart, S., Brinch, K., Masi, T. and Roux, C. (2001)
Glass particles in the clothing of members of the public in south-eastern
Australia - a survey. Forensic Science International. 116, 193-198.
Piattelli-Palmarini, M. (1994) Inevitable Illusions. John Wiley & Sons, Inc, New
York.
Poincaré, H. (1896) Calcul des Probabilités. Leçons professées pendant le deux-
ième semestre 1893-1894. In Calcul des Probabilités (G. Carré, ed.), Paris.
Poincaré, H. (1912) Calcul des Probabilités, Gauthier-Villars, Paris.
Poincaré, H. (1992) La Science et l’hypothèse. Editions de la Bohème, Paris.
Poisson, S.D. (1837) Recherches sur la probabilité des jugements en matière criminelle et
en matière civile, précédées des règles générales du calcul des probabilités, Bachelier,
Paris.
Pounds, C.A. and Smalldon, K.W. (1978) The distribution of glass fragments in
front of a broken window and the transfer of fragments to individuals stan-
ding nearby. Journal of the Forensic Science Society, 18, 197-203.
Puch, R.O. and Smith, J.Q. (2002) FINDS: a training package to assess forensic fi-
bre evidence. Advances in Artificial Intelligence (Coella, C.A.C., Albornoz, A. de,
Sucar, L.E. and Battistuti, O.S., eds), Springer-Verlag, Berlin, pp. 420-429.
Rabinovitch, N.L. (1969) Studies in the history of probability and statistics XXII:
Probability in the Talmud. Biometrika, 56, 437-441.
Rabinovitch, N.L. (1973) Probability and Statistical Inference in Ancient and Medieval
Jewish Literature, University of Toronto Press, Toronto.
Race, R.R., Sanger, R., Lawler, S.D. aud Bertinshaw, D. (1949) The inheritance of
the MNS blood groups: a second series of families. Heredity, 3, 205-213.
Rahne, E., Joseph, L. and Gyorkos, T.W. (2000) Bayesian sample size determina-
tion for estimating binomial parameters from data subject to misclassifica-
tion. Applied Statistics, 49, 119-128.
Ramsey, F.P. (1931) Truth and probability. In The Foundations of Mathematics and Other
Logical Essays (R.B. Braithwaite ed.), Routledge & Kegan Paul, London.
Redmayne, M. (1995) Doubts and burdens: DNA evidence, probability and the
courts. Criminal Law Review, 464-482.
Redmayne, M. (1997) Presenting probabilities in court: the DNA experience.
International Journal of Evidence and Proof, 4, 187-214.
Redmayne, M. (2002) Appeals to Reason. Modern Law Review, 65, 19-35.
Reinstein, R.S. (1996) Comment. In Convicted by Juries, Exonerated by Science: Case
Studies in the Use of DNA Evidence to Establish Innocence after Trial (Connors, E.,
Lundregan, T., Miller, N. and McEwen, T., eds), US Department of Justice,
Washington, DC.
Robertson, B. and Vignaux, G.A. (1991) Extending the conversation about Bayes.
Cardozo Law Review, 13, 629-645.
Robertson, B. and Vignaux, G.A. (1992) Unhelpful evidence in paternity cases. New
Zealand Law Journal, 9, 315-317.
Referencias 597
Robertson, B. and Vignaux, G.A. (1993a) Probability - the logic of the law. Oxford
Journal of Legal Studies, 13, 457-478.
Robertson, B. and Vignaux, G.A. (1993b) Biology, logic, statistics and criminal jus-
tice. The Criminal Lawyer, 35.
Robertson, B. and Vignaux, G.A. (1993c) Taking fact analysis seriously. Michigan
Law Review, 91, 1442-1464.
Robertson, B. and Vignaux, G.A. (1994) Crime investigation and the criminal trial.
Journal of the Forensic Science Society, 34, 270.
Robertson, B. and Vignaux, G.A. (1995a) Interpreting Evidence: Evaluating Forensic
Science in the Courtroom, John Wiley & Sons, Ltd, Chichester.
Robertson, B. and Vignaux G.A. (1995b) DNA evidence: wrong answers or wrong
questions? In Human Identification: The use of DNA Markers (Weir, B.S., ed.),
Kluwer Academic, Dordrecht, pp. 145-152.
Robertson, B. and Vignaux, G.A. (1998) Explaining evidence logically. New Law
Journal, 148, 159-162.
Robinson, N., Taroni, F., Saugy, M., Ayotte, C., Mangin, P. and Dvorak, J. (2001)
Detection of nandrolone metabolites in urine after a football game in pro-
fessional and amateur players: a Bayesian comparison. Forensic Science
International, 122, 130-135.
Rose, P.J. (2002) Forensic Speaker Identification, Taylor & Francis, London.
Rose, P.J. (2003) The technical comparison of forensic voice samples. In Expert
Evidence (Freckleton, I. and Selby, H., eds), Thomson Lawbook Company,
Sydney, Chapter 99.
Roux, C. and Margot, P. (1997) An attempt to assess relevance of textile fibres reco-
vered from car seats. Science & Justice, 37, 225-230.
Roux, C., Chable, J. and Margot, P. (1996) Fibre transfer experiments onto car
seats, Science & Justice, 36, 143-151.
Roux, C., Langdon, S., Waight, D. and Robertson, J. (1999) The transfer and persis-
tence of automotive carpet fibres on shoe soles. Science & Justice, 39, 239-251.
Roux, C., Kirk. R., Benson, S., Van Haren, T. and Petterd, C.I. (2001) Glass parti-
cles in footwear of members of the public in south-eastern Australia - a sur-
vey. Forensic Science International, 116, 149-156.
Royall, R. (1997) Statistical Evidence: A Likelihood Paradigm, Chapman & Hall,
London.
Royall, R. (2000) On the probability of observing misleading statistical evidence.
Journal of the American Statistical Association, 95, 760-780.
Rudin, M. and Inman, K. (2003) An Introduction to Forensic DNA Analysis, 2nd edition,
CRC Press, Boca Raton, FL.
Ryan, B.F., Joiner, B.L. and Ryan, T.A. (2000) MINITAB Handbook. Fourth edition,
Brooks Cole, Pacific Grove, CA (http://www.minitab.com/).
Ryland, S.G., Kopec, R.J. and Somerville, P.N. (1981) The evidential value of auto-
mobile paint chips. Part II: The frequency of occurrence of topcoat colours.
Journal of Forensic Sciences, 26, 64-74.
598 Referencias
Sacco, N. (1969) The Sacco-Vanzetti Case: Transcript of the Record of the Trial of Nicola Sacco
and Bartolomeo Vanzetti in the Courts of Massachusetts and Subsequent Proceedings,
1920-7, 6 vols., P.P. Appel, Mamaroneck, NY.
Saks, M.J. and Koehler, J.J. (1991) What DNA ‘fingerprinting’ can teach the law
about the rest of forensic science. Cardozo Law Review, 13, 361-372.
Salmon, D. and Salmon, C. (1980) Blood groups and genetic markers polymor-
phisms and probability of paternity. Transfusion, 20, 684-694.
Salter, M.T. and Cook, R. (1996) Transfer of fibres to head hair, their persistence
and retrieval. Forensic Science International, 81, 211-221.
Savage, L.J. (1954) The Foundations of Statistics, Dover, New York.
Schum, D.A. (1994) Evidential Foundations of Probabilistic Reasoning. John Wiley &
Sons, Inc. New York.
Schum, D.A. (1999) Inference Networks and the Evaluation of Evidence:
Alternative Analyses. In Uncertainty in Artificial Intelligence: Proceedings of the
Fifteenth Conference (Laskey, K. Prade, H., eds), Morgan Kaufmann Publishers,
San Francisco, pp. 575-584.
Schum, D.A. (2000) Singular evidence and probabilistic reasoning in judicial pro-
of. In Harmonisation in Forensic Expertise (Nijboer, J.F. and Sprangers, W.J.J.M.,
eds). Thela Thesis, Leiden, The Netherlands, pp. 587-603.
Scientific Sleuthing Newsletter (1988) Hair analysis. Scientific Sleuthing Newsletter,
12(3), 4, 6.
Scott, A.J. and Knott, M. (1974) A cluster analysis method for grouping means in
the analysis of variance. Biometrics, 30, 507-512.
Seheult, A. (1978) On a problem in forensic science. Biometrika, 65, 646-648.
Selvin, S. (1975) On the Monty Hall problem. American Statistician, 29, 134.
Shafer, G. (1976) A Mathematical Theory of Evidence, Princeton University Press,
Princeton, NJ.
Shafer, G. (1978) Non-additive probabilities in the work of Bernoulli and Lambert.
Archive for History of Exact Sciences, 19, 309-370.
Shafer, G. (1982) Lindley’s paradox (with discussion). Journal of the American
Statistical Association, 77, 325-351.
Shannon, C.E. (1948) A mathematical theory of communication. Bell System
Technical Journal, 27, 379-423.
Shannon, C.R. (1984) Royal Commission concerning the conviction of Edward Charles
Splatt, Woolman, D.J., Government Printer, South Australia, Australia.
Sheynin, O.B. (1974) On the prehistory of the theory of probability. Archive for
History of Exact Sciences. 12, 97-141.
Shoemaker, J.S., Painter, I.S., and Weir, B.S. (1999) Bayesian statistics in genetics:
a guide for the uninitiated. Trends in Genetics, 15, 354-358.
Siegel, J.A. (1997) Evidential value of textile fiber - transfer and persistence of fi-
bers. Forensic Science Review. 9, 81-96.
Silverman, B.W. (1986) Density Estimation, Chapman & Hall, London.
Referencias 599
Simon, R.J. and Mahan, L. (1971) Quantifying burdens of proof. Law and Society
Review, 5, 319-330.
Simons, A.A. (1997) Technical Working Group on Friction Ridge Analysis, Study
and Technology (TWGFAST) Guidelines. Journal of Forensic Identification, 48,
147-162.
Simpson, E.H. (1949) Measures of diversity. Nature, 163, 688.
Sinha, S.K. (ed.) (2003) Y-chromosome: genetics, analysis, and application in fo-
rensic science. Forensic Science Review. 15(2), 77-201.
Sjerps, M. and Kloosterman, A.D. (1999) On the consequences of DNA profile mis-
matches for clase relatives of an excluded suspect. International Journal of Legal
Medicine, 112, 176-180.
Smalldon, K.W. and Moffat, A.C. (1973) The calculation of discriminating power for a
series of correlated attributes. Journal of the Forensic Science Society, 13, 291-295.
Smeeton, N.C. and Adcock, C.J. (eds) (1997) Sample size determination - Special
issue. The Statistician, 46(2).
Smith, J.A.L. and Budowle, B. (1998) Source identification of body fluid stains
using DNA profiling. In Proceedings from the Second European Symposium of
Human Identification, Promega Corporation, Innsbruck, Austria, pp. 89-90.
Smith, R.L. and Charrow, R.P. (1975) Upper and lower bounds for the probabili-
ty of guilt based on circumstantial evidence. Journal of the American Statistical
Association, 70, 555-560.
Souder, W. (1934/1935) The merits of scientific evidence. Journal of the American
Institute of Criminal Law and Criminology, 25, 683-684.
Srihari, S.N., Cha, S.H., Arora, H. and Lee, S. (2002) Individuality of handwriting.
Journal of Forensic Sciences, 47, 856-872.
Stockmarr, A. (1999) Likelihood ratios for evaluating DNA evidence when the sus-
pect is found through a database search. Biometrics, 55, 671-677.
Stockton, A. and Day, S. (2001) Bayes, handwriting and science. In Proceedings of
the 59th Annual ASQDE Meeting - Handwriting & Technology: at the Crossroads. Des
Moines, Iowa, U.S.A., pp. 1-10.
Stoney, D.A. (1984a) Evaluation of associative evidence: choosing the relevant
question. Journal of the Forensic Science Society, 24, 473-482.
Stoney, D.A. (1984b) Statistics applicable to the inference of a victim’s blood type
from familial testing. Journal of the Forensic Science Society, 24, 9-22.
Stoney, D.A. (1991a) Transfer evidence. In The Use of Statistics in Forensic Science (Aitken,
C.G.G and Stoney, D.A., eds). Ellis Horwood, Chichester, pp. 107-138.
Stoney, D.A. (1991b) What made us think we could individualise using statistics?
Journal of the Forensic Science Society, 31, 197-199.
Stoney, D.A. (1992) Reporting of highly individual genetic typing results: a practi-
cal approach. Journal of the Forensic Science Society, 37, 373-386.
Stoney, D.A. (1994) Relaxation of the assumption of relevance and an application
to one-trace and two-trace problems. Journal of the Forensic Science Society, 34,
17-21.
600 Referencias
Taroni, F., Lambert, J.A., Fereday, L. and Werrett, D.J. (2002) Evaluation and
presentation of forensic DNA evidence in European laboratories. Science &
Justice, 42, 21-28.
Taroni, F., Biedermann, A., Garbolino, P. and Aitken, C.G.G. (2004) A general
approach to Bayesian networks for the interpretation of evidence, Forensic
Science International, 139, 5-16.
Thagard, P. (2003) Why wasn’t O.J. convicted? Emotional coherence in legal infe-
rence. Cognition and Emotion, 17, 361-383.
Thanasoulias, N.C., Parisis, N.A. and Evmiridis, N.P. (2003) Multivariate chemo-
metrics for the forensic discrimination of blue ball-point pen inks based on
their Vis spectra. Forensic Science International, 138, 75-84.
Thompson, W.C. (1989) Are juries competent to evaluate statistical evidence? Law,
and Contemporary Problems, 52, 9-41.
Thompson, W.C. (1993) Evaluating the admissibility of a new genetic identifica-
tion test: lessons from the DNA war. Journal of Criminal Law and Criminology,
84, 22-104.
Thompson, W.C. (1995) Subjective interpretation. laboratory error and the value
of forensic DNA evidence: three cases studies. Genetica, 96, 153-168.
Thompson, W.C. (1997) Accepting lower standards: the National Research Council’s
second report on forensic DNA evidence. Jurimetrics Journal, 37, 405-424.
Thompson, W.C. and Ford, S. (1989) DNA typing: acceptance and weight of the
new genetic identification tests. Virginia Law Review, 75, 45-108.
Thompson, W.C. and Schumann, E.L. (1987) Interpretation of statistical evidence
in criminal trials. The prosecutor’ s fallacy and the defence attorney’ s falla-
cy. Law and Human Behaviour, 11, 167-187.
Thompson, W.C. Taroni, F. and Aitken, C.G.G. (2003) How the probability of a false
positive affects the value of DNA evidence. Journal of Forensic Sciences, 48, 47-54.
Thompson, Y. and Williams, R. (1991) Blood group frequencies of the population
of Trinidad and Tobago, West Indies. Journal of the Forensic Science Society, 31,
441-447.
Tillers, P. (2001) Artificial intelligence and judicial proof. Cardozo Law Review, 22,
1433-1851.
Tippett, C.F., Emerson, V.J., Fereday, M.J., Lawton, F. and Lampert, S.M. (1968)
The evidential value of the comparison of paint flakes from sources other
than vehicles. Journal of the Forensic Science Society, 8, 61-65.
Tribe, L. (1971) Trial by mathematics: precision and ritual in the legal process.
Harvard Law Review, 84, 1329-1393.
Triggs, C.M. and Buckleton, J.S. (2002) Logical implications of applying the prin-
cipIes of population genetics to the interpretation of DNA profiling eviden-
ce. Forensic Science International, 128, 108-114.
Triggs, C.M. and Buckleton, J.S. (2003) The two-trace problem re-examined. Science
& Justice, 43,127-134.
602 Referencias
Triggs, C.M., Curran, J.M., Buckleton, J.S. and Walsh, K.A.J. (1997) The grou-
ping problem in forensic glass analysis: a divisive approach. Forensic Science
International, 85, 1-14.
Triggs, C.M., Harbison, S.A. and Buckleton, J.S. (2000) The calculation of DNA
match probabilities in mixed race populations. Science & Justice, 40, 33-38.
Tryhorn, F.G. (1935) The assessment of circumstantial scientific evidence. Police
Journal, 8, 401-411.
Tversky, A. and Kahneman, D. (1974) Judgement under uncertainty: heuristics and
biases. Science, 185, 1124-113l.
Tzidony, D. and Ravreboy, M. (1992) A statistical approach to drug sampling: a
case study. Journal of Forensic Sciences, 37, 1541-1549.
United Nations (1998) Recommended Methods for Testing Opium, Morphine and Heroin.
Manual for use by National Drug Testing Laboratories, United Nations, New
York.
United States Supreme Court (1995) Schlup v. Delo, United States Reports, 513,
298-322.
Venables, W.M. and Ripley, B.D. (2002) Modern Applied Statistics with S-Plus, 4th edi-
tion, Springer-Verlag, New York.
Vicard, P. and Dawid, A.P. (2003) Estimating mutation rates from paternity data.
In Atti del Convegno Modelli complessi e metodi computazionali intensivi per la stima
e la previsione, Università Cà Foscari, Venezia, Italy, pp. 415-418.
Vito, G.F. and Latessa, E.J. (1989) Statistical Applications in Criminal Justice, Sage,
London.
Wakefield, J.C., Skene, A.M., Smith, A.F.M. and Evett I.W. (1991) The evaluation of
fibre transfer evidence in forensic science: a case study in statistical mode-
lling. Applied Statistics, 40, 461-476.
Walsh, K.A.J. and Buckleton, J.S. (1986) On the problem of assessing the evidential
value of glass fragments embedded in footwear. Journal of the Forensic Science
Society, 26, 55-60.
Walsh, K.A.J. and Buckleton, J.S. (1988) A discussion of the law of mutual inde-
pendence and its application to blood group frequency. Journal of the Forensic
Science Society, 28, 95-98.
Walsh, K.A.J. and Buckleton, J.S. (1991) Calculating the frequency of occurrence
of a blood type for a ‘random man’. Journal of the Forensic Science Society, 31,
49-58.
Walsh, K.A.J. and Buckleton, J.S. (1994) Assessing prior probabilities considering
geography. Journal of the Forensic Science Society, 34, 47-51.
Walsh, K.A.J. Buckleton, J.S. and Triggs, C.M. (1996) A practical example of the
interpretation of glass evidence. Science & Justice, 36, 213-218.
Weir, B.S. (1992) Population genetics in the forensic DNA debate. Proceedings of the
National Academy of Science USA, 89, 11654-11659.
Weir, B.S. (199 5) DNA statistics in the Simpson matter. Nature Genetics, 11, 365-368.
Weir, B.S. (1996a) Genetic Data Analysis II, Sinauer Associates, Sunderland, MA.
Referencias 603
Weir, B.S. (1996b) Presenting DNA statistics in court. In Proceedings of the 6th Inter
national Symposium on Human Identification, Promega Corporation, Madison,
WI, pp. 128-136.
Weir, B.S, (1998) The coancestry coefficient. In Proceedings of the 8th International Symposium
on Human Identification, Promega Corporation, Madison, WI, pp. 87-91.
Weir, B.S. (2000a) Statistical analysis. In Encyclopedia of Forensic Sciences (Siegel,
J.A., Saukko, P.J. and Knupfer, G.C., eds), Academic Press, San Diego, CA,
pp. 545-550.
Weir, BS. (2000b) The consequences of defending DNA statistics. In Statistical Science
in the Courtroom (Gastwirth, J.L., ed.), Springer-Verlag, New York, pp. 86-97.
Weir, B.S. (2001a) Forensics. In Handbook of Statistical Genetics (Balding, D.J.,
Bishop, M. and Cannings, C., eds), John Wiley & Sons, Ltd, Chichester, pp.
721-739.
Weir, B.S. (2001b) DNA match and profile probabilities - Comment on Budowle et
al. (2000) and Fung and Hu (2000a). Forensic Science Communications, 3.
Available at http://www.fbi.gov/hq/lab/fsclbackissu/jan2001/weir.htm
Weir, B.S. and Evett, I.W. (1992) Whose DNA? American Journal of Human Genetics,
50, 869.
Weir, B.S. and Evett, I.W. (1993) Reply to Lewontin (1993) (Letter). American Journal
of Human Genetics, 52, 206.
Weir, B.S. and Hill, W.G. (1993) Population genetics of DNA profiles. Journal of the
Forensic Science Society, 33, 218-225.
Weir, B.S., Triggs, C.M., Starling, L., Stowell, L.I., Walsh, K.A.J. and Buckleton, J.
(1997) Interpreting DNA mixtures. Journal of Forensic Sciences, 42, 213-222.
Weiss, C. (2003) Expressing scientific uncertainty. Law, Probability and Risk, 2, 25-46.
Welch, B.L. (1937) The significance of the difference between two means when the
population means are unequal. Biometrika, 29, 350-362.
Wickenheiser, R.A. and Hepworth, D.G. (1990) Further evaluation of probabilities
in human scalp hair comparisons. Journal of Forensic Sciences, 35,1323-1329.
Wickenheiser, R.A. and Hepworth, D.G. (1991) Authors’ response. Journal of Forensic
Sciences, 36, 973-976.
Wigmore, J. (1937) The Science of Proof: as Given by Logic, Psychology and General
Experience and Illustrated in Judicial Trials, 3rd edition, Little, Brown, Boston.
Wooley, J.R. (991) A response to Lander; the Courtroom perspective. American
Journal of Human Genetics, 49, 892-893.
Wright, S. (1922) Coefficients of inbreeding and relationship. American Naturalist,
56, 330-338.
Wright, S. (1951) The genetical structure of populations. Annals of Eugenics, 15, 323-354.
Wright, S. (1965) The interpretation of population structure by F-statistics with
special regard to systems of mating. Evolution, 19, 395-420.
Yellin, J. (1979) Book review of ‘Evidence, proof, and probability, 1st edition’, Eggleston,
R. (1978) Weidenfeld and Nicolson, London. Journal of Economic Literature, 583.
604 Referencias
Zabell, S. (1976) Book review of ‘Probability and statistical inference in ancient and me-
dieval Jewish literature’, Rabinovitch, N.L. (1973), University of Toronto Press,
Toronto. Canada. Journal of the American Statistical Association, 71, 996-998.
Zeisel, H. and Kaye, D.H. (1997) Prove It with Figures, Springer-Verlag, New York,
pp. 216-217.
Notación Notación
Los alfabetos griego y latino proporcionan una amplia gama de letras que se pue-
den usar para notación matemática. A pesar de ello, algunas letras, tales como x, se
usan en este libro para referirse a más de una cosa. Se espera que ninguna letra o
símbolo signifique más de una cosa al mismo tiempo y que la lista que aparece a con-
tinuación sea de utilidad a los lectores para conocer lo que cada letra o símbolo sig-
nifica en cualquier punto particular. Se dan referencias del capítulo o sección donde
puede hallarse el primer o principal empleo de muchas de las letras o símbolos.
... : tres puntos, escritos sobre la línea, indican ‘y de ahí en adelante
secuencialmente hasta’. Así x1 ,..., x 5 puede leerse como ‘ x 1 y de
ahí en adelante secuencialmente hasta x5 ’ y es una abreviatura
para la secuencia x1 , x 2 , x 3 , x 4 , x 5 . Por lo general, el último su-
bíndice es n, de tal forma que una secuencia de n objetos podría
escribirse como x1 ,..., x n .
∙∙∙ : tres puntos, en posición levantada, indican ‘una repetición de la
operación inmediatamente antes y después de los puntos’. Así
x1 + + x 5 es una forma abreviada para ‘ x1 + x 2 + x 3 + x 4 + x 5
’. De manera similar x1 × × x 5 es una forma abreviada para ‘
x1 × x 2 × x 3 × x 4 × x 5 ’. Por lo general el último subíndice es n, de
tal forma que una suma o producto de n objetos puede escri-
birse como x1 + + x n o x1 × × x n . También, el símbolo × se
omite a menudo y x1 × × x n se escribe como x1 x n .
∑
n
∑: la suma de los términos que siguen al símbolo. Por ejemplo, i=1 x i
representa la suma de x1 ,..., x n ( x1 + ... + x n ) ; Sección 2.3.2.
P: el producto de los términos que siguen al símbolo. Por ejem-
∏
n
plo, i =1
Pr(Si ) representa el producto de las probabilidades
Pr(S1 ),..., Pr(Sn ) ( Pr(S1 ) Pr(Sn ) ); Sección 4.5.4.
: se lee como ‘el opuesto de’ o el ‘complementario de’, así si M
representa varón, M representa mujer; Sección 3.1.1.
: se lee como ‘la media de’, así x es la media de un conjunto de
medidas x1 ,..., x n ; Sección 2.4.1.
≡: se lee como ‘equivalente a’. Por ejemplo, si M representa varón y
F representa mujer, entonces M ≡ F y F ≡ M .
>>: se lee como ‘es mucho mayor que’ (en contraste con > que es
simplemente ‘es mayor que’); Sección 4.6.2.
606 Notación