clubforenses.com

clubforenses.com

Line-up: nueva metodología en grafología forense que reduce los sesgos. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el artículo “Presentation methodologies: an assessment for forensic signature analysis”, de Conlan X. A., Stevens S. J., Found B., Sherman C. D. H. y Durdle A. (2019), que nos acerca a las metodologías del análisis de firmas. En este artículo proponen un nuevo método para los grafólogos forenses y comparan el rendimiento de sujetos profesionales y no profesionales.

Dentro de las ciencias forenses, nos encontramos con una disciplina fascinante. Hablamos de la grafología, con dos vertientes principales: la grafología forense y la grafología psicológica. El artículo que presentamos hoy se centra en la primera de estas dos, siendo la grafología forense la que se encarga de la identificación del autor y del análisis de autenticidad de una firma o texto. La validez del análisis de la escritura a mano ha sido bastante cuestionada como técnica forense. La duda o critica principal en este ámbito es si los/las profesionales que examinan la escritura realmente son más capaces de identificar una firma simulada (por tanto, detectar su falsificación) que una persona no profesional. Existen varios estudios que han mostrado que los sujetos no profesionales detectan erróneamente una firma como simulada muchas más veces que los profesionales. A pesar de las evidencias, sigue habiendo muchas cuestiones a tener en cuenta para minimizar la probabilidad de errores.

Por esta razón, en 2009, la Academia Nacional de Ciencias de EEUU publicó un informe en el cual subraya una serie de limitaciones relativas a las ciencias forenses, incluida la grafología. Una de ellas se refiere a los sesgos contextuales, influencias cognitivas y contextuales que modifican y sesgan la percepción humana de múltiples maneras. En las ciencias de la evidencia forense, la información contextual irrelevante que podría influir en las conclusiones de los expertos proviene de 3 fuentes principales: el contexto en cual se examina una evidencia, la documentación que la acompaña y la información que se obtiene sobre ella mediante la comunicación con otros.

En cualquier caso, de todas las fuentes posibles de sesgo, esta investigación se basa en evidencias previas sobre el impacto que tiene el cotejo de las muestras dubitadas e indubitadas de huellas dactilares en las conclusiones de los expertos. Es decir, el cotejo como fuente de sesgos. Por eso, los autores plantean que los mismos sesgos pueden mantenerse también en el caso de las firmas y otros materiales escritos.

Un ejemplo de cómo podría sesgarnos el proceso de cotejo es imaginarnos que tenemos que decidir cuál es el tono de color rojo cereza y tenemos dos maneras de hacerlo. Una es teniendo una muestra de ese color y elegirlo de una serie de tonalidades distintas de rojo. Otra opción sería hacer lo mismo, pero sin tener referencia alguna, donde elegiríamos el color rojo cereza de una serie de tonos de rojo. ¿Creéis que los resultados serían distintos? No cabe duda de que en el caso de los colores hay menos características para analizar, alejándose bastante de la complejidad de una firma o huella digital, pero el proceso per se es el mismo.

En los estudios previos se sugiere que una alternativa al cotejo que disminuiría el riesgo de una percepción sesgada sería un análisis de las características de la muestra dubitada de manera aislada y, posteriormente, llevar a cabo el cotejo de ambas. En este estudio, no se lleva a cabo esa sugerencia al completo, pero se prueba con un nuevo método, llamado line-up. Este concepto hace referencia a la técnica que se utiliza en las ruedas de reconocimiento de sospechosos. Significa alineación o ponerse en fila, pero aquí se refiere a la presentación de muestras dubitadas e indubitadas de manera conjunta, sin una muestra de modelo.

Se justifica la posibilidad de encontrar diferencias en la cantidad o nivel de sesgo por el tipo de procesamiento que se lleva a cabo en el método de cotejar y Line-up. Si los sujetos aciertan más y discriminan mejor falsificaciones de firmas auténticas con un método más que con el otro, implicaría que ese método permite un análisis menos sesgado.

En el cotejo, el procesamiento cognitivo ocurre primero de abajo-arriba, cuando el modelo se percibe y, posteriormente, ocurre un procesamiento de arriba-abajo para comparar con las demás muestras. Por lo tanto, existe el riesgo de una comparación más sesgada por la información contextual y cognitiva que puede haberse recogido con la percepción del modelo.

En la metodología Line-up, el procesamiento de las muestras dubitadas e indubitadas ocurre de manera conjunta de abajo-arriba. El procesamiento de arriba-abajo implica que en el análisis se utilizará la misma información que la de entrada más el conocimiento del experto, por lo que probablemente habrá menos información contextual, sea interna o externa, que pueda sesgar las conclusiones obtenidas. Es decir, menos de la que se habría recogido si se suma la percepción del modelo.

En el estudio participa una muestra de 40 sujetos no profesionales de la grafología forense. Primero, 10 sujetos deben crear una muestra de 30 firmas originales cada uno. Los otros 10 deben generar 30 falsificaciones cada uno de una muestra de 5 firmas elegidas aleatoriamente de las anteriores. Los 20 sujetos restantes conforman dos grupos: No profesionales de cotejo (NP-C) y No profesionales Line-up (NP-L). Los grupos de profesionales de la grafología están compuestos por 7 sujetos para el grupo Profesionales de cotejo (P-C) y 8 para Profesionales Line-up (P-L).

Los grupos que deben cotejar las muestras (NP-C y P-C) reciben 10 casos. Cada caso se presenta con dos hojas: una con 15 firmas del mismo autor y otra con 5 firmas, de las cuales entre 1 y 5 firmas pueden ser falsificaciones. Los sujetos deben identificar cuáles de las 5 firmas son falsas y justificar para cada una por qué piensan que son o no son falsificaciones. Además, deben valorar en cada firma si consideran que hay una evidencia fuerte de que es original, falsa o si les parecen poco concluyente.

Los grupos que siguen la metodología Line-up también reciben 10 casos. Solo se utiliza una hoja que contiene 20 firmas, siendo la mayoría hechas por el mismo autor y entre 1 y 5 falsificadas. La evaluación de las firmas es igual que la anterior, excepto lo último y en este caso se deben clasificar las firmas: las del mismo autor, las falsificaciones y las que consideran poco concluyentes.

Como resultados principales, se observa que los participantes no profesionales se pronuncian más sobre la naturaleza de las firmas. Es decir, tienen menos dudas sobre si son falsas o no cuando utilizan el método Line-up. En cambio, los grafólogos forenses dan más respuestas correctas que los no profesionales, pero también optan más por no concluir nada. Se considera que estas diferencias pueden deberse a que los profesionales son más cautos a la hora de decidir sobre la naturaleza de las firmas, dado que saben la importancia de estas decisiones a nivel judicial. Prefieren no concluir que concluir incorrectamente. En cualquier caso, parece que el método Line-up es fácil de utilizar tanto para profesionales como no profesionales, dado que ambos grupos fueron capaces de determinar falsificaciones y firmas auténticas correctamente.

Utilizando el método del cotejo, no se encuentran diferencias entre profesionales y no profesionales en ningún tipo de respuesta. Este hallazgo es inconsistente con lo que han encontrado los estudios anteriores, donde suele haber una mayor exactitud en las respuestas de los profesionales.

Según los autores, lo más importante es que este estudio ha demostrado que el método Line-up parece apto para la profesión forense, cumpliendo su función de reducir el sesgo contextual, sin que afecte a la exactitud del análisis grafológico. Por lo tanto, parece un método que aumenta la probabilidad de detectar firmas auténticas y falsificaciones porque empuja a un mayor análisis de los matices que en el caso del cotejo, donde se trabaja más con la comparación de los mismos.

 

Si quieres conocer más sobre grafología forense, el peritaje en este campo y las técnicas que se utilizan, no dejes de visitar nuestro Máster en Pericia Caligráfica y Documentoscopia.

Negociando cara a cara vs online: los rasgos de la Triada Oscura marcan la diferencia. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos un artículo muy interesante titulado “The dark side of negotiation: examining the outcomes of face-to-face and computer-mediated negotiations among dark personalities” de Crossley L., Woodworth M., Black P.J. y Hare R. (2015), que combina el contexto de negociación (online vs cara a cara) con los rasgos de los tres tipos de personalidad que componen la Triada Oscura: psicopatía, maquiavelismo y narcicismo. ¿Tener o no estos rasgos marca alguna diferencia a la hora de negociar? Sigue leyendo para averiguarlo.

La Triada Oscura es un concepto que hace referencia a rasgos de personalidad que se dan en las personalidades psicopáticas, maquiavélicas y narcisistas. Se consideran en conjunto, formando este constructo de Triada Oscura, porque comparten una serie de rasgos considerados negativos, que se reflejan en las interacciones con los demás y con el mundo en general.  Lo que más se ha asociado a la Triada Oscura es un comportamiento de explotación, manipulación e insensibilidad hacia los demás en una gran variedad de situaciones cara-a-cara (p. ej. en el trabajo).

Aunque la Triada Oscura se puede considerar como un constructo único, se debe tener en cuenta que cada tipo de personalidad conlleva también atributos únicos y una sola persona puede encajar en un tipo o en varios, dándose combinaciones diferentes en cada sujeto. Por separado, cada tipo de personalidad se asocia de manera más recurrente a ciertos comportamientos: la psicopatía se asocia más a un estilo de vida anti-social, el maquiavelismo a la manipulación y a ser orientado a metas, y el narcicismo a comportamientos de grandiosidad y auto-adoración.

¿Qué tienen que ver personalidad y negociación? Existe una gran cantidad de investigaciones que llegan a la conclusión de que los rasgos de personalidad son uno de los mayores predictores del rendimiento en una negociación, aunque suele ser clave si en la negociación se necesita competir o cooperar. Hay rasgos que suponen una ventaja para lo primero y no para la segundo y al revés; por ejemplo, ser más simpático o agradable da mejores resultados en una negociación en la que se necesita cooperar y serlo menos da mejores resultados cuando se necesita competir, por lo que, por lo menos las personalidades psicopáticas, lo harían mejor en una negociación competitiva. Y sería así porque se les asocian una actitud más hostil y menos agradable.

La negociación es un contexto casi-perfecto para observar habilidades de persuasión y manipulación y se espera que los sujetos con personalidades de la Triada Oscura lo hagan muy bien y mejor que los sujetos que no presentan estos rasgos. Pero, ¿por qué deberían hacerlo tan bien? Pues, aparte de que se les asocian comportamientos de manipulación que podrían darles ventaja en una negociación, no hay que olvidar que la negociación es principalmente un proceso comunicativo.  Se ha observado que los sujetos con personalidades de la Triada Oscura tienen sus “trucos” para manipular a través de la comunicación. Estos “trucos” se basan principalmente en el lenguaje no verbal: el contacto visual, el tono de voz que utilizan, copiar las expresiones faciales del receptor, dándoles más credibilidad, etc. El uso de claves no verbales sí son útiles en negociaciones cara a cara, pero no se espera que ocurra lo mismo en negociaciones mediante ordenador (por escrito), contexto que claramente difiere en la cantidad y diversidad de información que se puede recibir desde la otra persona.

En la comunicación a través del ordenador el lenguaje no verbal desaparece, la expresión escrita es más controlada, no se puede observar la consecuencia inmediata de aquello que se dice o de los gestos, etc. En definitiva, conversar y negociar por internet ocurre en un contexto en el que faltan muchas claves contextuales y socio-emocionales que sí median en la comunicación cara a cara. Por lo tanto, este estudio plantea que los sujetos con personalidades de la Triada Oscura van a negociar mejor cara a cara que los que no presentan rasgos de este tipo, pero no pasará lo mismo en las negociaciones en línea, por la falta de esas claves socio-emocionales que mencionábamos.

Partiendo de estas ideas, el estudio se desarrolla de la siguiente manera: participan 206 universitarios/as con una media de edad de 20 años, a los cuales se les evalúan rasgos de personalidad típicos de la Triada Oscura con tres cuestionarios pertinentes, cada uno para cada tipo de personalidad (psicopática, maquiavélica y narcisista). Se obtienen cuatro tipos de puntuaciones altas y baja: las primeras tres son de cada tipo de personalidad y una puntuación total en la Triada Oscura. La negociación en este estudio es una situación en la que los sujetos deben negociar la compraventa de unas entradas al concierto, durante un máximo de 20 minutos y, después de asignar aleatoriamente el contexto de negociación (cara a cara vs chat) y el rol (vendedor o comprador), reciben un documento en el cual se concreta: qué se negocia (precio de la entrada, productos de merchadising, asiento y acceso al backstage), posibles precios de compra-venta (según el rol) y la cantidad de dinero que van a ganar como beneficio de la negociación. Así, en el rol de comprador, a menor precio que consigue los productos, más beneficio y, del mismo modo, en el rol del vendedor, a mayor precio que consigue por los productos, más beneficio; en este proceso podían conseguir un total de 9$ y este beneficio es la variable que se espera que difiera entre grupos.

Los autores encuentran dos resultados principales. Considerando la Triada Oscura como único constructo, lo que encuentran es que el grupo con altas puntuaciones en la Triada Oscura es el que peores resultados ha obtenido de todos los grupos en la negociación por ordenador, es decir, el que menos beneficio ha obtenido. Además, y tal como se esperaba, este mismo grupo ha obtenido mejores resultados en la negociación cara a cara que el grupo con puntuaciones bajas en la Triada Oscura.

Considerando las personalidades psicopática, maquiavélica y narcisista por separado, se obtienen nuevos datos sobre las dos primeras en cuanto al éxito en las negociaciones cara a cara: los sujetos con puntuaciones altas en ambas ganaron mucho más dinero que los sujetos con puntuaciones altas en psicopatía, pero bajas en maquiavelismo, independientemente de la vía de comunicación de la negociación; hasta cierto punto, esto puede indicar que hay algunos atributos clave que son la llave del éxito en la negociación. También se observó que los sujetos con altas puntuaciones en maquiavelismo han obtenido mayores beneficios en la negociación cara a cara que por ordenador. Como este grupo destaca, siendo el maquiavelismo el único que indica una relación recurrente con el éxito en negociaciones cara a cara, los autores consideran que puede ser por rasgos como orientación a metas y comportamientos típicos de “los fines justifican los medios”.

Cabe destacar que el narcicismo no ha mostrado relaciones con el éxito en la negociación cara a cara y se puede deber a que los comportamientos principales asociados al narcicismo son la insensibilidad hacia los demás y la búsqueda de atención. En la base de estos comportamientos se encuentran otras motivaciones con poco impacto en las negociaciones.

Concluyendo, las diferencias individuales parecen interaccionar con el contexto de comunicación, influyendo en los resultados de una negociación y, por tanto, esta variable debería ser tenida en cuenta cuando se negocia con diferentes personalidades, porque hay ventajas diferenciales según el tipo de comunicación que se utiliza. También cabe destacar que, si se hiciera el mismo estudio, pero con una negociación vía videochat, los resultados podrían ser bien diferentes por la inclusión de algunas claves contextuales que desaparecen en los mensajes escritos.

 

Si quieres conocer más sobre la personalidad y cómo esta puede afectar a la conducta y a la negociación no dejes de visitar nuestro Máster en Perfilación de Personalidad y Negociación.

¿Se puede discriminar la nacionalidad del violador por su comportamiento? Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Can the offence behaviors of stranger rapists discriminate between UK and non- UK nationals?” de Almond, McMaus y Curtis; en él nos hablan de la posibilidad de discriminar entre violadores nacionales de Reino Unido y no nacionales fijándose en el comportamiento ofensivo que tienen durante el crimen.

Los delitos sexuales han aumentado un 41% en Reino Unido, siendo el 16% de las agresiones sexuales cometidas por desconocidos en el año 2013/2014. Este tipo delictivo es difícil de resolver y por ello la investigación se está centrando en generar inferencias entre los comportamientos en la escena del crimen y las características del agresor.

En Reino Unido el 14% de la población carcelaria es extranjera. El 34% de los delitos cometidos por estos presos son delitos violentos (22%) o delitos sexuales (12%). A estos datos se une la creciente preocupación de los ciudadanos por la inmigración y el delito. La investigación se ha centrado en la población carcelaria no británica sugiriendo la evidencia que, aunque el tamaño de esta población está aumentando hay pocas pruebas que apoyen que los delincuentes extranjeros sean más violentos que los nacionales. Los delincuentes extranjeros aportan a sus delitos una amplia gama de diversidad cultural, lingüística y religiosa y esto puede que haga que tengan diferentes comportamientos en la escena del crimen. El por qué de estas posibles diferencias puede deberse a la falta de comprensión del sistema legal del país, variaciones en la forma de investigar los crímenes o en lo que se considera un delito, barreras lingüísticas entre víctima y victimario y las propias diferencias de personalidad, ya que estudios anteriores mostraran variaciones en el neuroticismo y el narcisismo entre las diferentes nacionalidades (McCrae y Terracciano, 2005).

Este estudio pretende ver si los comportamientos en la escena sirven para discriminar entre autores nacionales y extranjeros, este hecho serviría para diferenciar más rápidamente sospechosos y centrar los esfuerzos de la investigación policial en el camino adecuado.

Los datos se obtuvieron de la base de datos SCASUK, utilizando 651 casos de violación por parte de un hombre desconocido contra una mujer mayor de 16 años. Todos los casos ocurrieron posteriormente al 1 de enero de 2000. Teniendo todos una sola víctima y solo agresor. Estos datos se dividieron en dos muestras. La primera formada por 217 delincuentes no británicos, siendo de 65 nacionalidades diferentes, la más comunes fueron la nigeriana (7,4%) y la polaca (6,5%), con una edad media de 28 años. La segunda muestra consistía en 434 delincuentes británicos, con una edad media de 27 años. En cuanto a las víctimas, las de la primera muestra tenían una edad media de 27 años y las de la segunda de 30 años.

Se analizaron de manera dicotómica (1 presente y 0 ausente) 70 variables de comportamiento relacionados con la participación interpersonal (autodivulgación, relación prolongada, referencias al disfrute de la víctima) y el tipo de violencia (mínima, moderada, severa).  Primero se analizó si había alguna asociación significativa entre las variables de comportamiento del delito y la nacionalidad del delincuente. Posteriormente se analizaba cualquier comportamiento llevado a cabo en el delito para comprobar que esa variable era óptima para la predicción de la nacionalidad.

De los 651 casos, 323 utilizaron la confianza como un método de aproximación, es decir, iniciaban una conversación o les hacían preguntas antes del ataque. Había una asociación significativa entre el método de aproximación y la nacionalidad, siendo 1’5 veces más probable que al usar la confianza la nacionalidad fuera extranjera (56,2%) que nacional (46,3%).

El 84’2% de los casos de violación cometida por un desconocido ocurrieron durante la noche. En este caso también fue más común que el autor fuera extranjero (89’4%) que en nacional (81’6%).

En la mitad de la tipología delictiva el agresor besaba a la víctima, siendo 1’42 veces más probable que si ocurría el delincuente sea extranjero (56’2%) frente a nacional (47’5%). Lo mismo ocurre en relación con el forzar a la víctima a practicar actos sexuales, sucede en la mitad de estos delitos, pero en esta ocasión es más probable que el agresor sea nacional (54’4%) si esto ocurre que extranjero (40’6%). Lo mismo sucede con la solicitud de actos sexuales, es más probable que ocurra con un violador nacional (45’6%), que con uno extranjero (37’7%).

En esta clase de delitos sólo un porcentaje muy bajo de los agresores piden disculpas (14%), siendo más posible que el agresor sea nacional (16’1%) que extranjero (9’7%). Sólo un 8% de los agresores destruyen pruebas forenses, siendo una conducta más común en agresores británicos (9’7%) que extranjeros (4’6%).

En el 14% de los casos de violación el agresor bloquea la entrada o salida para evitar que la víctima escape. Esta conducta es más común entre los violadores extranjeros (18’4%) que entre los nacionales (11’8%). En cuando a la presencia de armas de fuego solo se da en un 2’8% de los casos de violación, siendo 5’47 veces más probable que el agresor sea extranjero cuando está presente (6%) que si es nacional (1’2%).

En relación a la violencia presentada, en el 21’2% de los casos se considera mínima, en el 16’9% moderada y en el 4’6% severa. Se da la violencia mínima en aproximadamente un cuarto de las violaciones cometidas por extranjeros (26’3%), frente a un 18’7% de los casos cometidos por nacionales. Por último, en casi un tercio de las violaciones existe penetración vaginal usando las manos, los puños o los dedos. Se comprobó que su empleo era más probable en crímenes cometidos por nacionales (35’9%) que por extranjeros (25’3%).

En resumen, de las 70 variables se descubrió que once comportamientos discriminaban. Cuatro no superaron la regresión logística: la aproximación por confianza, la solicitud de actos sexuales, las disculpas y la destrucción de pruebas. Otros siete comportamientos tenían valor predictivo, cinco serían para el grupo de extranjeros: la nocturnidad, el besar a la víctima, el bloquear la entrada o salida, la violencia mínima y la posesión de un arma de fuego. Para los nacionales fueron predictivos la realización de actos sexuales y la penetración vaginal con la mano, puño o dedos.

 

La utilidad de los datos de delitos pasados como variable de atractivo para ladrones residenciales. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The usefulness of past crime dates as an attractiveness index for residential burglars” de Hanayama, Haginoya, Kuraiski y Kobayashi; en el cual utilizan un modelo de elección discreta para comprobar los efectos del atractivo del vecindario en el proceso de selección de ubicación del crimen.

De sobra conocida es la importancia de entender cómo los delincuentes eligen sus objetivos y la ubicación de los mismo de cara a la investigación y a la prevención del crimen. Varias teorías se han encargado del tema: la teoría de la elección racional, la teoría de las actividades cotidianas y la teoría del patrón del crimen. También, hay estudios que sugieren que los datos de los delitos anteriores pueden servir para predecir la ubicación de crímenes futuros.

El atractivo de un vecindario como predictor de la actividad criminal se puede estimar a partir de los datos de delitos pasados, utilizando siempre el mismo tipo de delito, ya que esta característica puede variar de una tipología a otra. El modelo de elección discreta intenta explicar el resultado del comportamiento cuando un tomador de decisiones individuales debe elegir una alternativa única de un conjunto de alternativas distintas finitas.

Los principales aspectos que analiza el modelo de elección discreta en los robos residenciales son:

  • Lugar de residencia de ladrón: a mayor distancia en la residencia del ladrón menor posibilidad de robo. Esto se conoce como patrón de decaimiento en la distancia.
  • Número de unidades residenciales: un área con muchas unidades residenciales tiene más posibilidades de ser atractiva para el delincuente.
  • Viviendas unifamiliares: la presencia de un mayor número de viviendas unifamiliares hace más atractiva la zona ya que este tipo de construcción suele ser más accesible para el ladrón.
  • Heterogeneidad étnica y movilidad residencial: estos factores propician la ausencia de guardines capaces haciendo más atractiva la zona.
  • Valor inmobiliario de la residencia: algunos estudios han demostrado una correlación significativa entre el valor inmobiliario de la residencia y la posibilidad de ser elegido como objetivo criminal.
  • Distancia al centro de la ciudad: las áreas cercanas al centro corren más riesgo de robo ya que son más conocidas por todos, incluyendo los ladrones.

El objetivo del presente estudio es sumar los datos de delitos pasados para ver si pueden ayudar a determinar el índice de atractivo de una zona para esta actividad criminal. Se utilizó los robos resueltos cometidos en la ciudad en la ciudad de Sendai, localizada al norte de Tokio, entre los años 2007 y 2015 por un ladrón en solitario. En total se usaron 369 casos llevados a cabo por 70 ladrones. La proporción de robos cometidos en viviendas unifamiliares es de 42%. En cuanto a los aspectos antes mencionados se obtienen los datos del censo de Japón.

Los resultados apoyaron que la distancia de la residencia del agresor disminuye las posibilidades de selección como objetivo. Cuando la distancia aumenta un kilómetro solo se tiene un 0,70 de posibilidades de robo. El número de unidades residenciales tiene un efecto positivo en la posibilidad de que el ladrón elija esa zona. Cuando aumenta su número en 100 las posibilidades de ser el objetivo son de 1,05. Lo mismo ocurre con el tanto por ciento de viviendas unifamiliares, a un tanto por ciento más alto más posibilidades. Cuando aumenta un 10% aumenta en 1,06 veces la posibilidad de robo. Por el contrario, la proporción de extranjeros y la movilidad residencial se muestran indiferentes. También se ha descubierto que cuanto más robo ha habido en una zona mayores son las posibilidades de que vuelve a ocurrir. Cuando se aumenta en uno los robos ocurridos, aumenta la probabilidad en 1,16 veces.

La proximidad de la residencia del agresor fue la variable que más impacto tuvo en el proceso de selección de objetivos por parte de los ladrones de residencia. Después, la siguiente variable a la hora de elegir fue el número de residencias en la zona, seguido de la proporción de viviendas unifamiliares y para acabar el número de robos anteriores en la zona.

Estos resultados muestran que el número de casos de delitos pasados es una variable útil para determinar la atracción de un vecindario para los ladrones. También se puede decir que la precisión del perfil geográfico se incrementa si se incluye la tasa de robos residenciales en el pasado, además, de los otros índices de atractivo.

Los resultados del presente estudio están en línea con estudios anteriores y se puede afirmar que el patrón de decaimiento en la distancia es una guía sólida para los procesos de elección de la ubicación criminal. Esto es debido a que el delincuente reduce los costes del viaje y conoce mejor el área. Pero, hay que tener cuidado porque no sólo su residencia puede ser el punto de partida, se debe considerar también otros puntos de anclaje como sus residencias anteriores. Los resultados positivos en cuanto al mayor número de residencias pueden deberse a que de esa manera tienen más objetivos entre los que escoger y el tanto por ciento de viviendas unifamiliares debe de ser por las facilidades de accesibilidad que presentan. En cuanto a la tasa de extranjeros, quizás la no relevancia de esta variable se debe a la homogeneidad que presenta la población de Japón.

Aunque los resultados muestran la importancia de los robos pasados, el estudio tiene limitaciones. No se tuvo en cuenta otros posibles factores de elección como la infraestructura de las zonas, especialmente las carreteras. Además, hay que tener en consideración que ese realiza en la ciudad de Sendai en Japón y puede que las conclusiones no sean extrapolables a otros lugares ya que se ha sugerido en otros estudios que los factores que influyen en el crimen difieren según el país y la ciudad.

¿Usar la línea base para diagnosticar estados internos? Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Using baseline to diagnose internal state? Listen closely” de Leins; en él nos hablan de cómo se estable la línea base por parte de los entrevistadores en relación al comportamiento de los entrevistados.

El uso de la línea base puede ser un proceso válido para identificar los estados internos de los entrevistados si estos estados se corresponden de manera confiable con la conducta perceptible y los entrevistadores la perciben de manera fiable.

Este estudio tuvo dos fases, en la primera de ellas se desarrollan vídeos de estímulo para una observación posterior. Se entrevistaron a hombres adultos utilizando un estudio de protocolo. Los vídeos fueron desarrollados para provocar cambios en los estados internos. La segunda fase consistía en que los entrevistadores visionaran los videos e informaran sobre sus percepciones e interpretaran el comportamiento de los sujetos.

Como se ha dicho en la primera fase se pretendía grabar los vídeos que servirían para la segunda parte del experimento. Para ello se quería manipular los estados internos de las personas que estaban siendo entrevistadas y grabar los cambios de comportamiento que se produjeran y posteriormente solicitar que identificaran e interpretaran esos cambios de comportamiento. Para producir los cambios en el estado interno se creó un protocolo de entrevista que incluía temas que pueden provocar diferentes cogniciones y emociones. Para ello se realizó una encuesta en la que se preguntaba sobre como se sentiría contestando a preguntas relacionadas con su historial laboral, el estado de su relación, sus antecedentes penales, su educación, su afiliación política, su historial médico, su estado financiero, su consumo de drogas o alcohol o su opinión sobre temas políticos o sociales. Se comprobó que las preguntas sobre el estado financiero, sus antecedentes penales o sobre su consumo de drogas o alcohol presentaban mayor reticencia para responder que aquellas sobre su empleo, su educación o su opinión política. Gracias a esta clasificación se creó un protocolo de entrevista que incluía preguntas sobre temas generales e inocuos y otras sobre temas íntimo y más comprometidos.

Se reclutó a siete hombres de diferentes comunidades y culturas con edades entre los 20 y los 35 años del área metropolitana de Washington. Se les dijo que participarían en un experimento para mejorar las técnicas de entrevista.

Los entrevistados rellenaban primero un cuestionario previo a la entrevista. Después comenzaba la entrevista llevada a cabo por un agente especial retirado que tenía experiencia en entrevistas para autorizaciones del gobierno. Se empezaba con temas generales no amenazadores como la educación y su historial laboral. Para, a continuación, pasar a temas que fueran más amenazadores y produjeran cambios internos, como su historial médico, su salud mental o el uso de drogas o alcohol. La entrevista dura entre 45 – 60 minutos y fueron grabadas desde una vista frontal y otra de perfil. Al concluir la entrevista se revisaba el vídeo con cada entrevistado para que informara sobre sus sentimientos y emociones en cada momento.

Al final, para la siguiente fase, se utilizaron cuatro vídeos de 25 minutos de duración, de los cuales los ocho primeros minutos eran sobre temas inocuos, para a continuación pasar a los más incómodos. El promedio fue de once cambios del estado emocional y siete del estado cognitivo según los entrevistados.

En la segunda fase los vídeos fueron visionados por 18 entrevistadores profesionales con una edad media de 44 años siendo el 94% hombres y el 75% caucásicos, con trabajos en el ejército o en las fuerzas de seguridad federales. Todos ellos habían recibido capacitaciones sobre entrevista, habían realizado más de 50 a lo largo de su trayectoria profesional y contaban con más de cinco años de experiencia. Se les presentaban los vídeos grabados en un ordenador y se decidió aplicar la técnica de pensamiento en voz alta, grabándose todo lo que iban diciendo mientras visionaban las entrevistas. Posteriormente rellenaban un cuestionario sobre datos demográficos y la postvista. Se les dijo que debían ver los vídeos e informar de todo lo que percibieran que les ayudara a establecer y evaluar la línea base. Al final del vídeo debían calificar de fácil o difícil el establecer la línea base de cada entrevistado en una escala de Likert de cinco puntos. Cada entrevistador visionó dos vídeos. Las sesiones tenían una duración media de entre 75 y 90 minutos.

Se transcribió todo lo que dijeron sobre lo que habían usado para descubrir los estados internos y cuales habían sido estos. Las señales fueron codificadas en verbales, no verbales y otras. Después se calculó la tasa de aciertos y errores para cada vídeo. Las categorías de diagnóstico interno incluyen: emoción, cognición, veracidad y estrategia.

En todos los vídeos los participantes informaron de un total de 528 señales, las de tipo no verbal fueron las más identificadas. En general, los casos de señales reportados coincidían con el 27% de los estados internos destacados que identificaron los entrevistados. Se encontraron más aciertos durante el periodo de preguntas más incómodas que durante el de temas generales. Las señales verbales se revelaron como el tipo que más aciertos producía para descubrir el estado interno.

En cuanto a los estados internos encontrados que coincidían con la realidad, el 45% eran emocionales, el 33% eran cognitivos, el 14% eran relacionados con la veracidad y el 31% con los de estrategias.

Los entrevistadores informaron de varias pautas para establecer la línea base. Era de esperar que el tipo de señal más usada sea el comportamiento no verbal ya que es muy habitual que en los programas formativos para la realización de entrevista se hable de la importancia de fijarse en movimientos corporales, gestos, contacto visual, expresiones faciales, etc. A pesar de ello en este estudio se encontró que casi el 70% de las señales verbales identificadas como informativas parecían serlo realmente. Por tanto, también se encontró que los entrevistadores podían estar mejor preparados para prestar atención a lo que les dice los entrevistados de lo que se esperaba. La tasa de aciertos para los estados internos fue baja, un 27%, lo que sugiere que el uso de estados internos para establecer la línea base puede llevar a error, lo que implicaría no sólo perder oportunidades para establecer un buen rapport con el entrevistado sino también el que las entrevistas sean ineficaces.

La aplicación de procesos de referencia para diagnosticar los estados emocionales fue fructífera. Muchos diagnósticos eran relevantes y coincidían con los estados informados. La mayoría versaba sobre la comodidad frente a los temas a tratar. Muchos hicieron diagnósticos resaltando que la incomodidad no la veían como resultado de la culpa o de un sentimiento negativo sino de que hay temas que pueden ser difíciles de tratar según la cultura del sujeto. El uso de líneas base puede ser una adición práctica a los métodos para determinar cuándo profundizar en un tema y cuándo dejarlo.

Es cierto que en este estudio los estados cognitivos fueron menos detectados que los emocionales y habría que investigar en un futuro por esta línea ya que el estado cognitivo puede ayudar a la detección de mentiras.

Enfoque de dominios para predecir resultados en casos de homicidios. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Shifting the focus variables to substantive domains when modeling homicide case outcomes” de Hawk y Dabney; en él nos hablan de la utilización de los dominios en la predicción de los resultados de la investigación de homicidios.

En el año 2016 en EE.UU. la tasa de resolución de homicidios era muy baja, un 59%, marcando un mínimo histórico. Se estima que 7.000 asesinatos se quedan sin resolver cada año. Lo que limita la perspectiva de mejora del índice de resolución de casos es la falta de comprensión de los factores que predicen si un caso se resolverá o no. Este estudio propone un modelo conceptual holístico y práctico para averiguarlo.

Se han detectado varios problemas, el acceso a los datos produce importantes problemas para la medición de procedimientos de investigación policial. Esto a su vez produce que al no trabajar con datos fiables las teorías que se realizan sobre la resolución de homicidios pueden no ser precisas. Otro problema es que los diferentes tipos de investigaciones sobre este tema no son extrapolables de un lugar a otro por diversas circunstancias. Todo ello genera que los resultados de las investigaciones científicas llevadas a cabo sobre la investigación de homicidios den unos resultados incongruentes e incluso contradictorios entre ellos.

Para ampliar y mejorar la investigación este estudio sistematiza las medidas de cinco dominios de investigación y analiza la importancia de cada posible modelo conceptual de agrupación para la posterior resolución. Estos cinco dominios son: sujetos involucrados, circunstancias del incidente, dinámica del caso, características ecológicas y factores del investigador.

Las medidas de los sujetos involucrados hacen referencia a las diferencias personales en víctima y autor y la forma en que su manifestación en el episodio violento puede generar pistas. Las circunstancias del incidente incluyen combinaciones en condiciones relacionales, temporales y físicas que pueden hacer cambiar la forma en que las personas interactúan, como puede ser la relación existente entre víctima y autor, el motivo, el tipo de arma o el día y la hora en la que se produce el crimen. La dinámica del caso hace referencia a los factores que la policía encuentra una vez se dan cuenta del asesinato, como pueden ser los tipos de evidencia que descubren, la ubicación de la escena del crimen o la presencia de policía en esa zona. Las características ecológicas, dentro de este dominio se incluye la cultura, la demografía de los residentes, la eficacia colectiva, las percepciones de la policía y la tasa de delincuencia. Dentro de las variables del investigador se considera la carga de trabajo, el esfuerzo, la experiencia y la técnica que usa.

Para comprobar esto se realizó un estudio en un área metropolitana de EE.UU. de casi medio millón de habitantes. En la década anterior (2000 – 2009) experimentó altos niveles de delincuencia, con 100 homicidios por año. En el momento en que se realizó el estudio la unidad del departamento de homicidios era la encargada de investigar todos los asesinatos reportados, las muertes bajo custodia, los secuestros, los tiroteos relacionados con la policía, los casos antiguos sin resolver y las muertes sospechosas. Para ello contaban con entre 15 y 20 investigadores, supervisados por entre cinco y siete sargentos, un teniente, un capitán y un comandante. Se permitió el acceso total a toda la documentación de todos los casos de homicidios acaecidos entre 2009 y 2011.

Los investigadores recopilaron datos de 252 archivos de homicidio en una plantilla estandarizada, posteriormente buscaron en la base de datos incidentes ocurridos en la misma localización del homicidio. También, se añadieron los antecedentes penales de todas las personas mencionadas en el caso. Además, se añadió información del censo. Posteriormente, se entrevistó al investigador principal de cada caso para que aportara detalles adicionales que se hubieran mencionado en los informes.

Se tuvo como variable dependiente la resolución del caso, considerándose como tales todos aquellos que hubiera finalizado con una detención. La tasa de resolución en esos años estaba en un 69%, siendo ligeramente superior a la media nacional de esa época (65- 67%). Como variables independientes se consideraron 16. En lo relacionado al dominio de sujetos involucrados se consideró el género de la víctima y del sospechoso, la edad de la víctima y el historial criminal del sospechoso. En lo relativo a las circunstancias del incidente se analizó la relación existente entre víctima y victimario, el motivo del crimen y la hora de comisión del mismo. En lo relacionado con la dinámica del caso se extrajeron datos de la presencia de testimonios, de armas y de evidencias tecnológicas y biológicas. También se analizó la frecuencia de la policía en el área y si el crimen había sido interior o exterior. En lo referente a las características ecológicas se analizó la población, el tanto por ciento de extranjeros y el de personas con un nivel educativo inferior a la educación secundaria. Por último, en lo relativo al investigador se recopiló información sobre el número de casos abiertos cada año, el número de casos que tiene asignados, la utilidad de los apoyos y de las revisiones de casos por parte de la unidad.

Los resultados obtenidos muestran que los casos donde la víctima tenía menos de 24 años tenían 3,5 veces más de posibilidades de ser resueltos que cuando la víctima era mayor. Esto puede ser así, porque se les da mayor prioridad a los casos donde la víctima era joven o porque las personas más pequeñas cuentan con la supervisión de los adultos y, por tanto, es más fácil obtener datos. Cuando el sospechoso tiene antecedentes penales hay 1,09 más de posibilidades de resolución. No se encontró una relación entre el sexo de víctima y autor y el índice de resolución de casos. Cuando había una relación entre víctima y autor las posibilidades de resolución aumentan un 6,89. Si el crimen estaba motivado por algún asunto relacionado con el submundo criminal las posibilidades de resolución se reducían un 0,38. Esto es así porque las personas involucradas daban información falsa a la policía o directamente no cooperaban con ella. En lo relativo a las evidencias aumentaban la resolución del caso 2,72 veces. De igual manera la mayor presencia de la policía en la zona hacía que las posibilidades creciesen 2,4. La localización interior del crimen aumenta en un 2,51. Cada vez que se aumentaba en una unidad la población se reducía por 0,99 las posibilidades de resolución, esto es así porque al haber más gente el delincuente se vuelve más anónimo y, por tanto, se dificulta su identificación. Sorprendentemente aumentaban en un 1,11 cuando había mayor presencia de extranjeros, se piensa que es así porque colaboraran más con la policía por el miedo a la deportación o alguna otra falta administrativa. Sin embargo, no se observó relación con el nivel educativo. Por cada caso abierto que tiene el investigador se reduce en 2,5 las posibilidades de resolución. Por el contrario, las revisiones del caso aumentan en un 1,80.

Se puede concluir que los casos que tendrían más posibilidades de resolverse serían aquellos que hubieran pasado en un escenario interior, donde la víctima es menor de 24 años, tiene relación personal con el autor. El victimario tenía antecedentes penales, pero no guardaba relación directa con el submundo criminal. Ocurría en una población pequeña con gran presencia policial y alto número de inmigrantes. La escena del crimen presentaba un gran número de evidencias. El investigador principal tenía pocos o ningún otro caso abierto y en su equipo se hacían revisiones periódicas del caso.

 

Efectos de la inclusión y exclusión social en la obtención de información. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Eliciting human Intelligence: the effects of social exclusión and inclusión on information diclosure” de Ask, Ejelöv y Anders; en él se estudia los efectos de las experiencias sociales, concretamente la inclusión o exclusión social, sobre la facilidad de obtención de informaciones en entornos semicooperativos que pueden darse en un contexto de investigación policial o de inteligencia.

La hipótesis que se plantearon en esta investigación es que la exclusión social supondría una amenaza para la necesidad de pertenencia y la autoestima de los individuos lo que les haría intentar reconectar socialmente y eso llevaría a compartir más información crítica.

Para comprobar la hipótesis hicieron dos experimentos. El primer experimento consistió en un dilema de administración de información, en el que debían conseguir llegar a un punto de equilibrio entre la información crítica que divulgaban, que beneficiaba al resto, y la información crítica que retenían, que les beneficiaba a ellos. Previamente habían jugado a un videojuego en el que podían estar incluidos o excluidos socialmente por sus compañeros. Los miembros del grupo control simplemente observaban pasivamente el juego. Se predijo que los participantes que fueran excluidos compartirían más información que aquellos incluidos y que el efecto de la exclusión se podría medir por el nivel de amenaza de pertenencia y por la autoestima que experimentaban los participantes.

Para comprobar las hipótesis se utilizó una muestra de 150 participantes, con una edad media de 28 años. Un 71,3% eran mujeres y un 28,7% hombres. Fueron reclutados a través del departamento de psicología de la universidad de Gotemburgo y se les dijo que el estudio era sobre la toma de decisiones en grupo. Se les asignó al azar a una de las tres condiciones de investigación.

Los participantes llegaban en grupos de entre tres y seis miembros, cada uno se sentaba en un ordenador individual y leían las instrucciones. Para el dilema de la información se les decía que eran un paparazzi que trabajaba en un equipo con más miembros (el resto de participantes). Su equipo competía con otro equipo por ganar un premio de 20€, pero solamente el mejor fotógrafo de manera individual lo ganaría. Cada fotógrafo debía fotografiar a nueve famosos determinados, pero desconocían donde se encontraban. Por el contrario, conocían la ubicación de los famosos de uno de sus compañeros. Compartir dicha información podía hacer ganar a su equipo, pero sólo uno de ellos ganaría el premio. Antes de pasar a la realización del intercambio de información se les pedio que jugaran a Cyberball, un juego donde tres jugadores se pasan el balón entre ellos. Los participantes creían estar jugando en línea con otros participantes. A las personas que se les asignó la inclusión social les pasaba el balón el mismo número de veces, a los de la exclusión social solo se les pasaba dos veces al principio y luego los otros dos jugadores se la pasaban entre ellos exclusivamente. El grupo control vio una grabación. Después de ello se les pedio a los participantes que dijeran cuantas coordenadas revelarían a sus compañeros y que contestaran a unas preguntas con escalas de Likert. Tuvieron que calificar el grado de pertenencia que experimentaron, la autoestima, la existencia significativa y el control que sintieron durante el juego. También tuvieron que informar sobre diferentes estados positivos y negativos que experimentaron y sobre el grado de exclusión o inclusión que sintieron y la frecuencia con la que recibieron el balón.

Los resultados revelaron que los participantes excluidos socialmente se sentían significativamente más excluidos e ignorados que el resto de participantes. También, pensaron que habían recibido el balón un número menor de veces que el resto. Los participantes excluidos informaron que sintieron menos pertenencia, control, existencia significativa y autoestima que los incluidos o el grupo control. Entre estos dos grupos no hubo diferencias significativas. En cuanto a los estados de ánimo el grupo excluido presentó más estados negativos que el resto de grupos. En relación a la revelación de información no se mostró diferencias significativas entre los grupos, por tanto, la hipótesis planteada no pudo demostrarse. Si bien es cierto que los excluidos revelaron un poco más de información que los incluidos, los niveles fueron los mismos que los del grupo control. Tampoco pudo ser probada la hipótesis referente a los niveles de pertenencia y autoestima. Se cree que el resultado negativo del experimento pudo deberse a que la revelación de la información se hacía a un miembro anónimo, lo que no producía una reconexión con el grupo social. También se piensa que la condición de control generaba el mismo rechazo que la de exclusión y por tanto los resultados no diferían.

En el segundo experimento se intentó paliar las deficiencias presentadas en el primero. Por ello se optó por una entrevista de inteligencia, que llevaba aparejada una interacción más directa. Además, se incluyó una medida de sensibilidad al rechazo como un moderador potencial de los efectos de la exclusión social. Se pidió a los participantes que imaginasen ser informadores de la policía con antecedentes delictivos y con conocimientos críticos sobre un inminente ataque terrorista. Para ello se les dio previamente información sobre un ataque ficticio y sobre el grupo que lo iba a llevar a cabo. Se les pidió que durante la entrevista evitaran revelar muy poca información pero que tampoco revelaron demasiada, ya que por un lado necesitaba ser útil para la policía para que le permitirán quedar en libertad, pero por otro, a parte de su simpatía por el grupo terrorista podía ser identificado como la fuente de información. Previamente a la entrevista participaron en un experimento sobre la toma de decisiones grupales que no estaba relacionado donde fueron invitados a unirse a una discusión con otras dos personas o fueron ignorados. El grupo control no participó en esa fase. Las hipótesis que se plantearon fueron que, primeramente, los participantes excluidos socialmente revelarían más información que el resto. También se planteó que el efecto de la exclusión sería mayor para las personas con una sensibilidad de rechazo alta. Por último, el efecto de la exclusión sería mayor en aquellos que experimentaron una amenaza a la pertenencia y a la autoestima. Se manejó una muestra de 135 participantes con una edad media de 29 años, siendo un 65,2% mujeres y un 34,8% hombres.

Después de la entrevista los participantes tuvieron que contestar una prueba de memoria sobre el supuesto ataque que contaba con 17 preguntas. A continuación, contestaron el cuestionario de sensibilidad al rechazo de Downey y Feldman. Para acabar, respondieron a las escalas de satisfacción de necesidades empleadas en el primer experimento.

Los resultados mostraron que los participantes excluidos experimentaron menos pertenencia, autoestima, existencia significativa y control en comparación con los otros dos grupos. Los grupos de control y de inclusión no difirieron en nada salvo en pertenencia que era mayor en el segundo. También, los participantes excluidos mostraron estados de ánimo más negativos que positivos. Los excluidos no difirieron en el número de informaciones reveladas en relación a los otros dos grupos, por tanto, la hipótesis planteada no fue demostrada. Tampoco la sensibilidad al rechazo interactuó significativamente, siendo incompatible este resultado con la segunda hipótesis. El nivel de sensibilidad al rechazo tampoco se pudo relacionar significativamente con la divulgación de información. Por último, tampoco fueron significativos los efectos de la pertenencia o la autoestima en relación a la exclusión social y al intercambio de información, dejando de esta manera sin apoyo a la tercera hipótesis. Se obtuvieron resultados sorprendentes que revelaron que la inclusión social hacía que el número de informaciones reveladas fuera ligeramente mayor.

En conclusión, se puede decir que las experiencias sociales previas de las fuentes pueden realmente influir en el resultado de las entrevistas, aunque, en la actualidad se desconocen los mecanismos que puedan estar detrás de ello.

Estimación de la edad de muerte por el esqueleto: método bayesiano versus regresión. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Skeletal age -at-death estimation: Bayesian versus regressions methods” de Nikita y Nikitas; en él hacen una comparativa sobre los dos métodos para determinar la edad en el momento de la muerte, la aproximación bayesiana o el método de regresión.

Establecer la edad de fallecimiento basado en el esqueleto es importante, tanto en antropología forense como en la bioarqueología. En el primero de estos campos ayuda a establecer el perfil biológico del individuo y su identificación. En la bioarqueología nos da información del pasado biológico y contribuye al estudio de la patología, la actividad y otros marcadores del esqueleto de la vida del individuo.

Se han propuesto varios métodos para estimar la edad en restos de adultos. Casi todos los métodos utilizan una muestra que debe ser representativa de la población de referencia. Después se establecen relaciones entre la edad cronológica y los marcadores de edad a través de los métodos de regresión o el enfoque bayesiano. Estas relaciones son las que se utilizan para establecer la edad de muerte en la muestra objetivo. Este procedimiento y en concreto el uso de método de regresión ha sido criticado, ya que la edad está sesgada por el perfil demográfico de la muestra utilizada, técnicamente el método bayesiano se desarrolló para minimizar ese problema.

En este estudio se han utilizado dos técnicas para incorporar el perfil demográfico de la muestra utilizada en el análisis regresivo. La primera de ellas es usar factores de ponderación adecuados tomados del perfil demográfico de la muestra objetivo o de una muestra que tenga un perfil similar. La segunda es crear, basándose en la muestra original, una nueva muestra hipotética con un perfil demográfico similar al de la muestra objetivo.

El método bayesiano para la estimación de la edad de fallecimiento fue desarrollado por Konigsberg et al. Calculó la probabilidad condicional Pr(aǀc) de que los restos óseos provinieran de individuos que murieron en la edad = a dado que se observa el marcador de edad c a través del teorema de Bayes:

Donde Pr(aǀc) es la probabilidad de observar el marcador de la edad r en un individuo que ha muerto en la edad a. f(a) es la distribución de la edad de fallecimiento en la población de referencia llamada información previa y shift es la edad mínima en información previa. Esta información era:  la muestra objetivo, la muestra de entrenamiento y la muestra con perfil demográfico uniforme.

La f(a) de la información previa se estima con la ecuación que parte de la estimación del ratio de mortalidad y del de supervivencia aplicando la función del modelo de Gomplertz- Makeham. Las probabilidades condicionales Pr(aǀc) se obtienen utilizando el análisis de transición. Hay que tener en cuenta que la Pr(aǀc) se calcula como función de densidad de probabilidad. La edad de la muerte de un individuo con el marcador de edad c corresponde a la posición del pico de la curva de esta función.

En el presente estudio se utilizó como material datos artificiales, donde los marcadores de edad mostraban una expresión de ocho grados. Se generaron muestras aleatorias de edades comprendidas entre los 18 y los 85 años. El perfil demográfico de las muestras se basa en la distribución por edades de Gilbert, en la de Terry y en las tablas de vida inglesa número 17. Para las muestras de entrenamiento se crearon muestras con edades que siguen la distribución uniforme de Los Balcanes.  A cada edad se le adjuntó un marcador de edad determinado. Las muestras de entrenamiento se generaron con el tamaño de 50,100,200 y 500. Para las muestras objetivo se utilizó el tamaño de menos de 500 para evitar fluctuaciones en las predicciones. Para cada muestra de entrenamiento se generaron siete muestras objetivo. En total se obtuvo 588 sistemas de datos artificiales, aunque solo se utilizaron 532 por problemas computacionales.

Se utilizaron varios criterios para probar el funcionamiento de los modelos de estimación de edad de la muerte:

  1. Coeficiente de correlación de Pearson entre la edad original y la edad estimada.
  2. El error estándar de estimación (SEE):
  3. El porcentaje de casos en los que la edad de muerte original cayó dentro de un cierto intervalo alrededor de la edad promedio de muerte. Los intervalos fueron ±5 ±10 y ±20 años. Los casos que cayeron en el último fueron descontados por su poco poder de discriminación.

De los resultados obtenidos se pueden sacar dos conclusiones generales: la primera es que aparecen problemas de cálculo par los modelos de regresión 2 y 3 y en bayesiano en todas las muestras superiores a 200. Los problemas surgen cuando hay factores de la muestra objetivo que no están presentes en la muestra de entrenamiento sobre todo cuando faltan factores pequeños. Por tanto, la muestra de entrenamiento debe ser lo suficientemente grande e incluir todos los factores posibles de los marcadores de edad.

La segunda conclusión es que si se documenta la edad de muerte de una colección el mejor método para estimarla en los individuos que pertenezcan a la misma es la regresión simple. El método bayesiano reduce el efecto del mimetismo, pero no lo elimina totalmente.

El tipo y el tamaño de la muestra de entrenamiento puede afectar significativamente a los resultados obtenidos. Estos también se ven influenciados por la técnica propuesta, los pesos y la muestra hipotética de entrenamiento. El método bayesiano se desempeña mejor solo cuando el tamaño de la muestra es pequeño (50) y especialmente al usar muestra de entrenamiento arbitrarias. Cuando las muestras de entrenamiento tienen un perfil demográfico el rendimiento de los métodos de regresión aumenta considerablemente y mejora más si la muestra es uniforme. Los métodos de regresión superan al bayesiano en el 90% de los sistemas.

El método bayesiano que usa un perfil demográfico uniforme o el perfil de la muestra de capacitación son una opción inapropiada especialmente el primero de ellos que deberá evitarse por completo.

El rendimiento de los métodos de regresión en relación al bayesiano depende del criterio utilizado. Existen patrones característicos que son independientes del mismo. El uso de una muestra de entrenamiento uniforme da como resultado el rendimiento óptimo entre los métodos de regresión independientemente del tamaño de la muestra y del tipo de método propuesto. Esto puede ser porque un algoritmo de aprendizaje requiere la edad en el momento de la muerte y que los cambios morfológicos y esqueléticos correspondientes estén completamente representados en la muestra de entrenamiento para que la función matemática que lo mapea sea eficiente.

Se concluye que en el enfoque bayesiano si la información previa se utiliza la muestra objetivo o una similar demográficamente se reduce el sesgo de estimación de la edad de muerte, pero no se elimina del todo. En cuanto a los métodos de regresión tanto si se utiliza el enfoque de factores de ponderación tomados del perfil demográfico de la muestra objetivo como si se utilizan una muestra hipotética de entrenamiento con perfil demográfico similar al de la muestra objetivo, reducen y minimizan el sesgo siempre y cuando la muestra de entrenamiento tenga un perfil demográfico uniforme o de tipo gaussiano con representación equilibrada entre individuos jóvenes y mayores. Si se cumple esto, los dos enfoques superan en rendimiento al bayesiano por encima del 90%.

Vincular delitos contra la propiedad a través del comportamiento del delincuente en la escena del crimen. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Linking property crime using offender crime scene behavior: A comparision of methods” de Tokin, Lemeire, Santtila y Winter; en él hacen una comparativa entre la capacidad de siete modelos estadísticos para diferenciar delitos contra la propiedad vinculados de aquellos que no lo están.

El estudio compara siete modelos estadísticos diferentes que se derivan de los tres enfoques más comúnmente utilizados en la investigación conductual: el análisis de regresión logística binaria, el análisis de árbol de clasificación y el modelo probabilístico/bayesiano. Estos enfoques se aplican sobre tres conjuntos de datos: robos residenciales cometidos en Finlandia, robos de automóviles cometido en Reino Unido y robos comerciales cometidos en Finlandia. Este estudio contribuye a determinar cual es el método estadístico más apropiado para vincular los delitos a través del comportamiento del delincuente, siendo novedosa la aplicación estadística a la vinculación del comportamiento criminal.

Para llevarlo a cabo se utilizaron datos de 160 robos residenciales cometidos por 80 ladrones en serie en la región del Gran Helsinki de Finlandia entre 1990 y 2001. Se seleccionaron al azar dos delitos por delincuente del total de crímenes que hubieran cometido en ese periodo. Para cada robo se registraba: ubicación del delito, hora y día de la semana en que se cometió, tipo de propiedad robada, método de entrada, el comportamiento de búsqueda del delincuente una vez dentro y el valor de los objetos robados. Los datos utilizados para el robo de coches fueron los procedentes de 376 delitos de robo de vehículos cometidos por 188 ladrones en serie en Northamptonshire, en Reino Unido entre enero de 2004 y mayo de 2007. Se registró: ubicación del robo, el tipo de automóvil, los años del vehículo y el estado físico en el que se recuperó el coche. En lo referente a los robos comerciales se utilizaron 118 cometidos por 59 ladrones en serie en la región de Gran Helsinki en Finlandia entre 1991 y 2002. Se seleccionaba al azar dos delitos por delincuente. Se registró: ubicación, tipo de negocio, hora y día en que se produjo, el uso de disfraz, el uso de armas, el número de delincuentes, el uso de violencia, el idioma utilizado y el tipo y coste de la propiedad robada.

Después de recoger los datos se crearon una serie de dominio de comportamiento para cada tipo de crimen. Para el robo de residencias: características objetivo, comportamiento de entrada, comportamiento en el interior, propiedad robada, distancia entre delitos y proximidad temporal. Para el robo de vehículos: opciones de selección de objetivos, comportamiento de adquisición del objetivo, comportamiento de eliminación y distancia intercrímen. Para el robo comercial: opciones de selección de objetivos, conductas de planificación, conductas de control, propiedad robada, distancia entre delitos, proximidad temporal, diferencia de el valor de los artículos robados y conducta de aproximación.

A continuación, se crearon pares de delitos vinculados que contenían dos delitos cometidos por el mismo autor y parejas no vinculadas que contenían delitos cometidos por diferentes delincuentes. De los 160 delitos de robo residenciales se crearon 80 parejas vinculadas y 12.640 parejas sin vincular. De los 376 robos de automóviles, se crearon 188 parejas vinculadas y 70.312 sin vincular. De los 118 robos comerciales se crearon 59 parejas vinculadas y 6.844 sin vincular. Estos representaban todas las posibilidades. Para cada par de delitos se calculó la distancia entre los crímenes, un valor de proximidad temporal y/o un coeficiente de Jaccard, que indica la similitud o no del comportamiento. Estos fueron las variables predichas de los análisis subsiguientes.

Se utilizaron tres tipos de modelos estadísticos: los modelos de regresión logística, los modelos de árbol de clasificación y los modelos probabilísticos. En cuanto a los modelos de regresión logística se probaron los dos presentes en Weka: el SimpleLogistic y el Logistic. En lo referente a los modelos de árbol de clasificación se estudiaron los disponibles en Weka: el J48, el árbol de modelo logístico y el modelo de RandomForest. Para terminar, en los modelos probabilísticos se utilizaron: el BayesNet y el Naive Bayes. Todos estos análisis se utilizaron para generar un valor de probabilidad predicho para cada conjunto de datos de cada par de delitos, lo que indica la probabilidad pronosticada de que los dos delitos de cada par fueran cometidos por la misma persona. Posteriormente, se crearon curvas características (ROC) que permitieron comprobar la precisión con la que los distintos modelos estadísticos podrían distinguir entre pares de delitos vinculados y no vinculados.

Los modelos basados en la regresión fueron los más exitosos en los tres conjuntos de datos, con el algoritmo Logistic se obtuvo la puntuación más alta para el robo residencial y robo comercial y con el algoritmo SimpleLogistic para el robo de automóviles. Estos resultados pueden chocar con los obtenidos en estudios anteriores y es que hay que tener en cuenta multiples variables. Por tanto, se debe decir, que a día de hoy no hay un método estadístico superior a otro. La eficacia de cada uno variará en función de los datos que se posean para llevarlo a cabo. Además, los resultados de este estudio solo se basan en la precisión de la discriminación y hay otros muchos factores a tener en cuenta.

Este estudio ha sido pionero en el uso de dominios para ver el impacto en la precisión de la discriminación en comparación con la utilización de comportamientos individuales de delincuentes para hacer predicciones de vinculación. Los dominios obtuvieron una tendencia hacia una mayor precisión.

Tomando como ejemplo el robo de automóviles se obtuvo una alta puntuación lo que implica que tenían una posible vinculación mediante el algoritmo los crímenes, pero cuando se examinó el éxito que tuvo en hacerlo se encontraron dificultades considerables. La razón principal de esto es el problema de que cuando el número de pares de crímenes no vinculados supera ampliamente el número de pares vinculados un modelo estadístico tenderá a tener una probabilidad de vinculación muy baja para todos los pares de la muestra.

Se predice que los comportamientos impulsados por los delincuentes (fecha y lugar del crimen) están menos influenciados por la situación ofensiva y son más consistentes de un crimen a otro, lo que los hace más adecuados para la vinculación. También es posible que esto se deba a que esos datos sean registrados de una manera más objetiva en las bases de datos policiales que, por ejemplo, si el ladrón buscó de una manera ordenada o no. También obtuvo puntuaciones altas la interacción personal entre víctima y agresor, por ejemplo, las condutas de control son una característica útil para la vinculación de robos comerciales.

Una limitación muy importante de este estudio es que solo se utilizaron datos de crímenes resueltos, cuando en la práctica real no podrá ser así. Por ello, investigaciones futuras deberán buscar replicar estos resultados utilizando delitos resueltos y no resueltos, ya que una herramienta que apoye la toma de decisiones y ayude a vincular posibles crímenes cometidos por el mismo autor sería valiosísima en la investigación policial.

Creencias sobre la tasa de error y el juicio humano en las ciencias forenses. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Beliefs about Forensic Science: beliefs about error rate and human judgment” de Ribeiro, Targen y McKimmie; en él analizan las creencias que las personas tienen sobre la precisión de las pruebas forenses, así como el testimonio de los peritos durante el juicio.

La intención de este estudio es identificar las creencias y percepciones que las personas tienen sobre la ciencia forense y las evidencias. Concretamente se investigará sobre las tasas de error y el grado de juicio humano involucrado en ella, centrándose en cada técnica y etapa (recopilación, almacenamiento, prueba, análisis, informe y presentación de evidencias). Para ello se les pidió a los participantes que piensen y describen las ciencias forenses, que proporcionen una estimación del nivel de participación humana, que juzguen cómo de probable es que ocurra un error en cada etapa del proceso y que califiquen la precisión y el nivel de participación humana para 16 técnicas forenses diferentes.

Como hipótesis de partida se manejaban que la estimación de error para cada etapa sería baja (menos del 5%) y que el juicio humano involucrado en cada fase también sería bajo (valor medio de cuatro). También se espera que los espectadores de programas sobre crímenes tengan una correlación negativa con las estimaciones de error. Se cree que las estimaciones de precisión para cada técnica serían altas (más del 90%) y que las predicciones de juicio humano serían bajas en cada técnica. Se hipotetiza que los espectadores de programas de crímenes presentarían correlaciones positivas con las estimaciones de precisión de la técnica y correlaciones negativas con las estimaciones de juicio humano. Por último, se espera que los participantes no coinciden las tasas bajas previas que proporcionan sobre la probabilidad de que ocurra un error en cada etapa del proceso de ciencia forense. Es decir, el error acumulativo para toda la etapa del proceso de la ciencia forense es probable que sume más de 100.

Se utilizó una muestra de 101 australianos (52 mujeres y 45 hombres) con edades comprendidas entre los 20 y los 70 años con una edad media de 55 años. El 83,2% habían completado la educación obligatoria y el 15,8% había hecho de jurado previamente.

El estudio se realizaba electrónicamente desde su casa, se daban las siguientes instrucciones: “Durante este estudio, se le pedirá que imagine que se ha cometido un delito y que se ha dejado evidencia forense en la escena del crimen. Imagínese que la policía ha acusado a un sospechoso del delito y habrá un juicio penal ante un jurado. Queremos que piense en todo el proceso que involucra pruebas forenses, desde la primera vez que se asiste a una escena del crimen hasta cuando la evidencia se analiza hasta el momento en que se puesta ante el tribunal ante el jurado. Sea tan específico y detallado con sus respuestas con la sea posible”. Se les preguntaba por cada etapa del proceso, con pregunta del tipo: “¿Cómo se recopilan pruebas forenses de una escena del crimen? ¿Cómo se almacenan las evidencias forenses? ¿Cómo se analizan las evidencias? ¿Cómo se analizan e interpretan los resultados de las pruebas forenses? ¿Cómo se reportan las evidencias forenses? ¿Cómo se presenta la evidencia forense al jurado?” Las estimaciones de tasas de error se evaluaban con la pregunta ¿cómo de probable es que ocurra un error durante este proceso? A la que tenían que responder con un tanto por cierto. Las estimaciones del juicio humano se medían con la pregunta “¿en qué medida este proceso evalúa el juicio humano?” Las respuestas iban desde 1 (nada) al 7 (completamente). Las 16 técnicas analizadas fueron: análisis antropológico, análisis de patrones de manchas de sangre, ADN, documentoscopia, análisis facial, huellas dactilares, análisis de incendios y explosivos, análisis de marcas de arma y herramientas, análisis de material geológico, análisis de residuos de disparo, análisis de imágenes, análisis de materiales, análisis de toxicología, análisis de voz, análisis de vida silvestre y odontología forense. Se le hacía la pregunta “¿cuáles son sus impresiones generales sobre la exactitud de los diferentes tipos de pruebas forenses que se enumeran?” Tenían que evaluarlo con un tanto por cierto. También se realizó la pregunta de “¿en qué medida cada uno de los siguientes tipos de evidencia forense involucra el juicio humano?” En cada una de las técnicas se calificaba del 1 al 7.

Más tarde se les hizo dos preguntas sobre sus hábitos televisivos. Primero se preguntó cuántas horas a la semana pasaban viendo las siguientes series: CSI (incluyendo sus franquicias: Miami, Nueva York y Cyber), Ley y Orden (incluye: Acción Criminal, Unidad de Víctimas Especiales, Juicio por Jurado y LA), Mentes Criminales, Bones, NAVY: Investigación Criminal y otras series criminales. También se les preguntó cuantas horas a la semana veían algún programa de televisión u online.

El número promedio de horas fue de 16,78 horas, el rango de los programas criminales varió desde 0,74 en Bones a 1,46 en otros programas relacionados con los crímenes.

Los resultados contradijeron algunas de las hipótesis iniciales. Contrariamente a lo que se había pensado se obtuvieron tasas más altas en estimaciones de error variando desde un 39,27% en la etapa de prueba a un 44,55% en la de análisis. Las estimaciones de error son bastante más altas de lo que se habría esperado debido al efecto CSI por el cual las personas tienen una alta fe en la precisión y fiabilidad de las ciencias forenses. También fueron más altas las estimaciones de juicio humano que fueron desde el 4,94 en la etapa de prueba al 5,55 en la de recopilación y presentación, siendo, por tanto, superior a la hipotetizada antes del estudio. Se encontrarán correlaciones positivas entre las estimaciones de error y la del juicio humano en todas las etapas, lo que significa que mientras más creyera el participante que estaba involucrado el juicio humano, mayor era la probabilidad de que ocurriera un error.

Los resultados mostraron que no había correlaciones significativas entre los hábitos de visualización de series de crímenes y las estimaciones de error. Se descubrió que los hábitos de ver series solo se correlacionaban negativamente de manera significativa con la etapa de almacenamiento y la de prueba. Lo que contradicen la H2 y la teoría del efecto CSI.

En lo relacionado a la precisión y fiabilidad de las técnicas forenses, en general son bastante buenas. Varían de unas a otras, siendo de las más bajas el análisis de documentos que obtendría un 65,18% y la más alta sería el ADN con un 89,95%. Estos resultados contradicen la H3.

En relación a la influencia del juicio humano en cada proceso sólo se obtuvieron los resultados esperados para el análisis de ADN. Los demás estuvieron por encima de los cuatro puntos esperados, llegando a 5,72 en el caso de análisis de documentos. En lo relativo a las correlaciones de exactitud y juicio humano para cada prueba, solo cinco de las 16 (sangre, ADN, documentos, dactiloscopia e imagen) se correlacionaban de manera negativa, por lo tanto, para otras pruebas los participantes que creían que era más procesos, también creía que había menos juicio humano involucrado.

En lo relativo a la H4, no hubo una correlación significativa entre los hábitos de televisión y la precisión de las pruebas. Además, se encontró tres correlaciones positivas significativas entre la visualización del crimen y el juicio humano (ADN, dactiloscopia y toxicología) que no siguen la dirección esperada. Por tanto, estos resultados contradicen la hipótesis planteada.

La última hipótesis hace referencia a que la tasa de error general de todas las etapas superará el 100, aunque la tasa de cada técnica fuese baja. Curiosamente ya desde la segunda fase (almacenamiento) rondaba el 80% superando el 100% en la tercera (prueba), la tasa total fue del 248,56%. En contraste, la tasa de error por técnicas fuera del 10,05% del ADN al 34,82% del análisis de documentos. Estos resultados apoyan la hipótesis y demuestran que los participantes ignoraron completamente sus estimaciones previas sobre las tasas de error en cada etapa del proceso cuando se les pidió que hicieran juicios sobre la precisión de las técnicas específicas.

Como se ha visto los resultados fueron sorprendentes, ya que los participantes creían que había una probabilidad sustancial de error en cada fase del proceso forense. Una explicación a esto puede ser el sistema novedoso de preguntar por cada etapa en vez de por el conjunto lo que le hizo reflexionar más en profundidad. También pudo influirles que las respuestas se tuvieran que dar a través de una barra oscilante que veían predeterminada en el 50% y ya se ha demostrado que los anclajes condicionan. Igual de sorprendentes fueron las estimaciones tan altas relativas a la influencia de juicio humano en cada etapa, ya que generalmente esta ciencia está más relacionada con la tecnología que con la intervención humana.

Aunque se correlacionó positivamente las estimaciones de error con la de juicio humano (cuanto más creía que esta involucrado el juicio humano, creía que había más error) no se ha podido establecer una correlación consistente entre ambos fenómenos.

A pesar de que tampoco se obtuvieron los resultados, por encima del 90%, que se esperaba en la precisión de la prueba. Todos los participantes creyeron que todas las pruebas eran significativamente mejores que la casualidad. La más precisa fue el ADN (89,95%) aunque sigue siendo un resultado bastante menor del esperado.

Este estudio muestra muy poco apoyo al efecto CSI, el cual asume que aquellos que ven series relacionadas con crímenes tendrán diferentes creencias y percepciones sobre las ciencias forenses que aquellos que no los ven. Sin embargo, en este estudio no se encontrarán correlaciones entre la visualización de series y las estimaciones de error para ninguna etapa del proceso forense ni para ninguna de las técnicas.

Es importante tener en cuenta que, aunque los hábitos de consumo de series criminales no estaban relacionados con sus estimaciones de precisión, este estudio demuestra que las personas no tienen una comprensión sólida de la precisión de las técnicas forenses, siendo algunas exageradas y otras subestimadas. Esto demuestra que los jurados pueden llegar a un juicio con creencias preexistentes potencialmente inexactas sobre la ciencia forense que puede afectar a su evaluación de los informes y pruebas, así como al veredicto del mismo.

« Siguientes entradas