clubforenses.com

clubforenses.com

Enfoque de dominios para predecir resultados en casos de homicidios. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Shifting the focus variables to substantive domains when modeling homicide case outcomes” de Hawk y Dabney; en él nos hablan de la utilización de los dominios en la predicción de los resultados de la investigación de homicidios.

En el año 2016 en EE.UU. la tasa de resolución de homicidios era muy baja, un 59%, marcando un mínimo histórico. Se estima que 7.000 asesinatos se quedan sin resolver cada año. Lo que limita la perspectiva de mejora del índice de resolución de casos es la falta de comprensión de los factores que predicen si un caso se resolverá o no. Este estudio propone un modelo conceptual holístico y práctico para averiguarlo.

Se han detectado varios problemas, el acceso a los datos produce importantes problemas para la medición de procedimientos de investigación policial. Esto a su vez produce que al no trabajar con datos fiables las teorías que se realizan sobre la resolución de homicidios pueden no ser precisas. Otro problema es que los diferentes tipos de investigaciones sobre este tema no son extrapolables de un lugar a otro por diversas circunstancias. Todo ello genera que los resultados de las investigaciones científicas llevadas a cabo sobre la investigación de homicidios den unos resultados incongruentes e incluso contradictorios entre ellos.

Para ampliar y mejorar la investigación este estudio sistematiza las medidas de cinco dominios de investigación y analiza la importancia de cada posible modelo conceptual de agrupación para la posterior resolución. Estos cinco dominios son: sujetos involucrados, circunstancias del incidente, dinámica del caso, características ecológicas y factores del investigador.

Las medidas de los sujetos involucrados hacen referencia a las diferencias personales en víctima y autor y la forma en que su manifestación en el episodio violento puede generar pistas. Las circunstancias del incidente incluyen combinaciones en condiciones relacionales, temporales y físicas que pueden hacer cambiar la forma en que las personas interactúan, como puede ser la relación existente entre víctima y autor, el motivo, el tipo de arma o el día y la hora en la que se produce el crimen. La dinámica del caso hace referencia a los factores que la policía encuentra una vez se dan cuenta del asesinato, como pueden ser los tipos de evidencia que descubren, la ubicación de la escena del crimen o la presencia de policía en esa zona. Las características ecológicas, dentro de este dominio se incluye la cultura, la demografía de los residentes, la eficacia colectiva, las percepciones de la policía y la tasa de delincuencia. Dentro de las variables del investigador se considera la carga de trabajo, el esfuerzo, la experiencia y la técnica que usa.

Para comprobar esto se realizó un estudio en un área metropolitana de EE.UU. de casi medio millón de habitantes. En la década anterior (2000 – 2009) experimentó altos niveles de delincuencia, con 100 homicidios por año. En el momento en que se realizó el estudio la unidad del departamento de homicidios era la encargada de investigar todos los asesinatos reportados, las muertes bajo custodia, los secuestros, los tiroteos relacionados con la policía, los casos antiguos sin resolver y las muertes sospechosas. Para ello contaban con entre 15 y 20 investigadores, supervisados por entre cinco y siete sargentos, un teniente, un capitán y un comandante. Se permitió el acceso total a toda la documentación de todos los casos de homicidios acaecidos entre 2009 y 2011.

Los investigadores recopilaron datos de 252 archivos de homicidio en una plantilla estandarizada, posteriormente buscaron en la base de datos incidentes ocurridos en la misma localización del homicidio. También, se añadieron los antecedentes penales de todas las personas mencionadas en el caso. Además, se añadió información del censo. Posteriormente, se entrevistó al investigador principal de cada caso para que aportara detalles adicionales que se hubieran mencionado en los informes.

Se tuvo como variable dependiente la resolución del caso, considerándose como tales todos aquellos que hubiera finalizado con una detención. La tasa de resolución en esos años estaba en un 69%, siendo ligeramente superior a la media nacional de esa época (65- 67%). Como variables independientes se consideraron 16. En lo relacionado al dominio de sujetos involucrados se consideró el género de la víctima y del sospechoso, la edad de la víctima y el historial criminal del sospechoso. En lo relativo a las circunstancias del incidente se analizó la relación existente entre víctima y victimario, el motivo del crimen y la hora de comisión del mismo. En lo relacionado con la dinámica del caso se extrajeron datos de la presencia de testimonios, de armas y de evidencias tecnológicas y biológicas. También se analizó la frecuencia de la policía en el área y si el crimen había sido interior o exterior. En lo referente a las características ecológicas se analizó la población, el tanto por ciento de extranjeros y el de personas con un nivel educativo inferior a la educación secundaria. Por último, en lo relativo al investigador se recopiló información sobre el número de casos abiertos cada año, el número de casos que tiene asignados, la utilidad de los apoyos y de las revisiones de casos por parte de la unidad.

Los resultados obtenidos muestran que los casos donde la víctima tenía menos de 24 años tenían 3,5 veces más de posibilidades de ser resueltos que cuando la víctima era mayor. Esto puede ser así, porque se les da mayor prioridad a los casos donde la víctima era joven o porque las personas más pequeñas cuentan con la supervisión de los adultos y, por tanto, es más fácil obtener datos. Cuando el sospechoso tiene antecedentes penales hay 1,09 más de posibilidades de resolución. No se encontró una relación entre el sexo de víctima y autor y el índice de resolución de casos. Cuando había una relación entre víctima y autor las posibilidades de resolución aumentan un 6,89. Si el crimen estaba motivado por algún asunto relacionado con el submundo criminal las posibilidades de resolución se reducían un 0,38. Esto es así porque las personas involucradas daban información falsa a la policía o directamente no cooperaban con ella. En lo relativo a las evidencias aumentaban la resolución del caso 2,72 veces. De igual manera la mayor presencia de la policía en la zona hacía que las posibilidades creciesen 2,4. La localización interior del crimen aumenta en un 2,51. Cada vez que se aumentaba en una unidad la población se reducía por 0,99 las posibilidades de resolución, esto es así porque al haber más gente el delincuente se vuelve más anónimo y, por tanto, se dificulta su identificación. Sorprendentemente aumentaban en un 1,11 cuando había mayor presencia de extranjeros, se piensa que es así porque colaboraran más con la policía por el miedo a la deportación o alguna otra falta administrativa. Sin embargo, no se observó relación con el nivel educativo. Por cada caso abierto que tiene el investigador se reduce en 2,5 las posibilidades de resolución. Por el contrario, las revisiones del caso aumentan en un 1,80.

Se puede concluir que los casos que tendrían más posibilidades de resolverse serían aquellos que hubieran pasado en un escenario interior, donde la víctima es menor de 24 años, tiene relación personal con el autor. El victimario tenía antecedentes penales, pero no guardaba relación directa con el submundo criminal. Ocurría en una población pequeña con gran presencia policial y alto número de inmigrantes. La escena del crimen presentaba un gran número de evidencias. El investigador principal tenía pocos o ningún otro caso abierto y en su equipo se hacían revisiones periódicas del caso.

 

Efectos de la inclusión y exclusión social en la obtención de información. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Eliciting human Intelligence: the effects of social exclusión and inclusión on information diclosure” de Ask, Ejelöv y Anders; en él se estudia los efectos de las experiencias sociales, concretamente la inclusión o exclusión social, sobre la facilidad de obtención de informaciones en entornos semicooperativos que pueden darse en un contexto de investigación policial o de inteligencia.

La hipótesis que se plantearon en esta investigación es que la exclusión social supondría una amenaza para la necesidad de pertenencia y la autoestima de los individuos lo que les haría intentar reconectar socialmente y eso llevaría a compartir más información crítica.

Para comprobar la hipótesis hicieron dos experimentos. El primer experimento consistió en un dilema de administración de información, en el que debían conseguir llegar a un punto de equilibrio entre la información crítica que divulgaban, que beneficiaba al resto, y la información crítica que retenían, que les beneficiaba a ellos. Previamente habían jugado a un videojuego en el que podían estar incluidos o excluidos socialmente por sus compañeros. Los miembros del grupo control simplemente observaban pasivamente el juego. Se predijo que los participantes que fueran excluidos compartirían más información que aquellos incluidos y que el efecto de la exclusión se podría medir por el nivel de amenaza de pertenencia y por la autoestima que experimentaban los participantes.

Para comprobar las hipótesis se utilizó una muestra de 150 participantes, con una edad media de 28 años. Un 71,3% eran mujeres y un 28,7% hombres. Fueron reclutados a través del departamento de psicología de la universidad de Gotemburgo y se les dijo que el estudio era sobre la toma de decisiones en grupo. Se les asignó al azar a una de las tres condiciones de investigación.

Los participantes llegaban en grupos de entre tres y seis miembros, cada uno se sentaba en un ordenador individual y leían las instrucciones. Para el dilema de la información se les decía que eran un paparazzi que trabajaba en un equipo con más miembros (el resto de participantes). Su equipo competía con otro equipo por ganar un premio de 20€, pero solamente el mejor fotógrafo de manera individual lo ganaría. Cada fotógrafo debía fotografiar a nueve famosos determinados, pero desconocían donde se encontraban. Por el contrario, conocían la ubicación de los famosos de uno de sus compañeros. Compartir dicha información podía hacer ganar a su equipo, pero sólo uno de ellos ganaría el premio. Antes de pasar a la realización del intercambio de información se les pedio que jugaran a Cyberball, un juego donde tres jugadores se pasan el balón entre ellos. Los participantes creían estar jugando en línea con otros participantes. A las personas que se les asignó la inclusión social les pasaba el balón el mismo número de veces, a los de la exclusión social solo se les pasaba dos veces al principio y luego los otros dos jugadores se la pasaban entre ellos exclusivamente. El grupo control vio una grabación. Después de ello se les pedio a los participantes que dijeran cuantas coordenadas revelarían a sus compañeros y que contestaran a unas preguntas con escalas de Likert. Tuvieron que calificar el grado de pertenencia que experimentaron, la autoestima, la existencia significativa y el control que sintieron durante el juego. También tuvieron que informar sobre diferentes estados positivos y negativos que experimentaron y sobre el grado de exclusión o inclusión que sintieron y la frecuencia con la que recibieron el balón.

Los resultados revelaron que los participantes excluidos socialmente se sentían significativamente más excluidos e ignorados que el resto de participantes. También, pensaron que habían recibido el balón un número menor de veces que el resto. Los participantes excluidos informaron que sintieron menos pertenencia, control, existencia significativa y autoestima que los incluidos o el grupo control. Entre estos dos grupos no hubo diferencias significativas. En cuanto a los estados de ánimo el grupo excluido presentó más estados negativos que el resto de grupos. En relación a la revelación de información no se mostró diferencias significativas entre los grupos, por tanto, la hipótesis planteada no pudo demostrarse. Si bien es cierto que los excluidos revelaron un poco más de información que los incluidos, los niveles fueron los mismos que los del grupo control. Tampoco pudo ser probada la hipótesis referente a los niveles de pertenencia y autoestima. Se cree que el resultado negativo del experimento pudo deberse a que la revelación de la información se hacía a un miembro anónimo, lo que no producía una reconexión con el grupo social. También se piensa que la condición de control generaba el mismo rechazo que la de exclusión y por tanto los resultados no diferían.

En el segundo experimento se intentó paliar las deficiencias presentadas en el primero. Por ello se optó por una entrevista de inteligencia, que llevaba aparejada una interacción más directa. Además, se incluyó una medida de sensibilidad al rechazo como un moderador potencial de los efectos de la exclusión social. Se pidió a los participantes que imaginasen ser informadores de la policía con antecedentes delictivos y con conocimientos críticos sobre un inminente ataque terrorista. Para ello se les dio previamente información sobre un ataque ficticio y sobre el grupo que lo iba a llevar a cabo. Se les pidió que durante la entrevista evitaran revelar muy poca información pero que tampoco revelaron demasiada, ya que por un lado necesitaba ser útil para la policía para que le permitirán quedar en libertad, pero por otro, a parte de su simpatía por el grupo terrorista podía ser identificado como la fuente de información. Previamente a la entrevista participaron en un experimento sobre la toma de decisiones grupales que no estaba relacionado donde fueron invitados a unirse a una discusión con otras dos personas o fueron ignorados. El grupo control no participó en esa fase. Las hipótesis que se plantearon fueron que, primeramente, los participantes excluidos socialmente revelarían más información que el resto. También se planteó que el efecto de la exclusión sería mayor para las personas con una sensibilidad de rechazo alta. Por último, el efecto de la exclusión sería mayor en aquellos que experimentaron una amenaza a la pertenencia y a la autoestima. Se manejó una muestra de 135 participantes con una edad media de 29 años, siendo un 65,2% mujeres y un 34,8% hombres.

Después de la entrevista los participantes tuvieron que contestar una prueba de memoria sobre el supuesto ataque que contaba con 17 preguntas. A continuación, contestaron el cuestionario de sensibilidad al rechazo de Downey y Feldman. Para acabar, respondieron a las escalas de satisfacción de necesidades empleadas en el primer experimento.

Los resultados mostraron que los participantes excluidos experimentaron menos pertenencia, autoestima, existencia significativa y control en comparación con los otros dos grupos. Los grupos de control y de inclusión no difirieron en nada salvo en pertenencia que era mayor en el segundo. También, los participantes excluidos mostraron estados de ánimo más negativos que positivos. Los excluidos no difirieron en el número de informaciones reveladas en relación a los otros dos grupos, por tanto, la hipótesis planteada no fue demostrada. Tampoco la sensibilidad al rechazo interactuó significativamente, siendo incompatible este resultado con la segunda hipótesis. El nivel de sensibilidad al rechazo tampoco se pudo relacionar significativamente con la divulgación de información. Por último, tampoco fueron significativos los efectos de la pertenencia o la autoestima en relación a la exclusión social y al intercambio de información, dejando de esta manera sin apoyo a la tercera hipótesis. Se obtuvieron resultados sorprendentes que revelaron que la inclusión social hacía que el número de informaciones reveladas fuera ligeramente mayor.

En conclusión, se puede decir que las experiencias sociales previas de las fuentes pueden realmente influir en el resultado de las entrevistas, aunque, en la actualidad se desconocen los mecanismos que puedan estar detrás de ello.

Estimación de la edad de muerte por el esqueleto: método bayesiano versus regresión. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Skeletal age -at-death estimation: Bayesian versus regressions methods” de Nikita y Nikitas; en él hacen una comparativa sobre los dos métodos para determinar la edad en el momento de la muerte, la aproximación bayesiana o el método de regresión.

Establecer la edad de fallecimiento basado en el esqueleto es importante, tanto en antropología forense como en la bioarqueología. En el primero de estos campos ayuda a establecer el perfil biológico del individuo y su identificación. En la bioarqueología nos da información del pasado biológico y contribuye al estudio de la patología, la actividad y otros marcadores del esqueleto de la vida del individuo.

Se han propuesto varios métodos para estimar la edad en restos de adultos. Casi todos los métodos utilizan una muestra que debe ser representativa de la población de referencia. Después se establecen relaciones entre la edad cronológica y los marcadores de edad a través de los métodos de regresión o el enfoque bayesiano. Estas relaciones son las que se utilizan para establecer la edad de muerte en la muestra objetivo. Este procedimiento y en concreto el uso de método de regresión ha sido criticado, ya que la edad está sesgada por el perfil demográfico de la muestra utilizada, técnicamente el método bayesiano se desarrolló para minimizar ese problema.

En este estudio se han utilizado dos técnicas para incorporar el perfil demográfico de la muestra utilizada en el análisis regresivo. La primera de ellas es usar factores de ponderación adecuados tomados del perfil demográfico de la muestra objetivo o de una muestra que tenga un perfil similar. La segunda es crear, basándose en la muestra original, una nueva muestra hipotética con un perfil demográfico similar al de la muestra objetivo.

El método bayesiano para la estimación de la edad de fallecimiento fue desarrollado por Konigsberg et al. Calculó la probabilidad condicional Pr(aǀc) de que los restos óseos provinieran de individuos que murieron en la edad = a dado que se observa el marcador de edad c a través del teorema de Bayes:

Donde Pr(aǀc) es la probabilidad de observar el marcador de la edad r en un individuo que ha muerto en la edad a. f(a) es la distribución de la edad de fallecimiento en la población de referencia llamada información previa y shift es la edad mínima en información previa. Esta información era:  la muestra objetivo, la muestra de entrenamiento y la muestra con perfil demográfico uniforme.

La f(a) de la información previa se estima con la ecuación que parte de la estimación del ratio de mortalidad y del de supervivencia aplicando la función del modelo de Gomplertz- Makeham. Las probabilidades condicionales Pr(aǀc) se obtienen utilizando el análisis de transición. Hay que tener en cuenta que la Pr(aǀc) se calcula como función de densidad de probabilidad. La edad de la muerte de un individuo con el marcador de edad c corresponde a la posición del pico de la curva de esta función.

En el presente estudio se utilizó como material datos artificiales, donde los marcadores de edad mostraban una expresión de ocho grados. Se generaron muestras aleatorias de edades comprendidas entre los 18 y los 85 años. El perfil demográfico de las muestras se basa en la distribución por edades de Gilbert, en la de Terry y en las tablas de vida inglesa número 17. Para las muestras de entrenamiento se crearon muestras con edades que siguen la distribución uniforme de Los Balcanes.  A cada edad se le adjuntó un marcador de edad determinado. Las muestras de entrenamiento se generaron con el tamaño de 50,100,200 y 500. Para las muestras objetivo se utilizó el tamaño de menos de 500 para evitar fluctuaciones en las predicciones. Para cada muestra de entrenamiento se generaron siete muestras objetivo. En total se obtuvo 588 sistemas de datos artificiales, aunque solo se utilizaron 532 por problemas computacionales.

Se utilizaron varios criterios para probar el funcionamiento de los modelos de estimación de edad de la muerte:

  1. Coeficiente de correlación de Pearson entre la edad original y la edad estimada.
  2. El error estándar de estimación (SEE):
  3. El porcentaje de casos en los que la edad de muerte original cayó dentro de un cierto intervalo alrededor de la edad promedio de muerte. Los intervalos fueron ±5 ±10 y ±20 años. Los casos que cayeron en el último fueron descontados por su poco poder de discriminación.

De los resultados obtenidos se pueden sacar dos conclusiones generales: la primera es que aparecen problemas de cálculo par los modelos de regresión 2 y 3 y en bayesiano en todas las muestras superiores a 200. Los problemas surgen cuando hay factores de la muestra objetivo que no están presentes en la muestra de entrenamiento sobre todo cuando faltan factores pequeños. Por tanto, la muestra de entrenamiento debe ser lo suficientemente grande e incluir todos los factores posibles de los marcadores de edad.

La segunda conclusión es que si se documenta la edad de muerte de una colección el mejor método para estimarla en los individuos que pertenezcan a la misma es la regresión simple. El método bayesiano reduce el efecto del mimetismo, pero no lo elimina totalmente.

El tipo y el tamaño de la muestra de entrenamiento puede afectar significativamente a los resultados obtenidos. Estos también se ven influenciados por la técnica propuesta, los pesos y la muestra hipotética de entrenamiento. El método bayesiano se desempeña mejor solo cuando el tamaño de la muestra es pequeño (50) y especialmente al usar muestra de entrenamiento arbitrarias. Cuando las muestras de entrenamiento tienen un perfil demográfico el rendimiento de los métodos de regresión aumenta considerablemente y mejora más si la muestra es uniforme. Los métodos de regresión superan al bayesiano en el 90% de los sistemas.

El método bayesiano que usa un perfil demográfico uniforme o el perfil de la muestra de capacitación son una opción inapropiada especialmente el primero de ellos que deberá evitarse por completo.

El rendimiento de los métodos de regresión en relación al bayesiano depende del criterio utilizado. Existen patrones característicos que son independientes del mismo. El uso de una muestra de entrenamiento uniforme da como resultado el rendimiento óptimo entre los métodos de regresión independientemente del tamaño de la muestra y del tipo de método propuesto. Esto puede ser porque un algoritmo de aprendizaje requiere la edad en el momento de la muerte y que los cambios morfológicos y esqueléticos correspondientes estén completamente representados en la muestra de entrenamiento para que la función matemática que lo mapea sea eficiente.

Se concluye que en el enfoque bayesiano si la información previa se utiliza la muestra objetivo o una similar demográficamente se reduce el sesgo de estimación de la edad de muerte, pero no se elimina del todo. En cuanto a los métodos de regresión tanto si se utiliza el enfoque de factores de ponderación tomados del perfil demográfico de la muestra objetivo como si se utilizan una muestra hipotética de entrenamiento con perfil demográfico similar al de la muestra objetivo, reducen y minimizan el sesgo siempre y cuando la muestra de entrenamiento tenga un perfil demográfico uniforme o de tipo gaussiano con representación equilibrada entre individuos jóvenes y mayores. Si se cumple esto, los dos enfoques superan en rendimiento al bayesiano por encima del 90%.

Vincular delitos contra la propiedad a través del comportamiento del delincuente en la escena del crimen. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Linking property crime using offender crime scene behavior: A comparision of methods” de Tokin, Lemeire, Santtila y Winter; en él hacen una comparativa entre la capacidad de siete modelos estadísticos para diferenciar delitos contra la propiedad vinculados de aquellos que no lo están.

El estudio compara siete modelos estadísticos diferentes que se derivan de los tres enfoques más comúnmente utilizados en la investigación conductual: el análisis de regresión logística binaria, el análisis de árbol de clasificación y el modelo probabilístico/bayesiano. Estos enfoques se aplican sobre tres conjuntos de datos: robos residenciales cometidos en Finlandia, robos de automóviles cometido en Reino Unido y robos comerciales cometidos en Finlandia. Este estudio contribuye a determinar cual es el método estadístico más apropiado para vincular los delitos a través del comportamiento del delincuente, siendo novedosa la aplicación estadística a la vinculación del comportamiento criminal.

Para llevarlo a cabo se utilizaron datos de 160 robos residenciales cometidos por 80 ladrones en serie en la región del Gran Helsinki de Finlandia entre 1990 y 2001. Se seleccionaron al azar dos delitos por delincuente del total de crímenes que hubieran cometido en ese periodo. Para cada robo se registraba: ubicación del delito, hora y día de la semana en que se cometió, tipo de propiedad robada, método de entrada, el comportamiento de búsqueda del delincuente una vez dentro y el valor de los objetos robados. Los datos utilizados para el robo de coches fueron los procedentes de 376 delitos de robo de vehículos cometidos por 188 ladrones en serie en Northamptonshire, en Reino Unido entre enero de 2004 y mayo de 2007. Se registró: ubicación del robo, el tipo de automóvil, los años del vehículo y el estado físico en el que se recuperó el coche. En lo referente a los robos comerciales se utilizaron 118 cometidos por 59 ladrones en serie en la región de Gran Helsinki en Finlandia entre 1991 y 2002. Se seleccionaba al azar dos delitos por delincuente. Se registró: ubicación, tipo de negocio, hora y día en que se produjo, el uso de disfraz, el uso de armas, el número de delincuentes, el uso de violencia, el idioma utilizado y el tipo y coste de la propiedad robada.

Después de recoger los datos se crearon una serie de dominio de comportamiento para cada tipo de crimen. Para el robo de residencias: características objetivo, comportamiento de entrada, comportamiento en el interior, propiedad robada, distancia entre delitos y proximidad temporal. Para el robo de vehículos: opciones de selección de objetivos, comportamiento de adquisición del objetivo, comportamiento de eliminación y distancia intercrímen. Para el robo comercial: opciones de selección de objetivos, conductas de planificación, conductas de control, propiedad robada, distancia entre delitos, proximidad temporal, diferencia de el valor de los artículos robados y conducta de aproximación.

A continuación, se crearon pares de delitos vinculados que contenían dos delitos cometidos por el mismo autor y parejas no vinculadas que contenían delitos cometidos por diferentes delincuentes. De los 160 delitos de robo residenciales se crearon 80 parejas vinculadas y 12.640 parejas sin vincular. De los 376 robos de automóviles, se crearon 188 parejas vinculadas y 70.312 sin vincular. De los 118 robos comerciales se crearon 59 parejas vinculadas y 6.844 sin vincular. Estos representaban todas las posibilidades. Para cada par de delitos se calculó la distancia entre los crímenes, un valor de proximidad temporal y/o un coeficiente de Jaccard, que indica la similitud o no del comportamiento. Estos fueron las variables predichas de los análisis subsiguientes.

Se utilizaron tres tipos de modelos estadísticos: los modelos de regresión logística, los modelos de árbol de clasificación y los modelos probabilísticos. En cuanto a los modelos de regresión logística se probaron los dos presentes en Weka: el SimpleLogistic y el Logistic. En lo referente a los modelos de árbol de clasificación se estudiaron los disponibles en Weka: el J48, el árbol de modelo logístico y el modelo de RandomForest. Para terminar, en los modelos probabilísticos se utilizaron: el BayesNet y el Naive Bayes. Todos estos análisis se utilizaron para generar un valor de probabilidad predicho para cada conjunto de datos de cada par de delitos, lo que indica la probabilidad pronosticada de que los dos delitos de cada par fueran cometidos por la misma persona. Posteriormente, se crearon curvas características (ROC) que permitieron comprobar la precisión con la que los distintos modelos estadísticos podrían distinguir entre pares de delitos vinculados y no vinculados.

Los modelos basados en la regresión fueron los más exitosos en los tres conjuntos de datos, con el algoritmo Logistic se obtuvo la puntuación más alta para el robo residencial y robo comercial y con el algoritmo SimpleLogistic para el robo de automóviles. Estos resultados pueden chocar con los obtenidos en estudios anteriores y es que hay que tener en cuenta multiples variables. Por tanto, se debe decir, que a día de hoy no hay un método estadístico superior a otro. La eficacia de cada uno variará en función de los datos que se posean para llevarlo a cabo. Además, los resultados de este estudio solo se basan en la precisión de la discriminación y hay otros muchos factores a tener en cuenta.

Este estudio ha sido pionero en el uso de dominios para ver el impacto en la precisión de la discriminación en comparación con la utilización de comportamientos individuales de delincuentes para hacer predicciones de vinculación. Los dominios obtuvieron una tendencia hacia una mayor precisión.

Tomando como ejemplo el robo de automóviles se obtuvo una alta puntuación lo que implica que tenían una posible vinculación mediante el algoritmo los crímenes, pero cuando se examinó el éxito que tuvo en hacerlo se encontraron dificultades considerables. La razón principal de esto es el problema de que cuando el número de pares de crímenes no vinculados supera ampliamente el número de pares vinculados un modelo estadístico tenderá a tener una probabilidad de vinculación muy baja para todos los pares de la muestra.

Se predice que los comportamientos impulsados por los delincuentes (fecha y lugar del crimen) están menos influenciados por la situación ofensiva y son más consistentes de un crimen a otro, lo que los hace más adecuados para la vinculación. También es posible que esto se deba a que esos datos sean registrados de una manera más objetiva en las bases de datos policiales que, por ejemplo, si el ladrón buscó de una manera ordenada o no. También obtuvo puntuaciones altas la interacción personal entre víctima y agresor, por ejemplo, las condutas de control son una característica útil para la vinculación de robos comerciales.

Una limitación muy importante de este estudio es que solo se utilizaron datos de crímenes resueltos, cuando en la práctica real no podrá ser así. Por ello, investigaciones futuras deberán buscar replicar estos resultados utilizando delitos resueltos y no resueltos, ya que una herramienta que apoye la toma de decisiones y ayude a vincular posibles crímenes cometidos por el mismo autor sería valiosísima en la investigación policial.

Creencias sobre la tasa de error y el juicio humano en las ciencias forenses. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Beliefs about Forensic Science: beliefs about error rate and human judgment” de Ribeiro, Targen y McKimmie; en él analizan las creencias que las personas tienen sobre la precisión de las pruebas forenses, así como el testimonio de los peritos durante el juicio.

La intención de este estudio es identificar las creencias y percepciones que las personas tienen sobre la ciencia forense y las evidencias. Concretamente se investigará sobre las tasas de error y el grado de juicio humano involucrado en ella, centrándose en cada técnica y etapa (recopilación, almacenamiento, prueba, análisis, informe y presentación de evidencias). Para ello se les pidió a los participantes que piensen y describen las ciencias forenses, que proporcionen una estimación del nivel de participación humana, que juzguen cómo de probable es que ocurra un error en cada etapa del proceso y que califiquen la precisión y el nivel de participación humana para 16 técnicas forenses diferentes.

Como hipótesis de partida se manejaban que la estimación de error para cada etapa sería baja (menos del 5%) y que el juicio humano involucrado en cada fase también sería bajo (valor medio de cuatro). También se espera que los espectadores de programas sobre crímenes tengan una correlación negativa con las estimaciones de error. Se cree que las estimaciones de precisión para cada técnica serían altas (más del 90%) y que las predicciones de juicio humano serían bajas en cada técnica. Se hipotetiza que los espectadores de programas de crímenes presentarían correlaciones positivas con las estimaciones de precisión de la técnica y correlaciones negativas con las estimaciones de juicio humano. Por último, se espera que los participantes no coinciden las tasas bajas previas que proporcionan sobre la probabilidad de que ocurra un error en cada etapa del proceso de ciencia forense. Es decir, el error acumulativo para toda la etapa del proceso de la ciencia forense es probable que sume más de 100.

Se utilizó una muestra de 101 australianos (52 mujeres y 45 hombres) con edades comprendidas entre los 20 y los 70 años con una edad media de 55 años. El 83,2% habían completado la educación obligatoria y el 15,8% había hecho de jurado previamente.

El estudio se realizaba electrónicamente desde su casa, se daban las siguientes instrucciones: “Durante este estudio, se le pedirá que imagine que se ha cometido un delito y que se ha dejado evidencia forense en la escena del crimen. Imagínese que la policía ha acusado a un sospechoso del delito y habrá un juicio penal ante un jurado. Queremos que piense en todo el proceso que involucra pruebas forenses, desde la primera vez que se asiste a una escena del crimen hasta cuando la evidencia se analiza hasta el momento en que se puesta ante el tribunal ante el jurado. Sea tan específico y detallado con sus respuestas con la sea posible”. Se les preguntaba por cada etapa del proceso, con pregunta del tipo: “¿Cómo se recopilan pruebas forenses de una escena del crimen? ¿Cómo se almacenan las evidencias forenses? ¿Cómo se analizan las evidencias? ¿Cómo se analizan e interpretan los resultados de las pruebas forenses? ¿Cómo se reportan las evidencias forenses? ¿Cómo se presenta la evidencia forense al jurado?” Las estimaciones de tasas de error se evaluaban con la pregunta ¿cómo de probable es que ocurra un error durante este proceso? A la que tenían que responder con un tanto por cierto. Las estimaciones del juicio humano se medían con la pregunta “¿en qué medida este proceso evalúa el juicio humano?” Las respuestas iban desde 1 (nada) al 7 (completamente). Las 16 técnicas analizadas fueron: análisis antropológico, análisis de patrones de manchas de sangre, ADN, documentoscopia, análisis facial, huellas dactilares, análisis de incendios y explosivos, análisis de marcas de arma y herramientas, análisis de material geológico, análisis de residuos de disparo, análisis de imágenes, análisis de materiales, análisis de toxicología, análisis de voz, análisis de vida silvestre y odontología forense. Se le hacía la pregunta “¿cuáles son sus impresiones generales sobre la exactitud de los diferentes tipos de pruebas forenses que se enumeran?” Tenían que evaluarlo con un tanto por cierto. También se realizó la pregunta de “¿en qué medida cada uno de los siguientes tipos de evidencia forense involucra el juicio humano?” En cada una de las técnicas se calificaba del 1 al 7.

Más tarde se les hizo dos preguntas sobre sus hábitos televisivos. Primero se preguntó cuántas horas a la semana pasaban viendo las siguientes series: CSI (incluyendo sus franquicias: Miami, Nueva York y Cyber), Ley y Orden (incluye: Acción Criminal, Unidad de Víctimas Especiales, Juicio por Jurado y LA), Mentes Criminales, Bones, NAVY: Investigación Criminal y otras series criminales. También se les preguntó cuantas horas a la semana veían algún programa de televisión u online.

El número promedio de horas fue de 16,78 horas, el rango de los programas criminales varió desde 0,74 en Bones a 1,46 en otros programas relacionados con los crímenes.

Los resultados contradijeron algunas de las hipótesis iniciales. Contrariamente a lo que se había pensado se obtuvieron tasas más altas en estimaciones de error variando desde un 39,27% en la etapa de prueba a un 44,55% en la de análisis. Las estimaciones de error son bastante más altas de lo que se habría esperado debido al efecto CSI por el cual las personas tienen una alta fe en la precisión y fiabilidad de las ciencias forenses. También fueron más altas las estimaciones de juicio humano que fueron desde el 4,94 en la etapa de prueba al 5,55 en la de recopilación y presentación, siendo, por tanto, superior a la hipotetizada antes del estudio. Se encontrarán correlaciones positivas entre las estimaciones de error y la del juicio humano en todas las etapas, lo que significa que mientras más creyera el participante que estaba involucrado el juicio humano, mayor era la probabilidad de que ocurriera un error.

Los resultados mostraron que no había correlaciones significativas entre los hábitos de visualización de series de crímenes y las estimaciones de error. Se descubrió que los hábitos de ver series solo se correlacionaban negativamente de manera significativa con la etapa de almacenamiento y la de prueba. Lo que contradicen la H2 y la teoría del efecto CSI.

En lo relacionado a la precisión y fiabilidad de las técnicas forenses, en general son bastante buenas. Varían de unas a otras, siendo de las más bajas el análisis de documentos que obtendría un 65,18% y la más alta sería el ADN con un 89,95%. Estos resultados contradicen la H3.

En relación a la influencia del juicio humano en cada proceso sólo se obtuvieron los resultados esperados para el análisis de ADN. Los demás estuvieron por encima de los cuatro puntos esperados, llegando a 5,72 en el caso de análisis de documentos. En lo relativo a las correlaciones de exactitud y juicio humano para cada prueba, solo cinco de las 16 (sangre, ADN, documentos, dactiloscopia e imagen) se correlacionaban de manera negativa, por lo tanto, para otras pruebas los participantes que creían que era más procesos, también creía que había menos juicio humano involucrado.

En lo relativo a la H4, no hubo una correlación significativa entre los hábitos de televisión y la precisión de las pruebas. Además, se encontró tres correlaciones positivas significativas entre la visualización del crimen y el juicio humano (ADN, dactiloscopia y toxicología) que no siguen la dirección esperada. Por tanto, estos resultados contradicen la hipótesis planteada.

La última hipótesis hace referencia a que la tasa de error general de todas las etapas superará el 100, aunque la tasa de cada técnica fuese baja. Curiosamente ya desde la segunda fase (almacenamiento) rondaba el 80% superando el 100% en la tercera (prueba), la tasa total fue del 248,56%. En contraste, la tasa de error por técnicas fuera del 10,05% del ADN al 34,82% del análisis de documentos. Estos resultados apoyan la hipótesis y demuestran que los participantes ignoraron completamente sus estimaciones previas sobre las tasas de error en cada etapa del proceso cuando se les pidió que hicieran juicios sobre la precisión de las técnicas específicas.

Como se ha visto los resultados fueron sorprendentes, ya que los participantes creían que había una probabilidad sustancial de error en cada fase del proceso forense. Una explicación a esto puede ser el sistema novedoso de preguntar por cada etapa en vez de por el conjunto lo que le hizo reflexionar más en profundidad. También pudo influirles que las respuestas se tuvieran que dar a través de una barra oscilante que veían predeterminada en el 50% y ya se ha demostrado que los anclajes condicionan. Igual de sorprendentes fueron las estimaciones tan altas relativas a la influencia de juicio humano en cada etapa, ya que generalmente esta ciencia está más relacionada con la tecnología que con la intervención humana.

Aunque se correlacionó positivamente las estimaciones de error con la de juicio humano (cuanto más creía que esta involucrado el juicio humano, creía que había más error) no se ha podido establecer una correlación consistente entre ambos fenómenos.

A pesar de que tampoco se obtuvieron los resultados, por encima del 90%, que se esperaba en la precisión de la prueba. Todos los participantes creyeron que todas las pruebas eran significativamente mejores que la casualidad. La más precisa fue el ADN (89,95%) aunque sigue siendo un resultado bastante menor del esperado.

Este estudio muestra muy poco apoyo al efecto CSI, el cual asume que aquellos que ven series relacionadas con crímenes tendrán diferentes creencias y percepciones sobre las ciencias forenses que aquellos que no los ven. Sin embargo, en este estudio no se encontrarán correlaciones entre la visualización de series y las estimaciones de error para ninguna etapa del proceso forense ni para ninguna de las técnicas.

Es importante tener en cuenta que, aunque los hábitos de consumo de series criminales no estaban relacionados con sus estimaciones de precisión, este estudio demuestra que las personas no tienen una comprensión sólida de la precisión de las técnicas forenses, siendo algunas exageradas y otras subestimadas. Esto demuestra que los jurados pueden llegar a un juicio con creencias preexistentes potencialmente inexactas sobre la ciencia forense que puede afectar a su evaluación de los informes y pruebas, así como al veredicto del mismo.

Enfoque cognitivo para la detección de mentiras. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A cognitive approach to lie Detection: A meta-analysis” de Vrij, Fisher y Blank; en él hacen un metaanálisis sobre el enfoque cognitivo para la detención de mentiras. Se centra en tres técnicas: imponer una carga cognitiva, alentar a los entrevistadores a decir más y hacer preguntas inesperadas.

El enfoque cognitivo para la detección de las mentiras parte de la observación de que mentir es más agotador mentalmente que decir la verdad. Para llevar a cabo este análisis se tuvieron en cuenta los estudios que se centraban en detectar la mentira a través de la observación del comportamiento de alguien o escuchando el discurso de una persona cuando no hay de fondo otra información relevante.

Esta teoría se centra en que se pueden magnificar las diferencias en las señales (no)verbales indicativas de la carga cognitiva mostradas por las personas sinceras y los mentirosos a través de intervenciones sobre los principios cognitivos que hacen que la tarea de mentir sea aun más exigente cognitivamente. Las estrategias que pueden ayudar a la detección de mentiras serían. Imponer una carga cognitiva, alentar a los entrevistados a proporcionar más información y hacer preguntas inesperadas.

Imponer una carga cognitiva hace alusión a hacer que las entrevistas sean más difíciles mentalmente. Al mentir se gastan más recursos cognitivos, al aumentar la dificultad mental se reducen los recursos, si se sigue aumentando puede llegar el momento en que no sean capaces de hacer frente a las solicitudes que se les hagan y por tanto no poder mentir. Algunas de las tácticas que se usarían serían: contar sus historias en orden inverso, mantener el contacto visual con el entrevistador, hacer dos tareas simultáneamente (coger algo y hablar) o si hay varias personas contar su historia por turnos según vaya decidiendo el entrevistador.

Pedir más información, por un lado, sirve para contrastar detalles o encontrar nuevas pistas, y, por otro lado, a los mentirosos les podría resultar complicado añadir más detalles que a los sinceros. Además, los detalles que añaden pueden ser de menor calidad o ser menos creíbles. Hay cuatro estrategias que funcionan para forzar el añadir más detalles: el uso de otro investigador adicional, el dar una respuesta modelo (que tenga muchos detalles), el uso de dibujos y la aplicación de la entrevista cognitiva.

La última técnica mencionada, el hacer preguntas inesperadas, se basa en que los mentirosos se preparan previamente las respuestas en base a las preguntas que creen que les harán, ya que eso hace que mentir tenga una menor carga cognitiva. El hacer una pregunta inesperada les obligará a crear una respuesta en ese mismo momento y ahí presentarán mayores niveles de carga cognitiva mientras que los sinceros tendrán los mismos niveles para las respuestas esperadas como para las inesperadas.

Para comprobar su efectividad se calculó el tamaño del efecto reflejando la diferencia en las tareas de precisión obtenidas con los enfoques estándar y de detección cognitiva de la mentira. Y luego se integraron siguiendo la metodología metaanalítica estándar. Se realizaron los cálculos separando la precisión de detección de la verdad y de la mentira para posteriormente sacar también la precisión total. Se utilizaron de medición los odd ratio y la d de Cohen.

Para incluirse en el metaanálisis los estudios debían cumplir los siguientes criterios de inclusión: emplear alguna forma de manipulación de detección cognitiva de la mentira e informar de alguna medida de exactitud de detección de mentira. En total se obtuvieron 14 estudios experimentales que reunían esas condiciones.

Como resultados se encontró que el enfoque de detección de mentiras cognitivas era superior al enfoque estándar para las tres medidas de precisión de detección. Para la verdad fue de 67% frente al 57%, para la mentira fue de 67% frente al 47% y para el combinado fue de 71% frente al 56%. Este porcentaje de detección estándar del 56% se encuentra muy próximo a la tasa del 54% que se encuentra típicamente en la investigación del engaño (Bond y DePaulo, 2006), sin embargo, el enfoque cognitivo es bastante superior con un 71%.

Se analizó también si los juicios sobre la precisión eran realizados por humano o por algoritmos, y la efectividad de las técnicas cognitivas mencionadas anteriormente. Los resultados basados en los odd ratios y en la d de Cohen mostraron que la manera de tomar decisiones (humanos o algoritmos) no importaba mucho para la precisión final. Para la precisión de la verdad funcionaba mejor el enfoque cognitivo cuando está basado en criterios objetivos y mostró una escasa ventaja sobre el enfoque estándar para los observadores humanos. Lo contrario ocurría con la detección de la mentira, el enfoque cognitivo funcionaba mejor cuando los jueces eran humanos. Esto puede ser debido a que las personas presentamos un sesgo de verdad, tendemos a pensar que la persona objetivo está diciendo la verdad y por ello, para los humanos hay un mayor margen de mejora para aumentar la precisión de la mentira.

En lo que respecta a las técnicas empleadas no tuvieron un efecto moderador significativo en la precisión total. Para la detección de la verdad la técnica más efectiva fue alentar a los entrevistados a decir más, seguido de las preguntas inesperadas y, por último, imponer una carga cognitiva. Por el contrario, para la detección de la mentira la más eficaz fue imponer una carga, seguida de hacer preguntas inesperadas y, por último, alentar a decir más.

Estos resultados coinciden con la justificación teórica. Alentar a los entrevistados a decir más animaría particularmente a los que cuenta la verdad a hablar más. Debido a ello se obtienen mejores resultados con esa técnica cognitiva que con la estándar en la detección de la verdad. Además, se señaló que los mentirosos tendrían mayores problemas al hacer frente a una carga cognitiva, como se ha demostrado, lo que significa que también las técnicas cognitivas tienen mejores resultados que la técnica estándar para la detección de la mentira.

En resumen, los hallazgos metaanalíticos confirmaron la superioridad del enfoque de detección cognitiva de la mentira. Condujo a una mejor precisión de detección total (71% vs 56%), una mejor detección de la verdad (67% vs 57%) y de la mentira (67% vs 47%) que el enfoque estándar. Los humanos se beneficiarán más de la detección cognitiva de mentiras. Además, se demostró que cada técnica tiene una ventaja diferente, siendo más eficaz la carga cognitiva para detectar mentiras y el alentar a hablar para detectar la verdad.

En cuanto a la aplicación de estas técnicas se recomienda que sean basadas en un contexto de entrevista de recuperación ininterrumpida y no en el típico acusatorio de la policía, basado en el falso mito de que el sospechoso no quiere hablar. Además, se ha demostrado que el enfoque de recuperación ininterrumpida aumenta significativamente la probabilidad de una confesión verdadera y disminuye la probabilidad de confesiones falsas con respecto a la técnica acusatoria.

Auqnue es verdad que la técnica cognitiva mejora la detección, sus índices no superan el 70%, lo que hace que todavía tenga un gran margen de mejoría y que no sea útil en su aplicación en el uso clínico o para la detección masiva en los controles fronterizos, ya que en esos casos su tasa de error tendría que ser mucho más baja. Pero este es un problema que ninguna herramienta de evaluación actual ha conseguido resolver.

Técnica y actitud del entrevistador y confesiones falsas. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The combined effects of questioning technique and interviewer manner on false confessions” de Paton, Bain, Gozna, Gilchrist, Heim, Gardner, Cairns, McGranaghan y Fischer; en él que se realiza un examen empírico sobre como afecta de forma combinada tanto la técnica de interrogación como la actitud en la que la realiza en entrevistador sobre las confesiones falsas.

Primeramente, se realizó un estudio piloto donde se pretendía comprobar cuál era la influencia de las diferentes actitudes que mantenía el entrevistador. Para ello se utilizó una muestra de 104 estudiantes universitarios que se sometieron a una entrevista severa o amistosa y clasificaron el comportamiento de los entrevistadores con una escala de Likert de cinco puntos para evaluar el grado en que los entrevistadores mostraban 18 actitudes: nervioso, severo, amigable, comprensivo, asertivo, confiado, organizado, profesional, firme, respetuoso, positivo, formal, cálido, severo, organizado, efectivo, autoritario, competente y negativo. También se utilizó otra escala de Likert, en este caso, de once puntos para evaluar el grado en que los participantes experimentaron presión para confesar.

Para poder llevar a cabo las entrevistas cuatro estudiantes universitarios varones fueron entrenados por el investigador principal para realizar los interrogatorios después de una denuncia falsa de robo. Realizaron las entrevistas siguiendo un guion preparado.

Después se realizó el estudio principal, los participantes creían que era un experimento sobre los rasgos de personalidad y su relación con el desempeño en las tareas. Para poder llevarlo a cabo se utilizó una muestra de 120 miembros (53 hombres y 67 mujeres) de edades comprendidas entre los 16 y los 62 años, con una edad media de 28 años. Cada uno de los participantes era evaluado individualmente y tenían que contestar los dos cuestionarios del estudio piloto. Al acabar recibirían un cheque de regalo de diez libras. Los cheques estaban en la mesa que tenían enfrente. En un determinado momento del experimento el miembro del equipo que estaba con ellos abandonaba la sala dejando solos a los participantes. Al volver aseguraba que faltaba uno de los cheques y acusaba del “robo” a los participantes.

Pasados unos dos minutos entraba uno de los entrevistadores. Se presentaba como miembro del equipo de investigación e informaba al participante de que tenía que llevar a cabo unas preguntas sobre el asunto del cheque. Estas entrevistas se daban bajo dos condiciones, amistosa o severa. En la condición amistosa el entrevistador para establecer una buena relación y parecer cálido y amistoso se presentaba usando su nombre, mantenía contacto visual, sonreía y adoptaba una postura relajada. En la condición severa para parecer formal y abrupto usaba su nombre completo, no sonreía y adoptaba una postura severa y autoritaria. A continuación, en ambas condiciones, se le pedía al participante que contaran con sus propias palabras el suceso mientras tomaban notas. Después de esta fase de recuerdo libre el entrevistador realizaba una serie de preguntas prestablecidas en el guion, donde también tomaban nota de la respuesta. Además, de las dos condiciones había cuatro variantes de preguntas en cada una: minimización, preguntas repetitivas, preguntas guiadas y preguntas no guiadas. En la primera de ella se hacían afirmaciones del tipo “no te preocupes” o “estoy seguro de que no se dio cuenta de que esto era un tema importante”. En la segunda, se preguntaba hasta seis veces si había cogido el vale. En la tercera era del estilo “los cheques estaban claramente visibles en la mesa, por lo que hubiera sido fácil coger uno ¿no?”. En la última, se utilizó una aproximación propia del método PEACE.

Después de la fase de preguntas se hizo un resumen de todo lo que le habían contado y se les preguntaba si quería añadir algo más. Más tarde, tendían que firmar su declaración y un documento “aceptando la responsabilidad por el vale faltante”. Aquellos que no lo firmaron a la primera se les insistió dos veces más. Al acabar el interrogador abandonaba la sala y volvía el investigador que les informaba sobre las intenciones reales del experimento y se las pedía que completaran las dos escalas antes mencionadas.

Al realizar un análisis multivariado se encontró diferencias significativas en las calificaciones entre las condiciones del entrevistador severo y el amigable en cuatro de los 18 componentes analizados. Lo más severos fueron juzgados como más duros y severos. Los amistosos destacaron en simpatía y comprensión.

Ninguno de los participantes confesó falsamente durante la etapa del interrogatorio de la entrevista. Cada confesión falsa se obtuvo cuando se le pidió que firmará la confesión. En total se consiguieron 37 declaraciones falsas: 14 de ellas fueron a través de preguntas no dirigidas (9 amistosas y 5 severas), diez fueron con la minimización (7 amistosas y 3 severas), 9 fueron con preguntas guiadas (5 severas y 4 amistosas) y 4 con preguntas repetitivas (2 amistosas y 2 severas). Hay que destacar que el modelo repetitivo fue estadísticamente significativo, ya que con cada aumento unitario del mismo se asociaba con una disminución de la probabilidad de conseguir una confesión falsa.

La interacción entre la actitud del entrevistador y la técnica no fue significativa en relación a la presión para confesar. Aquellos que confesaron calificaron el interrogatorio con un grado de presión más alto que aquellos que no confesaron.

Este estudio es una primera aproximación a los efectos de combinar la actitud del entrevistador más la técnica usada. Casi un tercio de los participantes firmaron la confesión falsa y la mayoría confesaron inmediatamente cuando se les presentó la declaración. Lo hicieron a pesar de la falta de evidencia incriminatoria, en ausencia de presión externa y a pesar de no ser conscientes de las consecuencias de confesar.

En relación a las técnicas, contrariamente a lo que se esperaba, la condición de preguntas no guiadas fue la que obtuvo un mayor número de confesiones falsas. Esta técnica a pesar de no ser coercitiva puede ser manipuladora psicológicamente. Si los participantes se sintieron cómodos y creyeron que habían establecido confianza con el entrevistador, aumentaría la vulnerabilidad para cumplir con la solicitud de firmar la confesión falsa. Por el contrario, el cuestionamiento repetitivo fue el que menos confesiones falsas provocó. La inferencia de culpabilidad transmitida al preguntar repetidamente a los participantes si habían cogido un cheque pudo haber provocado una oposición, alentando a la negación contra el mismo. Si los participantes se sintieron ofendidos en vez de intimidados pudo ser lo que hizo que no confesasen. Por tanto, puede ser que las preguntas repetitivas tengan un efecto antagónico y reduzca el riesgo de confesiones falsas.

El que las actitudes del investigador no tuvieran un efecto significativo en las confesiones falsas pudo deberse a las manipulaciones experimentales. La naturaleza potencialmente estresante del experimento pudo hacer que los participantes tuvieran una percepción más negativa del entrevistador amigable y, además, varios de los comportamientos del cuestionario eran parecidos y difíciles de diferenciar.

También hay que destacar que en este experimento los entrevistadores severos obtuvieron menos confesiones falsas de lo que se esperaba. Esto puede explicarse porque al exponerse a alguien percibido como hostil y grosero provocaba sentimientos de molestia y de falta de respeto lo que redujo la posibilidad de cooperación y aumentó la resistencia a la confesión.

Curiosamente la actitud amistosa más la técnica de las preguntas no guiadas fue la que obtuvo puntuaciones más altas en cuanto a presión por confesar. Esto puede deberse a que la actitud informal y comprensiva del entrevistador combinada con la ausencia de preguntas coercitivas creaba una forma sutil de manipulación psicológica que provocó que los participantes experimentaran una alta presión por confesar y firmar así la declaración falsa.

Se recomienda, por tanto, una investigación futura más exhaustiva sobre los factores que hacen que se produzca una confesión falsa.

Estudio de pinturas de uso doméstico con espectroscopia infrarroja. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A Random object – oriented population study of household paints measured by infrared spectroscopy” de Falardeu, Moran y Muehlethaler; en él nos hablan sobre las características de las diferentes pinturas para el hogar que existen a través de un análisis con espectroscopia infrarroja.

Para realizar el estudio se escogieron 166 muestras de diferentes pinturas de uso doméstico de varias regiones de Quebec. Se extrajeron de una planta de residuos y eran restos de pinturas usadas en las casas de los habitantes de la zona. Esto hace que el estudio sea de población aleatorio, pero también hace que sea representativo en cuanto a la moda y las tendencias de color en ese ámbito. Las muestras se tomaron en portaobjetos que se dejaron secar 24 horas. De cada muestra se recogió información sobre la tienda, marca, modelo, número de lote y composición de la pintura.

Las mediciones de la espectroscopia infrarroja se realizaron con un Thermo Fisher Scientific Nico equipado con espectrómetro FTIR con un detector de sulfato de triglicina deuterado de recuperación rápida (DTGS) y el software OMNIC 8.1. De cada muestra de pintura se midieron siete réplicas independientes.

El primer paso fue la clasificación visual de los espectros a través de los picos principales de su composición química. Clasificándose, en primer lugar, por el tipo principal de resina, y posteriormente, por los subtipos de aditivos. El segundo paso fue la comparación de espectros dentro de cada categoría, viendo si son distinguibles. Los criterios usados para la diferenciación espectral fueron la apariencia general del espectro y la superposición existente entre los dos especímenes, así como la posición, presencia o ausencia e intensidad relativa de los picos. A parte de esta comparativa visual también se realizó una discriminación estadística según el análisis de los componentes principales en un proceso semiautomático.

Las pinturas analizadas se separaron primeramente según el color en: gris, blanco, azul/turquesa, verde/caqui, marrón/tostado, beige, naranja/amarillo, púrpura, negro, rosa/rojo y transparente. Dentro de cada color se podía diferenciar por tonos, pero se consideró más útil una diferenciación más genérica. Las proporciones obtenidas para cada color son: gris 23,49%, blanco 23,49%, azul 10,84%, verde 10,84%, marrón 6,63%, beige 5,42%, naranja 4,82%, morado 4,82%, negro 3,61%, rojo 3,61% y transparente 2,41%. Se compararon estos datos con otros dos estudios que se habían realizado previamente en EE.UU. y en Gales, con muestras mayores y los porcentajes por colores se correspondían mayoritariamente, a excepción del gris que en este caso era un 23,49% de la muestra mientras que en los otros dos estudios fueron el 7% y el 7,2%. El blanco también obtuvo resultados diversos siendo en este estudio bastante menor (23,49%) que, en los otros dos, donde consiguió porcentajes del 52% y el 25,8%. El verde también tuvo una presencia mayor en el estudio de Gales donde obtuvo un 25,8% frente al 10,84% de este estudio o al 10,21% del estudio de EE.UU.

La segunda clasificación de las muestras se realizó en función de la marca. En total fueron 28 marcas diferentes, siendo la más habitual Sico (41 muestras), seguida de Benjamin Moore y Rona con 22 muestras. Considerando solo la marca este estudio muestra una variedad del 89%, con 117 pinturas representadas por las seis marcas más comunes. Si, además, se tienen en consideración los modelos la variabilidad aumenta hasta alcanzar el 98%.

De las 166 muestras que se utilizaron, 47 aparecían una sola vez, 18 aparecieron dos veces y nueve veces apareció la misma pintura de Sico Evolution. Aunque hay que tener en cuenta que para esta clasificación solo se tuvo en cuenta la marca y modelo y no el color en sí mismo, ya que para el grupo de Sico había cinco grises, tres blancas y una verde. Esto se hizo así, porque el espectro infrarrojo generalmente es independiente del color de la muestra.

Por último, se realizó una clasificación en base al uso de la pintura, clasificándose en función del uso que especificaba la lata (interior, interior/exterior, exterior) y la división entre pintura, tinte, barniz u otro (como podía ser imprimación, sellador y esmalte). La mayor parte eran pintura para interiores (77,11%), seguidas de interior/exterior (14,46%) y por último la de exteriores (8,43%). Las proporciones más bajas fueron para los tintes con nueve muestras y los barnices con cuatro.

En cuanto a su composición química las muestras se separaron principalmente en dos grupos, el grupo con aglutinantes acrílicos (81,33%) y el grupo con aglutinante alquídico (18,67%). Después se dividieron según sus aditivos, los principales fueron: carbonato de calcio (CaCO3), silicato de aluminio (AlSi), silicato de magnesio (MgSi), estireno (Sty) y sulfato de bario (BaSu). Esta división se realizó con bibliotecas de espectros. El proceso permite una pronta identificación tanto de la resina principal como del resto de aditivos.

Más de tres cuartas partes de la muestra (135) son de acrílico a base de agua, ya que son una opción más económica para los productores, tiene una durabilidad superior y un uso respetuoso del medio ambiente. Los que tienen como base el aceite, como son los alquídicos, fueron muy populares en las décadas de los 80 y los 90 pero en la actualidad tienen una cuota de mercado muy pequeña. El carbonato de calcio y el silicato de aluminio son los dos aditivos más comunes, aunque esto puede deberse a su absorción en la polarización del compuesto más que a su abundancia cuantitativa en el recubrimiento de la pintura. El análisis mediante el espectro no detectó en la mayoría de los casos diferencias respecto a los componentes enunciados en la lata.

En relación a la comparación visual de los espectros no se tuvo en cuenta el color de la pintura, aunque es obvio que en la vida real sería una variable muy discriminante, se consideró que era mejor analizar los espectros de manera aislada. Esto se hizo así porque hay que tener en cuenta que a veces el pigmento mayoritario no es visible en los espectros de infrarrojos debido a que está completamente enmascarado por la señal del aglutinante y de los aditivos, mientras que puede haber otros pigmentos menores que muestren picos bien definidos e intensos.

Se obtuvo como resultado un 99,68% de discriminación mediante la comparativa de espectros. Siendo este resultado consistente con otros estudios que lo situaban entorno al 94% y el 99,82%. Cuando se consideró el infrarrojo dentro de una secuencia completa de análisis, el poder de discriminación aumentó al 99,99%. El grupo indiferenciado más grande pertenece a acrílicos con CaCO3.

Es interesante que de 43 pares de muestras que presentan espectros similares, nueve pares representan marcas diferentes. Estos pares demuestran una coincidencia aleatoria en las características de los espectros que es involuntaria. Es interesante para demostrar la probabilidad de observar la misma composición en dos pinturas que no están relacionadas.

El poder discriminante del color y la composición química combinada es del 97,79%. También se realizó un análisis con PCA y los niveles de discriminación estuvieron en un 99,94%. Puede parecer más efectivo pero ambas técnicas deberían ser complementarias ya que la PCA puede separar en exceso muestras que se hubieran considerado como indiferenciables.

Desarrollo y validación de la Escala de Ideas de Violencia (VIS). Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Development and Validation of a Brief Measure of Violent Thoughts: The Violent Ideations Scale (VIS)” de Murray, Eisner y Ribeaud; en él se estudia la creación de una escala que permite medir psicométricamente las ideas violentas que son un potente predictor de la violencia.

El tener ideas de violencia puede ser un indicador de riesgo de violencia, por ello se decidió crear una escala que midiera la presencia de estas ideas. Primeramente, para desarrollar las escalas, dos expertos crearon un conjunto inicial de ítems a partir de las teorías de la estructura de la violencia y sus factores comunes. La definición de violencia no es uniforme en la literatura preexistente, en algunos casos se considera los pensamientos de daño físicamente a otros, mientras que otros estudios consideran no solamente el daño físico a la persona sino también la agresión verbal o la destrucción de la propiedad. En lo que sí están de acuerdo es en que la violencia imaginada se sienta como real. Por tanto, para este estudio se decidió incluir una definición amplia donde tuviera cabida tanto el daño físico, como no físico pasado por la violencia sexual o el daño a uno mismo.

Posteriormente, del grupo de ítems se seleccionó un subgrupo que fue el que se administró a los participantes, elegidos en base a su claridad, contenido, validez nominal y con el objetivo de abarcar todas las áreas antes descritas.

Se pidió a los participantes que informaran de la frecuencia de los ítems durante el último mes. Se utilizó una escala tipo Likert de cinco puntos que iba del “nunca” al “muy a menudo”.

La prueba se realizó sobre una muestra de 1.276 jóvenes suizos de 17 años de edad (629 chicas y 647 chicos). Eran el resultado de un muestreo estratificado aleatorio de 56 escuelas en Zúrich, teniendo en cuenta la ubicación y tamaño de la escuela.

Se usó un análisis de la Características del Operador Receptor (ROC) para evaluar si el VIS podía servir para la identificación de personas violentas. Estas personas fueron definidas como aquellos que han portado armas, han extorsionado, robado o asaltado de acuerdo al autoinforme en los últimos doce meses. Este análisis se utiliza para descubrir el poder discriminatorio general de una escala o para definir el punto de corte óptimo en las clasificaciones de grupos que se realicen en base a esa escala. También se analizó la sensibilidad y la especificidad, la primera de ella se refiere a la proporción de individuos que están correctamente asignados a la clase violenta (verdaderos positivos). Mientras que a especificidad se refiere a la proporción de individuos catalogados en la clase no violenta (verdaderos negativos). El resultado puede variar del cinco (clasificación al azar) al uno (clasificación perfecta).

Los elementos analizados fueron: suicidio, homicidio, venganza violenta, lesión grave, golpear sin razón, matar insultando, humillar, desnudarse, matar, acoso, violencia sexual, responder agresivamente, golpear al ser provocado, infligir dolor, golpear por estar enfadado.  La mayor parte de las respuestas fueron “nunca”, menos una pequeña porción de “muy a menudo”.

Las soluciones factoriales sugirieron que tanto la ideación de agresión sexual como la ideación suicida podrían distinguirse de las ideas que implica agresión. Por tanto, se excluirá los análisis de las ideas suicidas o de la agresión sexuales. Sin embargo, no se encontró ningún indicio de que deberían separarse las ideas de agresión no física de las de agresión física.

Los elementos de carga más altos se refieren a infligir lesiones, mientras que los elementos de carga más bajos se refieren a la intimidación. Los ítems referidos al homicidio tienen cargas intermedias. El modelo se ajustó utilizando la estimación MC en Mplus 7.0, mostrando un ajuste razonable.

El VIS también se asoció significativamente con todas las construcciones incluidas. Las asociaciones más fuertes fueron con otras cogniciones relacionadas con la agresión y con el comportamiento agresivo en sí. Fue menos fuertemente relacionado con la victimización. En lo relativo al comportamiento agresivo, se relacionó aproximadamente igual con la agresión proactiva y la agresión reactiva.

Los resultados muestran los factores más altos en relación a la violencia física no letal, como infligir dolor o lesiones graves. Por el contrario, las ideas de violencia sexual como la violación o el desnudarse parecen no guardar relación con las ideas de violentas, teniendo que considerarse un fenómeno aparte, aunque los resultados en este punto son ambiguos. Las razones son: en primer lugar, se informó muy pocas veces de ideas relacionados con la violencia sexual y en segundo lugar las pruebas estadísticas de la dimensión no fueron unánimes. Por ello, las estructuras de la ofensa sexual no se consideran jerárquica, con influencias tanto generales como específicas, lo que conlleva ambigüedad sobre su inclusión con el resto de ideaciones violentas. Se recomienda un estudio más profundo con un mayor número de ítems relacionados con el tema ya que en esta versión del VIS sólo hay dos ítems.

En relación a las diferencias entre sexos, se obtuvieron algunas, los ítems 3 (venganza violenta), 5 (golpear sin razón) y el 7 (humillar) destacaron especialmente. Las diferencias eran pequeñas en términos prácticos y no introducirían sesos. La mayor diferencia fue presentada en la venganza violenta (ítems 3), siendo mayor en hombres que en mujeres, esto se relacionaría con lo que los estereotipos relacionan con la masculinidad.

La invarianza de sexos es importante ya que las diferencias de los comportamientos violentos es un problema importante: los hombres superan ampliamente a las mujeres como perpetradores de violencia. Mientras que los hombres son responsables del 80% de los homicidios apenas hay diferencias con las mujeres en las puntuaciones del estudio VIS.  Estas diferencias de sexo pueden ayudar a iluminar los mecanismos casuales en la violencia y ayudar en la prevención.

La distribución de la puntuación de la suma derivada del VIS estuvo sesgada hacia niveles bajos de ideación con el 40% de los encuestados que no reportaron ninguna. Esto puede indicar la existencia de una subpoblación de individuos que no tienen nunca o muy escasamente ideas de violencia. Aunque, también esta la posibilidad de que la escala no contará con ítems suficientemente “leves” para poder captar estas ideas menos violentas. Por lo cual, se recomienda realizar otras investigaciones que incluyan más ítems que los doce actuales y pueda comprobar si se trata de una carencia en las pruebas originales o que existe una parte de la población que no tiene ideas violentas. Estos ítem pueden estar relacionados con la afectación pasiva a unas personas, como el abuso verbal o psicológica. Además, habría que tener en cuenta la posibilidad de que el tiempo de la investigación (un mes) hubiese sido escaso y que un análisis más extenso en el tiempo pueda tener más incidencias.

Se realizó un análisis ROC para buscar el punto de corte que diferenciará entre aquellos que se involucraban en la violencia y aquellos que no. Este punto se estableció en el 15.5, que fue el que presentó mayor equilibrio entre sensibilidad y especificidad.

A pesar de tener una buena capacidad de discriminación, entre los que ejercen violencia y los que no la Escala de Ideas de Violencia no puede ser la única fuente para tomar decisiones de alto nivel. La recomendación es usarla como una herramienta más que brinde información sobre la estimación del riesgo en el uso de la violencia.

 

Factores de riesgo en el feminicidio. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Intimate Femicide: The Role of Coercetive Control” de Johnson, Eriksson, Mazerolle y Wortley; en él se estudia diferentes factores de riesgo que se relacionan con el feminicidio, destacando entre ellos las conductas de control coercitivo.

El feminicidio es un tema de actualidad, con este estudio se busca realizar un análisis de los diferentes factores de riesgo, centrándose especialmente en las conductas de control coercitivo. Para ello, en este estudio se analizaron las historias de una muestra de condenados por matar a su pareja íntima en Australia. Utilizándose los datos del Australian Homicide Project, que contenía información de 302 delincuentes condenados por homicidio, siendo el 87% varones y el 13% mujeres. De esta muestra se utilizaron los referentes a 68 hombres que habían sido condenados por matar a sus parejas íntimas femeninas.

Lo que proponían los investigadores era examinar las variables que distinguían a los homicidas de género que habían sido violentos previamente de aquellos que no lo habían sido. Para ello se utilizó la Escala Revisada de Tácticas de Conflicto (CTS-2) que midió los niveles de agresión física y sexual en los doce meses previos al homicidio. También, se utilizaron preguntas combinadas sobre amenazas de muerte y uso de violencia en el año anterior. La muestra quedó dividida a partes iguales entre los hombres que declararon haber usado la violencia (34) y aquellos que no (34).

Se analizaron muchas de las variables que la literatura anterior destacó como influyente, como son: las características personales del autor, las experiencias de violencia en la infancia, el uso del control coercitivo hacía la víctima y el historial criminal. Las características personales del autor incluían datos relacionados con: educación, dificultades económicas, separación o amenaza de la misma, infidelidad o sospecha de ella, la presencia de hijastros, tratamientos médicos o psiquiátricos, intentos autolíticos, problemas de abuso de alcohol o drogas.

En la muestra del estudio un tercio había terminado la educación secundaria. En el año anterior al crimen la mitad de la muestra tenía problemas económicos y estaban separados o sus parejas les habían amenazado con la separación. Un tercio de la muestra afirmaba que sabía o sospechaba que su pareja le era infiel. Un cuarto de los 68 hombres convivía con hijastros y un 16% había recibido tratamiento médico o psiquiátrico en el último año. Un porcentaje similar había intentado suicidarse y tres de cada diez hombres tenía un problema con el abuso de las drogas y el alcohol. El 40% de la muestra manifestó haber sido víctima de abuso físico o sexual en la infancia y una quinta parte de sus padres habían sido violentos con sus madres. Dos tercios tenían antecedentes violentos y un tercio había cometido su primer crimen antes de los 13 años. La mitad de ellos habían sido violentos en el hogar el año anterior al feminicidio y una quinta parte también había presentado esa conducta violenta fuera del hogar.

Para medir las tácticas coercitivas y de control que usaban los homicidas se utilizaron tres herramientas diferentes y un indicador adicional. La primera de ellas fue la Escala de Titularidad y Propiedad Relacional (REPS), que consta de 28 ítems como lo siguientes: “tengo derecho a contactor con los amigos de mi pareja para ver cómo actúa sin mí; miro el cajón, el bolso o los bolsillos de mi compañero; si mi pareja me abandona me aseguraré de que se arrepienta”. La segunda herramienta utilizada fueron los ítems relacionados con el control psicológico que se encuentra dentro del CTS- 2, que incluyen cuestiones como el insulto, la amenaza o la destrucción de propiedad. La tercera herramienta, fue una modificación de la Escala Provocadora de Malestar de Salovey y Rodin, que evalúa los celos y el dominio durante la relación romántica. En ella se puede encontrar diferentes situaciones como una cena con otro hombre atractivo, bailar pegado a un amigo o ver a una persona con la que se mantuvo una relación en el pasado. Por último, el indicador hace alusión a la conducta de acoso a la víctima durante el año anterior al homicidio.

En lo relativo al control, la mitad de la muestra eran controladores, dos tercios habían tenido conductas de abuso psicológico, una cuarta parte de la muestra tenían altos niveles de celos y una quinta parte declaró haber acosado a la víctima antes de matarla.

Los hombres que no habían sido violentos antes del homicidio tenían más posibilidades de haber acabado la escuela secundaria y presentaban menos posibilidades de estar separados o de haber sido amenazados con ello, al igual que de tener problemas con el alcohol o las drogas y de haber crecido en un hogar violento. También, eran más bajos en dos de los indicativos de control coercitivo como son el abuso psicológico y el acoso a la víctima. Al igual que tenían índices menores de antecedentes penales. Por el contrario, los dos grupos tenían niveles parecidos de sospechas de infidelidad, convivencia con hijastros, tratamientos de salud mental y tasa de suicidio.

Estos resultados coinciden con otros estudios llevados a cabo en otras partes del mundo, como el que se realizó en Gran Bretaña (Dobash, Dobash y Cavanagh, 2009), donde los datos obtenidos mostraban que los hombres que no tenían antecedentes por violencia de género eran más “convencionales”: poseían una educación superior, mantenían una mejor relación, no tenían problemas de abuso de sustancias y sus infancias no fueron problemáticas. También presentaban niveles más bajos de control psicológico y acoso, aunque sí que presentaban celos.

Si bien es cierto que en general los hombres con antecedentes de violencia de género presentaban mayores niveles de control coercitivo, el 62% de los que no tenían antecedentes también reconocían haber usado alguna técnica de control sobre las mujeres que acabaron matando. Una quinta parte de estos hombres tenían una orden de alejamiento que les impedía acercarse a su pareja o la policía se había tenido que personar en su domicilio por algún tipo de incidente. Aunque no hubieran sufrido agresiones directas las mujeres estaban lo suficientemente atemorizadas como para pedir protección policial. Estas intervenciones, como ha quedado claro con el homicidio, han sido del todo ineficaces.

Por tanto, se puede concluir que, aunque una presencia clara de un comportamiento de control o de acoso puede ser precursor de un homicidio de violencia de género, comportamientos menos evidentes, sin agresiones directas, también pueden ser indicadores de riesgo de este tipo de conducta.  Este último tipo de comportamiento puede ser pasado por alto por la justicia, ya que no deja evidencias tan claras como una agresión física. Esto lleva a pensar que las evaluaciones de riesgo a veces pueden pasar por alto comportamientos de acoso que clasifican como “menores” y que pueden indicar un riesgo de homicidio.

« Siguientes entradas