clubforenses.com

clubforenses.com

Vincular delitos contra la propiedad a través del comportamiento del delincuente en la escena del crimen. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Linking property crime using offender crime scene behavior: A comparision of methods” de Tokin, Lemeire, Santtila y Winter; en él hacen una comparativa entre la capacidad de siete modelos estadísticos para diferenciar delitos contra la propiedad vinculados de aquellos que no lo están.

El estudio compara siete modelos estadísticos diferentes que se derivan de los tres enfoques más comúnmente utilizados en la investigación conductual: el análisis de regresión logística binaria, el análisis de árbol de clasificación y el modelo probabilístico/bayesiano. Estos enfoques se aplican sobre tres conjuntos de datos: robos residenciales cometidos en Finlandia, robos de automóviles cometido en Reino Unido y robos comerciales cometidos en Finlandia. Este estudio contribuye a determinar cual es el método estadístico más apropiado para vincular los delitos a través del comportamiento del delincuente, siendo novedosa la aplicación estadística a la vinculación del comportamiento criminal.

Para llevarlo a cabo se utilizaron datos de 160 robos residenciales cometidos por 80 ladrones en serie en la región del Gran Helsinki de Finlandia entre 1990 y 2001. Se seleccionaron al azar dos delitos por delincuente del total de crímenes que hubieran cometido en ese periodo. Para cada robo se registraba: ubicación del delito, hora y día de la semana en que se cometió, tipo de propiedad robada, método de entrada, el comportamiento de búsqueda del delincuente una vez dentro y el valor de los objetos robados. Los datos utilizados para el robo de coches fueron los procedentes de 376 delitos de robo de vehículos cometidos por 188 ladrones en serie en Northamptonshire, en Reino Unido entre enero de 2004 y mayo de 2007. Se registró: ubicación del robo, el tipo de automóvil, los años del vehículo y el estado físico en el que se recuperó el coche. En lo referente a los robos comerciales se utilizaron 118 cometidos por 59 ladrones en serie en la región de Gran Helsinki en Finlandia entre 1991 y 2002. Se seleccionaba al azar dos delitos por delincuente. Se registró: ubicación, tipo de negocio, hora y día en que se produjo, el uso de disfraz, el uso de armas, el número de delincuentes, el uso de violencia, el idioma utilizado y el tipo y coste de la propiedad robada.

Después de recoger los datos se crearon una serie de dominio de comportamiento para cada tipo de crimen. Para el robo de residencias: características objetivo, comportamiento de entrada, comportamiento en el interior, propiedad robada, distancia entre delitos y proximidad temporal. Para el robo de vehículos: opciones de selección de objetivos, comportamiento de adquisición del objetivo, comportamiento de eliminación y distancia intercrímen. Para el robo comercial: opciones de selección de objetivos, conductas de planificación, conductas de control, propiedad robada, distancia entre delitos, proximidad temporal, diferencia de el valor de los artículos robados y conducta de aproximación.

A continuación, se crearon pares de delitos vinculados que contenían dos delitos cometidos por el mismo autor y parejas no vinculadas que contenían delitos cometidos por diferentes delincuentes. De los 160 delitos de robo residenciales se crearon 80 parejas vinculadas y 12.640 parejas sin vincular. De los 376 robos de automóviles, se crearon 188 parejas vinculadas y 70.312 sin vincular. De los 118 robos comerciales se crearon 59 parejas vinculadas y 6.844 sin vincular. Estos representaban todas las posibilidades. Para cada par de delitos se calculó la distancia entre los crímenes, un valor de proximidad temporal y/o un coeficiente de Jaccard, que indica la similitud o no del comportamiento. Estos fueron las variables predichas de los análisis subsiguientes.

Se utilizaron tres tipos de modelos estadísticos: los modelos de regresión logística, los modelos de árbol de clasificación y los modelos probabilísticos. En cuanto a los modelos de regresión logística se probaron los dos presentes en Weka: el SimpleLogistic y el Logistic. En lo referente a los modelos de árbol de clasificación se estudiaron los disponibles en Weka: el J48, el árbol de modelo logístico y el modelo de RandomForest. Para terminar, en los modelos probabilísticos se utilizaron: el BayesNet y el Naive Bayes. Todos estos análisis se utilizaron para generar un valor de probabilidad predicho para cada conjunto de datos de cada par de delitos, lo que indica la probabilidad pronosticada de que los dos delitos de cada par fueran cometidos por la misma persona. Posteriormente, se crearon curvas características (ROC) que permitieron comprobar la precisión con la que los distintos modelos estadísticos podrían distinguir entre pares de delitos vinculados y no vinculados.

Los modelos basados en la regresión fueron los más exitosos en los tres conjuntos de datos, con el algoritmo Logistic se obtuvo la puntuación más alta para el robo residencial y robo comercial y con el algoritmo SimpleLogistic para el robo de automóviles. Estos resultados pueden chocar con los obtenidos en estudios anteriores y es que hay que tener en cuenta multiples variables. Por tanto, se debe decir, que a día de hoy no hay un método estadístico superior a otro. La eficacia de cada uno variará en función de los datos que se posean para llevarlo a cabo. Además, los resultados de este estudio solo se basan en la precisión de la discriminación y hay otros muchos factores a tener en cuenta.

Este estudio ha sido pionero en el uso de dominios para ver el impacto en la precisión de la discriminación en comparación con la utilización de comportamientos individuales de delincuentes para hacer predicciones de vinculación. Los dominios obtuvieron una tendencia hacia una mayor precisión.

Tomando como ejemplo el robo de automóviles se obtuvo una alta puntuación lo que implica que tenían una posible vinculación mediante el algoritmo los crímenes, pero cuando se examinó el éxito que tuvo en hacerlo se encontraron dificultades considerables. La razón principal de esto es el problema de que cuando el número de pares de crímenes no vinculados supera ampliamente el número de pares vinculados un modelo estadístico tenderá a tener una probabilidad de vinculación muy baja para todos los pares de la muestra.

Se predice que los comportamientos impulsados por los delincuentes (fecha y lugar del crimen) están menos influenciados por la situación ofensiva y son más consistentes de un crimen a otro, lo que los hace más adecuados para la vinculación. También es posible que esto se deba a que esos datos sean registrados de una manera más objetiva en las bases de datos policiales que, por ejemplo, si el ladrón buscó de una manera ordenada o no. También obtuvo puntuaciones altas la interacción personal entre víctima y agresor, por ejemplo, las condutas de control son una característica útil para la vinculación de robos comerciales.

Una limitación muy importante de este estudio es que solo se utilizaron datos de crímenes resueltos, cuando en la práctica real no podrá ser así. Por ello, investigaciones futuras deberán buscar replicar estos resultados utilizando delitos resueltos y no resueltos, ya que una herramienta que apoye la toma de decisiones y ayude a vincular posibles crímenes cometidos por el mismo autor sería valiosísima en la investigación policial.

Creencias sobre la tasa de error y el juicio humano en las ciencias forenses. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Beliefs about Forensic Science: beliefs about error rate and human judgment” de Ribeiro, Targen y McKimmie; en él analizan las creencias que las personas tienen sobre la precisión de las pruebas forenses, así como el testimonio de los peritos durante el juicio.

La intención de este estudio es identificar las creencias y percepciones que las personas tienen sobre la ciencia forense y las evidencias. Concretamente se investigará sobre las tasas de error y el grado de juicio humano involucrado en ella, centrándose en cada técnica y etapa (recopilación, almacenamiento, prueba, análisis, informe y presentación de evidencias). Para ello se les pidió a los participantes que piensen y describen las ciencias forenses, que proporcionen una estimación del nivel de participación humana, que juzguen cómo de probable es que ocurra un error en cada etapa del proceso y que califiquen la precisión y el nivel de participación humana para 16 técnicas forenses diferentes.

Como hipótesis de partida se manejaban que la estimación de error para cada etapa sería baja (menos del 5%) y que el juicio humano involucrado en cada fase también sería bajo (valor medio de cuatro). También se espera que los espectadores de programas sobre crímenes tengan una correlación negativa con las estimaciones de error. Se cree que las estimaciones de precisión para cada técnica serían altas (más del 90%) y que las predicciones de juicio humano serían bajas en cada técnica. Se hipotetiza que los espectadores de programas de crímenes presentarían correlaciones positivas con las estimaciones de precisión de la técnica y correlaciones negativas con las estimaciones de juicio humano. Por último, se espera que los participantes no coinciden las tasas bajas previas que proporcionan sobre la probabilidad de que ocurra un error en cada etapa del proceso de ciencia forense. Es decir, el error acumulativo para toda la etapa del proceso de la ciencia forense es probable que sume más de 100.

Se utilizó una muestra de 101 australianos (52 mujeres y 45 hombres) con edades comprendidas entre los 20 y los 70 años con una edad media de 55 años. El 83,2% habían completado la educación obligatoria y el 15,8% había hecho de jurado previamente.

El estudio se realizaba electrónicamente desde su casa, se daban las siguientes instrucciones: “Durante este estudio, se le pedirá que imagine que se ha cometido un delito y que se ha dejado evidencia forense en la escena del crimen. Imagínese que la policía ha acusado a un sospechoso del delito y habrá un juicio penal ante un jurado. Queremos que piense en todo el proceso que involucra pruebas forenses, desde la primera vez que se asiste a una escena del crimen hasta cuando la evidencia se analiza hasta el momento en que se puesta ante el tribunal ante el jurado. Sea tan específico y detallado con sus respuestas con la sea posible”. Se les preguntaba por cada etapa del proceso, con pregunta del tipo: “¿Cómo se recopilan pruebas forenses de una escena del crimen? ¿Cómo se almacenan las evidencias forenses? ¿Cómo se analizan las evidencias? ¿Cómo se analizan e interpretan los resultados de las pruebas forenses? ¿Cómo se reportan las evidencias forenses? ¿Cómo se presenta la evidencia forense al jurado?” Las estimaciones de tasas de error se evaluaban con la pregunta ¿cómo de probable es que ocurra un error durante este proceso? A la que tenían que responder con un tanto por cierto. Las estimaciones del juicio humano se medían con la pregunta “¿en qué medida este proceso evalúa el juicio humano?” Las respuestas iban desde 1 (nada) al 7 (completamente). Las 16 técnicas analizadas fueron: análisis antropológico, análisis de patrones de manchas de sangre, ADN, documentoscopia, análisis facial, huellas dactilares, análisis de incendios y explosivos, análisis de marcas de arma y herramientas, análisis de material geológico, análisis de residuos de disparo, análisis de imágenes, análisis de materiales, análisis de toxicología, análisis de voz, análisis de vida silvestre y odontología forense. Se le hacía la pregunta “¿cuáles son sus impresiones generales sobre la exactitud de los diferentes tipos de pruebas forenses que se enumeran?” Tenían que evaluarlo con un tanto por cierto. También se realizó la pregunta de “¿en qué medida cada uno de los siguientes tipos de evidencia forense involucra el juicio humano?” En cada una de las técnicas se calificaba del 1 al 7.

Más tarde se les hizo dos preguntas sobre sus hábitos televisivos. Primero se preguntó cuántas horas a la semana pasaban viendo las siguientes series: CSI (incluyendo sus franquicias: Miami, Nueva York y Cyber), Ley y Orden (incluye: Acción Criminal, Unidad de Víctimas Especiales, Juicio por Jurado y LA), Mentes Criminales, Bones, NAVY: Investigación Criminal y otras series criminales. También se les preguntó cuantas horas a la semana veían algún programa de televisión u online.

El número promedio de horas fue de 16,78 horas, el rango de los programas criminales varió desde 0,74 en Bones a 1,46 en otros programas relacionados con los crímenes.

Los resultados contradijeron algunas de las hipótesis iniciales. Contrariamente a lo que se había pensado se obtuvieron tasas más altas en estimaciones de error variando desde un 39,27% en la etapa de prueba a un 44,55% en la de análisis. Las estimaciones de error son bastante más altas de lo que se habría esperado debido al efecto CSI por el cual las personas tienen una alta fe en la precisión y fiabilidad de las ciencias forenses. También fueron más altas las estimaciones de juicio humano que fueron desde el 4,94 en la etapa de prueba al 5,55 en la de recopilación y presentación, siendo, por tanto, superior a la hipotetizada antes del estudio. Se encontrarán correlaciones positivas entre las estimaciones de error y la del juicio humano en todas las etapas, lo que significa que mientras más creyera el participante que estaba involucrado el juicio humano, mayor era la probabilidad de que ocurriera un error.

Los resultados mostraron que no había correlaciones significativas entre los hábitos de visualización de series de crímenes y las estimaciones de error. Se descubrió que los hábitos de ver series solo se correlacionaban negativamente de manera significativa con la etapa de almacenamiento y la de prueba. Lo que contradicen la H2 y la teoría del efecto CSI.

En lo relacionado a la precisión y fiabilidad de las técnicas forenses, en general son bastante buenas. Varían de unas a otras, siendo de las más bajas el análisis de documentos que obtendría un 65,18% y la más alta sería el ADN con un 89,95%. Estos resultados contradicen la H3.

En relación a la influencia del juicio humano en cada proceso sólo se obtuvieron los resultados esperados para el análisis de ADN. Los demás estuvieron por encima de los cuatro puntos esperados, llegando a 5,72 en el caso de análisis de documentos. En lo relativo a las correlaciones de exactitud y juicio humano para cada prueba, solo cinco de las 16 (sangre, ADN, documentos, dactiloscopia e imagen) se correlacionaban de manera negativa, por lo tanto, para otras pruebas los participantes que creían que era más procesos, también creía que había menos juicio humano involucrado.

En lo relativo a la H4, no hubo una correlación significativa entre los hábitos de televisión y la precisión de las pruebas. Además, se encontró tres correlaciones positivas significativas entre la visualización del crimen y el juicio humano (ADN, dactiloscopia y toxicología) que no siguen la dirección esperada. Por tanto, estos resultados contradicen la hipótesis planteada.

La última hipótesis hace referencia a que la tasa de error general de todas las etapas superará el 100, aunque la tasa de cada técnica fuese baja. Curiosamente ya desde la segunda fase (almacenamiento) rondaba el 80% superando el 100% en la tercera (prueba), la tasa total fue del 248,56%. En contraste, la tasa de error por técnicas fuera del 10,05% del ADN al 34,82% del análisis de documentos. Estos resultados apoyan la hipótesis y demuestran que los participantes ignoraron completamente sus estimaciones previas sobre las tasas de error en cada etapa del proceso cuando se les pidió que hicieran juicios sobre la precisión de las técnicas específicas.

Como se ha visto los resultados fueron sorprendentes, ya que los participantes creían que había una probabilidad sustancial de error en cada fase del proceso forense. Una explicación a esto puede ser el sistema novedoso de preguntar por cada etapa en vez de por el conjunto lo que le hizo reflexionar más en profundidad. También pudo influirles que las respuestas se tuvieran que dar a través de una barra oscilante que veían predeterminada en el 50% y ya se ha demostrado que los anclajes condicionan. Igual de sorprendentes fueron las estimaciones tan altas relativas a la influencia de juicio humano en cada etapa, ya que generalmente esta ciencia está más relacionada con la tecnología que con la intervención humana.

Aunque se correlacionó positivamente las estimaciones de error con la de juicio humano (cuanto más creía que esta involucrado el juicio humano, creía que había más error) no se ha podido establecer una correlación consistente entre ambos fenómenos.

A pesar de que tampoco se obtuvieron los resultados, por encima del 90%, que se esperaba en la precisión de la prueba. Todos los participantes creyeron que todas las pruebas eran significativamente mejores que la casualidad. La más precisa fue el ADN (89,95%) aunque sigue siendo un resultado bastante menor del esperado.

Este estudio muestra muy poco apoyo al efecto CSI, el cual asume que aquellos que ven series relacionadas con crímenes tendrán diferentes creencias y percepciones sobre las ciencias forenses que aquellos que no los ven. Sin embargo, en este estudio no se encontrarán correlaciones entre la visualización de series y las estimaciones de error para ninguna etapa del proceso forense ni para ninguna de las técnicas.

Es importante tener en cuenta que, aunque los hábitos de consumo de series criminales no estaban relacionados con sus estimaciones de precisión, este estudio demuestra que las personas no tienen una comprensión sólida de la precisión de las técnicas forenses, siendo algunas exageradas y otras subestimadas. Esto demuestra que los jurados pueden llegar a un juicio con creencias preexistentes potencialmente inexactas sobre la ciencia forense que puede afectar a su evaluación de los informes y pruebas, así como al veredicto del mismo.

Enfoque cognitivo para la detección de mentiras. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A cognitive approach to lie Detection: A meta-analysis” de Vrij, Fisher y Blank; en él hacen un metaanálisis sobre el enfoque cognitivo para la detención de mentiras. Se centra en tres técnicas: imponer una carga cognitiva, alentar a los entrevistadores a decir más y hacer preguntas inesperadas.

El enfoque cognitivo para la detección de las mentiras parte de la observación de que mentir es más agotador mentalmente que decir la verdad. Para llevar a cabo este análisis se tuvieron en cuenta los estudios que se centraban en detectar la mentira a través de la observación del comportamiento de alguien o escuchando el discurso de una persona cuando no hay de fondo otra información relevante.

Esta teoría se centra en que se pueden magnificar las diferencias en las señales (no)verbales indicativas de la carga cognitiva mostradas por las personas sinceras y los mentirosos a través de intervenciones sobre los principios cognitivos que hacen que la tarea de mentir sea aun más exigente cognitivamente. Las estrategias que pueden ayudar a la detección de mentiras serían. Imponer una carga cognitiva, alentar a los entrevistados a proporcionar más información y hacer preguntas inesperadas.

Imponer una carga cognitiva hace alusión a hacer que las entrevistas sean más difíciles mentalmente. Al mentir se gastan más recursos cognitivos, al aumentar la dificultad mental se reducen los recursos, si se sigue aumentando puede llegar el momento en que no sean capaces de hacer frente a las solicitudes que se les hagan y por tanto no poder mentir. Algunas de las tácticas que se usarían serían: contar sus historias en orden inverso, mantener el contacto visual con el entrevistador, hacer dos tareas simultáneamente (coger algo y hablar) o si hay varias personas contar su historia por turnos según vaya decidiendo el entrevistador.

Pedir más información, por un lado, sirve para contrastar detalles o encontrar nuevas pistas, y, por otro lado, a los mentirosos les podría resultar complicado añadir más detalles que a los sinceros. Además, los detalles que añaden pueden ser de menor calidad o ser menos creíbles. Hay cuatro estrategias que funcionan para forzar el añadir más detalles: el uso de otro investigador adicional, el dar una respuesta modelo (que tenga muchos detalles), el uso de dibujos y la aplicación de la entrevista cognitiva.

La última técnica mencionada, el hacer preguntas inesperadas, se basa en que los mentirosos se preparan previamente las respuestas en base a las preguntas que creen que les harán, ya que eso hace que mentir tenga una menor carga cognitiva. El hacer una pregunta inesperada les obligará a crear una respuesta en ese mismo momento y ahí presentarán mayores niveles de carga cognitiva mientras que los sinceros tendrán los mismos niveles para las respuestas esperadas como para las inesperadas.

Para comprobar su efectividad se calculó el tamaño del efecto reflejando la diferencia en las tareas de precisión obtenidas con los enfoques estándar y de detección cognitiva de la mentira. Y luego se integraron siguiendo la metodología metaanalítica estándar. Se realizaron los cálculos separando la precisión de detección de la verdad y de la mentira para posteriormente sacar también la precisión total. Se utilizaron de medición los odd ratio y la d de Cohen.

Para incluirse en el metaanálisis los estudios debían cumplir los siguientes criterios de inclusión: emplear alguna forma de manipulación de detección cognitiva de la mentira e informar de alguna medida de exactitud de detección de mentira. En total se obtuvieron 14 estudios experimentales que reunían esas condiciones.

Como resultados se encontró que el enfoque de detección de mentiras cognitivas era superior al enfoque estándar para las tres medidas de precisión de detección. Para la verdad fue de 67% frente al 57%, para la mentira fue de 67% frente al 47% y para el combinado fue de 71% frente al 56%. Este porcentaje de detección estándar del 56% se encuentra muy próximo a la tasa del 54% que se encuentra típicamente en la investigación del engaño (Bond y DePaulo, 2006), sin embargo, el enfoque cognitivo es bastante superior con un 71%.

Se analizó también si los juicios sobre la precisión eran realizados por humano o por algoritmos, y la efectividad de las técnicas cognitivas mencionadas anteriormente. Los resultados basados en los odd ratios y en la d de Cohen mostraron que la manera de tomar decisiones (humanos o algoritmos) no importaba mucho para la precisión final. Para la precisión de la verdad funcionaba mejor el enfoque cognitivo cuando está basado en criterios objetivos y mostró una escasa ventaja sobre el enfoque estándar para los observadores humanos. Lo contrario ocurría con la detección de la mentira, el enfoque cognitivo funcionaba mejor cuando los jueces eran humanos. Esto puede ser debido a que las personas presentamos un sesgo de verdad, tendemos a pensar que la persona objetivo está diciendo la verdad y por ello, para los humanos hay un mayor margen de mejora para aumentar la precisión de la mentira.

En lo que respecta a las técnicas empleadas no tuvieron un efecto moderador significativo en la precisión total. Para la detección de la verdad la técnica más efectiva fue alentar a los entrevistados a decir más, seguido de las preguntas inesperadas y, por último, imponer una carga cognitiva. Por el contrario, para la detección de la mentira la más eficaz fue imponer una carga, seguida de hacer preguntas inesperadas y, por último, alentar a decir más.

Estos resultados coinciden con la justificación teórica. Alentar a los entrevistados a decir más animaría particularmente a los que cuenta la verdad a hablar más. Debido a ello se obtienen mejores resultados con esa técnica cognitiva que con la estándar en la detección de la verdad. Además, se señaló que los mentirosos tendrían mayores problemas al hacer frente a una carga cognitiva, como se ha demostrado, lo que significa que también las técnicas cognitivas tienen mejores resultados que la técnica estándar para la detección de la mentira.

En resumen, los hallazgos metaanalíticos confirmaron la superioridad del enfoque de detección cognitiva de la mentira. Condujo a una mejor precisión de detección total (71% vs 56%), una mejor detección de la verdad (67% vs 57%) y de la mentira (67% vs 47%) que el enfoque estándar. Los humanos se beneficiarán más de la detección cognitiva de mentiras. Además, se demostró que cada técnica tiene una ventaja diferente, siendo más eficaz la carga cognitiva para detectar mentiras y el alentar a hablar para detectar la verdad.

En cuanto a la aplicación de estas técnicas se recomienda que sean basadas en un contexto de entrevista de recuperación ininterrumpida y no en el típico acusatorio de la policía, basado en el falso mito de que el sospechoso no quiere hablar. Además, se ha demostrado que el enfoque de recuperación ininterrumpida aumenta significativamente la probabilidad de una confesión verdadera y disminuye la probabilidad de confesiones falsas con respecto a la técnica acusatoria.

Auqnue es verdad que la técnica cognitiva mejora la detección, sus índices no superan el 70%, lo que hace que todavía tenga un gran margen de mejoría y que no sea útil en su aplicación en el uso clínico o para la detección masiva en los controles fronterizos, ya que en esos casos su tasa de error tendría que ser mucho más baja. Pero este es un problema que ninguna herramienta de evaluación actual ha conseguido resolver.

Técnica y actitud del entrevistador y confesiones falsas. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The combined effects of questioning technique and interviewer manner on false confessions” de Paton, Bain, Gozna, Gilchrist, Heim, Gardner, Cairns, McGranaghan y Fischer; en él que se realiza un examen empírico sobre como afecta de forma combinada tanto la técnica de interrogación como la actitud en la que la realiza en entrevistador sobre las confesiones falsas.

Primeramente, se realizó un estudio piloto donde se pretendía comprobar cuál era la influencia de las diferentes actitudes que mantenía el entrevistador. Para ello se utilizó una muestra de 104 estudiantes universitarios que se sometieron a una entrevista severa o amistosa y clasificaron el comportamiento de los entrevistadores con una escala de Likert de cinco puntos para evaluar el grado en que los entrevistadores mostraban 18 actitudes: nervioso, severo, amigable, comprensivo, asertivo, confiado, organizado, profesional, firme, respetuoso, positivo, formal, cálido, severo, organizado, efectivo, autoritario, competente y negativo. También se utilizó otra escala de Likert, en este caso, de once puntos para evaluar el grado en que los participantes experimentaron presión para confesar.

Para poder llevar a cabo las entrevistas cuatro estudiantes universitarios varones fueron entrenados por el investigador principal para realizar los interrogatorios después de una denuncia falsa de robo. Realizaron las entrevistas siguiendo un guion preparado.

Después se realizó el estudio principal, los participantes creían que era un experimento sobre los rasgos de personalidad y su relación con el desempeño en las tareas. Para poder llevarlo a cabo se utilizó una muestra de 120 miembros (53 hombres y 67 mujeres) de edades comprendidas entre los 16 y los 62 años, con una edad media de 28 años. Cada uno de los participantes era evaluado individualmente y tenían que contestar los dos cuestionarios del estudio piloto. Al acabar recibirían un cheque de regalo de diez libras. Los cheques estaban en la mesa que tenían enfrente. En un determinado momento del experimento el miembro del equipo que estaba con ellos abandonaba la sala dejando solos a los participantes. Al volver aseguraba que faltaba uno de los cheques y acusaba del “robo” a los participantes.

Pasados unos dos minutos entraba uno de los entrevistadores. Se presentaba como miembro del equipo de investigación e informaba al participante de que tenía que llevar a cabo unas preguntas sobre el asunto del cheque. Estas entrevistas se daban bajo dos condiciones, amistosa o severa. En la condición amistosa el entrevistador para establecer una buena relación y parecer cálido y amistoso se presentaba usando su nombre, mantenía contacto visual, sonreía y adoptaba una postura relajada. En la condición severa para parecer formal y abrupto usaba su nombre completo, no sonreía y adoptaba una postura severa y autoritaria. A continuación, en ambas condiciones, se le pedía al participante que contaran con sus propias palabras el suceso mientras tomaban notas. Después de esta fase de recuerdo libre el entrevistador realizaba una serie de preguntas prestablecidas en el guion, donde también tomaban nota de la respuesta. Además, de las dos condiciones había cuatro variantes de preguntas en cada una: minimización, preguntas repetitivas, preguntas guiadas y preguntas no guiadas. En la primera de ella se hacían afirmaciones del tipo “no te preocupes” o “estoy seguro de que no se dio cuenta de que esto era un tema importante”. En la segunda, se preguntaba hasta seis veces si había cogido el vale. En la tercera era del estilo “los cheques estaban claramente visibles en la mesa, por lo que hubiera sido fácil coger uno ¿no?”. En la última, se utilizó una aproximación propia del método PEACE.

Después de la fase de preguntas se hizo un resumen de todo lo que le habían contado y se les preguntaba si quería añadir algo más. Más tarde, tendían que firmar su declaración y un documento “aceptando la responsabilidad por el vale faltante”. Aquellos que no lo firmaron a la primera se les insistió dos veces más. Al acabar el interrogador abandonaba la sala y volvía el investigador que les informaba sobre las intenciones reales del experimento y se las pedía que completaran las dos escalas antes mencionadas.

Al realizar un análisis multivariado se encontró diferencias significativas en las calificaciones entre las condiciones del entrevistador severo y el amigable en cuatro de los 18 componentes analizados. Lo más severos fueron juzgados como más duros y severos. Los amistosos destacaron en simpatía y comprensión.

Ninguno de los participantes confesó falsamente durante la etapa del interrogatorio de la entrevista. Cada confesión falsa se obtuvo cuando se le pidió que firmará la confesión. En total se consiguieron 37 declaraciones falsas: 14 de ellas fueron a través de preguntas no dirigidas (9 amistosas y 5 severas), diez fueron con la minimización (7 amistosas y 3 severas), 9 fueron con preguntas guiadas (5 severas y 4 amistosas) y 4 con preguntas repetitivas (2 amistosas y 2 severas). Hay que destacar que el modelo repetitivo fue estadísticamente significativo, ya que con cada aumento unitario del mismo se asociaba con una disminución de la probabilidad de conseguir una confesión falsa.

La interacción entre la actitud del entrevistador y la técnica no fue significativa en relación a la presión para confesar. Aquellos que confesaron calificaron el interrogatorio con un grado de presión más alto que aquellos que no confesaron.

Este estudio es una primera aproximación a los efectos de combinar la actitud del entrevistador más la técnica usada. Casi un tercio de los participantes firmaron la confesión falsa y la mayoría confesaron inmediatamente cuando se les presentó la declaración. Lo hicieron a pesar de la falta de evidencia incriminatoria, en ausencia de presión externa y a pesar de no ser conscientes de las consecuencias de confesar.

En relación a las técnicas, contrariamente a lo que se esperaba, la condición de preguntas no guiadas fue la que obtuvo un mayor número de confesiones falsas. Esta técnica a pesar de no ser coercitiva puede ser manipuladora psicológicamente. Si los participantes se sintieron cómodos y creyeron que habían establecido confianza con el entrevistador, aumentaría la vulnerabilidad para cumplir con la solicitud de firmar la confesión falsa. Por el contrario, el cuestionamiento repetitivo fue el que menos confesiones falsas provocó. La inferencia de culpabilidad transmitida al preguntar repetidamente a los participantes si habían cogido un cheque pudo haber provocado una oposición, alentando a la negación contra el mismo. Si los participantes se sintieron ofendidos en vez de intimidados pudo ser lo que hizo que no confesasen. Por tanto, puede ser que las preguntas repetitivas tengan un efecto antagónico y reduzca el riesgo de confesiones falsas.

El que las actitudes del investigador no tuvieran un efecto significativo en las confesiones falsas pudo deberse a las manipulaciones experimentales. La naturaleza potencialmente estresante del experimento pudo hacer que los participantes tuvieran una percepción más negativa del entrevistador amigable y, además, varios de los comportamientos del cuestionario eran parecidos y difíciles de diferenciar.

También hay que destacar que en este experimento los entrevistadores severos obtuvieron menos confesiones falsas de lo que se esperaba. Esto puede explicarse porque al exponerse a alguien percibido como hostil y grosero provocaba sentimientos de molestia y de falta de respeto lo que redujo la posibilidad de cooperación y aumentó la resistencia a la confesión.

Curiosamente la actitud amistosa más la técnica de las preguntas no guiadas fue la que obtuvo puntuaciones más altas en cuanto a presión por confesar. Esto puede deberse a que la actitud informal y comprensiva del entrevistador combinada con la ausencia de preguntas coercitivas creaba una forma sutil de manipulación psicológica que provocó que los participantes experimentaran una alta presión por confesar y firmar así la declaración falsa.

Se recomienda, por tanto, una investigación futura más exhaustiva sobre los factores que hacen que se produzca una confesión falsa.

Estudio de pinturas de uso doméstico con espectroscopia infrarroja. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A Random object – oriented population study of household paints measured by infrared spectroscopy” de Falardeu, Moran y Muehlethaler; en él nos hablan sobre las características de las diferentes pinturas para el hogar que existen a través de un análisis con espectroscopia infrarroja.

Para realizar el estudio se escogieron 166 muestras de diferentes pinturas de uso doméstico de varias regiones de Quebec. Se extrajeron de una planta de residuos y eran restos de pinturas usadas en las casas de los habitantes de la zona. Esto hace que el estudio sea de población aleatorio, pero también hace que sea representativo en cuanto a la moda y las tendencias de color en ese ámbito. Las muestras se tomaron en portaobjetos que se dejaron secar 24 horas. De cada muestra se recogió información sobre la tienda, marca, modelo, número de lote y composición de la pintura.

Las mediciones de la espectroscopia infrarroja se realizaron con un Thermo Fisher Scientific Nico equipado con espectrómetro FTIR con un detector de sulfato de triglicina deuterado de recuperación rápida (DTGS) y el software OMNIC 8.1. De cada muestra de pintura se midieron siete réplicas independientes.

El primer paso fue la clasificación visual de los espectros a través de los picos principales de su composición química. Clasificándose, en primer lugar, por el tipo principal de resina, y posteriormente, por los subtipos de aditivos. El segundo paso fue la comparación de espectros dentro de cada categoría, viendo si son distinguibles. Los criterios usados para la diferenciación espectral fueron la apariencia general del espectro y la superposición existente entre los dos especímenes, así como la posición, presencia o ausencia e intensidad relativa de los picos. A parte de esta comparativa visual también se realizó una discriminación estadística según el análisis de los componentes principales en un proceso semiautomático.

Las pinturas analizadas se separaron primeramente según el color en: gris, blanco, azul/turquesa, verde/caqui, marrón/tostado, beige, naranja/amarillo, púrpura, negro, rosa/rojo y transparente. Dentro de cada color se podía diferenciar por tonos, pero se consideró más útil una diferenciación más genérica. Las proporciones obtenidas para cada color son: gris 23,49%, blanco 23,49%, azul 10,84%, verde 10,84%, marrón 6,63%, beige 5,42%, naranja 4,82%, morado 4,82%, negro 3,61%, rojo 3,61% y transparente 2,41%. Se compararon estos datos con otros dos estudios que se habían realizado previamente en EE.UU. y en Gales, con muestras mayores y los porcentajes por colores se correspondían mayoritariamente, a excepción del gris que en este caso era un 23,49% de la muestra mientras que en los otros dos estudios fueron el 7% y el 7,2%. El blanco también obtuvo resultados diversos siendo en este estudio bastante menor (23,49%) que, en los otros dos, donde consiguió porcentajes del 52% y el 25,8%. El verde también tuvo una presencia mayor en el estudio de Gales donde obtuvo un 25,8% frente al 10,84% de este estudio o al 10,21% del estudio de EE.UU.

La segunda clasificación de las muestras se realizó en función de la marca. En total fueron 28 marcas diferentes, siendo la más habitual Sico (41 muestras), seguida de Benjamin Moore y Rona con 22 muestras. Considerando solo la marca este estudio muestra una variedad del 89%, con 117 pinturas representadas por las seis marcas más comunes. Si, además, se tienen en consideración los modelos la variabilidad aumenta hasta alcanzar el 98%.

De las 166 muestras que se utilizaron, 47 aparecían una sola vez, 18 aparecieron dos veces y nueve veces apareció la misma pintura de Sico Evolution. Aunque hay que tener en cuenta que para esta clasificación solo se tuvo en cuenta la marca y modelo y no el color en sí mismo, ya que para el grupo de Sico había cinco grises, tres blancas y una verde. Esto se hizo así, porque el espectro infrarrojo generalmente es independiente del color de la muestra.

Por último, se realizó una clasificación en base al uso de la pintura, clasificándose en función del uso que especificaba la lata (interior, interior/exterior, exterior) y la división entre pintura, tinte, barniz u otro (como podía ser imprimación, sellador y esmalte). La mayor parte eran pintura para interiores (77,11%), seguidas de interior/exterior (14,46%) y por último la de exteriores (8,43%). Las proporciones más bajas fueron para los tintes con nueve muestras y los barnices con cuatro.

En cuanto a su composición química las muestras se separaron principalmente en dos grupos, el grupo con aglutinantes acrílicos (81,33%) y el grupo con aglutinante alquídico (18,67%). Después se dividieron según sus aditivos, los principales fueron: carbonato de calcio (CaCO3), silicato de aluminio (AlSi), silicato de magnesio (MgSi), estireno (Sty) y sulfato de bario (BaSu). Esta división se realizó con bibliotecas de espectros. El proceso permite una pronta identificación tanto de la resina principal como del resto de aditivos.

Más de tres cuartas partes de la muestra (135) son de acrílico a base de agua, ya que son una opción más económica para los productores, tiene una durabilidad superior y un uso respetuoso del medio ambiente. Los que tienen como base el aceite, como son los alquídicos, fueron muy populares en las décadas de los 80 y los 90 pero en la actualidad tienen una cuota de mercado muy pequeña. El carbonato de calcio y el silicato de aluminio son los dos aditivos más comunes, aunque esto puede deberse a su absorción en la polarización del compuesto más que a su abundancia cuantitativa en el recubrimiento de la pintura. El análisis mediante el espectro no detectó en la mayoría de los casos diferencias respecto a los componentes enunciados en la lata.

En relación a la comparación visual de los espectros no se tuvo en cuenta el color de la pintura, aunque es obvio que en la vida real sería una variable muy discriminante, se consideró que era mejor analizar los espectros de manera aislada. Esto se hizo así porque hay que tener en cuenta que a veces el pigmento mayoritario no es visible en los espectros de infrarrojos debido a que está completamente enmascarado por la señal del aglutinante y de los aditivos, mientras que puede haber otros pigmentos menores que muestren picos bien definidos e intensos.

Se obtuvo como resultado un 99,68% de discriminación mediante la comparativa de espectros. Siendo este resultado consistente con otros estudios que lo situaban entorno al 94% y el 99,82%. Cuando se consideró el infrarrojo dentro de una secuencia completa de análisis, el poder de discriminación aumentó al 99,99%. El grupo indiferenciado más grande pertenece a acrílicos con CaCO3.

Es interesante que de 43 pares de muestras que presentan espectros similares, nueve pares representan marcas diferentes. Estos pares demuestran una coincidencia aleatoria en las características de los espectros que es involuntaria. Es interesante para demostrar la probabilidad de observar la misma composición en dos pinturas que no están relacionadas.

El poder discriminante del color y la composición química combinada es del 97,79%. También se realizó un análisis con PCA y los niveles de discriminación estuvieron en un 99,94%. Puede parecer más efectivo pero ambas técnicas deberían ser complementarias ya que la PCA puede separar en exceso muestras que se hubieran considerado como indiferenciables.

Desarrollo y validación de la Escala de Ideas de Violencia (VIS). Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Development and Validation of a Brief Measure of Violent Thoughts: The Violent Ideations Scale (VIS)” de Murray, Eisner y Ribeaud; en él se estudia la creación de una escala que permite medir psicométricamente las ideas violentas que son un potente predictor de la violencia.

El tener ideas de violencia puede ser un indicador de riesgo de violencia, por ello se decidió crear una escala que midiera la presencia de estas ideas. Primeramente, para desarrollar las escalas, dos expertos crearon un conjunto inicial de ítems a partir de las teorías de la estructura de la violencia y sus factores comunes. La definición de violencia no es uniforme en la literatura preexistente, en algunos casos se considera los pensamientos de daño físicamente a otros, mientras que otros estudios consideran no solamente el daño físico a la persona sino también la agresión verbal o la destrucción de la propiedad. En lo que sí están de acuerdo es en que la violencia imaginada se sienta como real. Por tanto, para este estudio se decidió incluir una definición amplia donde tuviera cabida tanto el daño físico, como no físico pasado por la violencia sexual o el daño a uno mismo.

Posteriormente, del grupo de ítems se seleccionó un subgrupo que fue el que se administró a los participantes, elegidos en base a su claridad, contenido, validez nominal y con el objetivo de abarcar todas las áreas antes descritas.

Se pidió a los participantes que informaran de la frecuencia de los ítems durante el último mes. Se utilizó una escala tipo Likert de cinco puntos que iba del “nunca” al “muy a menudo”.

La prueba se realizó sobre una muestra de 1.276 jóvenes suizos de 17 años de edad (629 chicas y 647 chicos). Eran el resultado de un muestreo estratificado aleatorio de 56 escuelas en Zúrich, teniendo en cuenta la ubicación y tamaño de la escuela.

Se usó un análisis de la Características del Operador Receptor (ROC) para evaluar si el VIS podía servir para la identificación de personas violentas. Estas personas fueron definidas como aquellos que han portado armas, han extorsionado, robado o asaltado de acuerdo al autoinforme en los últimos doce meses. Este análisis se utiliza para descubrir el poder discriminatorio general de una escala o para definir el punto de corte óptimo en las clasificaciones de grupos que se realicen en base a esa escala. También se analizó la sensibilidad y la especificidad, la primera de ella se refiere a la proporción de individuos que están correctamente asignados a la clase violenta (verdaderos positivos). Mientras que a especificidad se refiere a la proporción de individuos catalogados en la clase no violenta (verdaderos negativos). El resultado puede variar del cinco (clasificación al azar) al uno (clasificación perfecta).

Los elementos analizados fueron: suicidio, homicidio, venganza violenta, lesión grave, golpear sin razón, matar insultando, humillar, desnudarse, matar, acoso, violencia sexual, responder agresivamente, golpear al ser provocado, infligir dolor, golpear por estar enfadado.  La mayor parte de las respuestas fueron “nunca”, menos una pequeña porción de “muy a menudo”.

Las soluciones factoriales sugirieron que tanto la ideación de agresión sexual como la ideación suicida podrían distinguirse de las ideas que implica agresión. Por tanto, se excluirá los análisis de las ideas suicidas o de la agresión sexuales. Sin embargo, no se encontró ningún indicio de que deberían separarse las ideas de agresión no física de las de agresión física.

Los elementos de carga más altos se refieren a infligir lesiones, mientras que los elementos de carga más bajos se refieren a la intimidación. Los ítems referidos al homicidio tienen cargas intermedias. El modelo se ajustó utilizando la estimación MC en Mplus 7.0, mostrando un ajuste razonable.

El VIS también se asoció significativamente con todas las construcciones incluidas. Las asociaciones más fuertes fueron con otras cogniciones relacionadas con la agresión y con el comportamiento agresivo en sí. Fue menos fuertemente relacionado con la victimización. En lo relativo al comportamiento agresivo, se relacionó aproximadamente igual con la agresión proactiva y la agresión reactiva.

Los resultados muestran los factores más altos en relación a la violencia física no letal, como infligir dolor o lesiones graves. Por el contrario, las ideas de violencia sexual como la violación o el desnudarse parecen no guardar relación con las ideas de violentas, teniendo que considerarse un fenómeno aparte, aunque los resultados en este punto son ambiguos. Las razones son: en primer lugar, se informó muy pocas veces de ideas relacionados con la violencia sexual y en segundo lugar las pruebas estadísticas de la dimensión no fueron unánimes. Por ello, las estructuras de la ofensa sexual no se consideran jerárquica, con influencias tanto generales como específicas, lo que conlleva ambigüedad sobre su inclusión con el resto de ideaciones violentas. Se recomienda un estudio más profundo con un mayor número de ítems relacionados con el tema ya que en esta versión del VIS sólo hay dos ítems.

En relación a las diferencias entre sexos, se obtuvieron algunas, los ítems 3 (venganza violenta), 5 (golpear sin razón) y el 7 (humillar) destacaron especialmente. Las diferencias eran pequeñas en términos prácticos y no introducirían sesos. La mayor diferencia fue presentada en la venganza violenta (ítems 3), siendo mayor en hombres que en mujeres, esto se relacionaría con lo que los estereotipos relacionan con la masculinidad.

La invarianza de sexos es importante ya que las diferencias de los comportamientos violentos es un problema importante: los hombres superan ampliamente a las mujeres como perpetradores de violencia. Mientras que los hombres son responsables del 80% de los homicidios apenas hay diferencias con las mujeres en las puntuaciones del estudio VIS.  Estas diferencias de sexo pueden ayudar a iluminar los mecanismos casuales en la violencia y ayudar en la prevención.

La distribución de la puntuación de la suma derivada del VIS estuvo sesgada hacia niveles bajos de ideación con el 40% de los encuestados que no reportaron ninguna. Esto puede indicar la existencia de una subpoblación de individuos que no tienen nunca o muy escasamente ideas de violencia. Aunque, también esta la posibilidad de que la escala no contará con ítems suficientemente “leves” para poder captar estas ideas menos violentas. Por lo cual, se recomienda realizar otras investigaciones que incluyan más ítems que los doce actuales y pueda comprobar si se trata de una carencia en las pruebas originales o que existe una parte de la población que no tiene ideas violentas. Estos ítem pueden estar relacionados con la afectación pasiva a unas personas, como el abuso verbal o psicológica. Además, habría que tener en cuenta la posibilidad de que el tiempo de la investigación (un mes) hubiese sido escaso y que un análisis más extenso en el tiempo pueda tener más incidencias.

Se realizó un análisis ROC para buscar el punto de corte que diferenciará entre aquellos que se involucraban en la violencia y aquellos que no. Este punto se estableció en el 15.5, que fue el que presentó mayor equilibrio entre sensibilidad y especificidad.

A pesar de tener una buena capacidad de discriminación, entre los que ejercen violencia y los que no la Escala de Ideas de Violencia no puede ser la única fuente para tomar decisiones de alto nivel. La recomendación es usarla como una herramienta más que brinde información sobre la estimación del riesgo en el uso de la violencia.

 

Factores de riesgo en el feminicidio. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Intimate Femicide: The Role of Coercetive Control” de Johnson, Eriksson, Mazerolle y Wortley; en él se estudia diferentes factores de riesgo que se relacionan con el feminicidio, destacando entre ellos las conductas de control coercitivo.

El feminicidio es un tema de actualidad, con este estudio se busca realizar un análisis de los diferentes factores de riesgo, centrándose especialmente en las conductas de control coercitivo. Para ello, en este estudio se analizaron las historias de una muestra de condenados por matar a su pareja íntima en Australia. Utilizándose los datos del Australian Homicide Project, que contenía información de 302 delincuentes condenados por homicidio, siendo el 87% varones y el 13% mujeres. De esta muestra se utilizaron los referentes a 68 hombres que habían sido condenados por matar a sus parejas íntimas femeninas.

Lo que proponían los investigadores era examinar las variables que distinguían a los homicidas de género que habían sido violentos previamente de aquellos que no lo habían sido. Para ello se utilizó la Escala Revisada de Tácticas de Conflicto (CTS-2) que midió los niveles de agresión física y sexual en los doce meses previos al homicidio. También, se utilizaron preguntas combinadas sobre amenazas de muerte y uso de violencia en el año anterior. La muestra quedó dividida a partes iguales entre los hombres que declararon haber usado la violencia (34) y aquellos que no (34).

Se analizaron muchas de las variables que la literatura anterior destacó como influyente, como son: las características personales del autor, las experiencias de violencia en la infancia, el uso del control coercitivo hacía la víctima y el historial criminal. Las características personales del autor incluían datos relacionados con: educación, dificultades económicas, separación o amenaza de la misma, infidelidad o sospecha de ella, la presencia de hijastros, tratamientos médicos o psiquiátricos, intentos autolíticos, problemas de abuso de alcohol o drogas.

En la muestra del estudio un tercio había terminado la educación secundaria. En el año anterior al crimen la mitad de la muestra tenía problemas económicos y estaban separados o sus parejas les habían amenazado con la separación. Un tercio de la muestra afirmaba que sabía o sospechaba que su pareja le era infiel. Un cuarto de los 68 hombres convivía con hijastros y un 16% había recibido tratamiento médico o psiquiátrico en el último año. Un porcentaje similar había intentado suicidarse y tres de cada diez hombres tenía un problema con el abuso de las drogas y el alcohol. El 40% de la muestra manifestó haber sido víctima de abuso físico o sexual en la infancia y una quinta parte de sus padres habían sido violentos con sus madres. Dos tercios tenían antecedentes violentos y un tercio había cometido su primer crimen antes de los 13 años. La mitad de ellos habían sido violentos en el hogar el año anterior al feminicidio y una quinta parte también había presentado esa conducta violenta fuera del hogar.

Para medir las tácticas coercitivas y de control que usaban los homicidas se utilizaron tres herramientas diferentes y un indicador adicional. La primera de ellas fue la Escala de Titularidad y Propiedad Relacional (REPS), que consta de 28 ítems como lo siguientes: “tengo derecho a contactor con los amigos de mi pareja para ver cómo actúa sin mí; miro el cajón, el bolso o los bolsillos de mi compañero; si mi pareja me abandona me aseguraré de que se arrepienta”. La segunda herramienta utilizada fueron los ítems relacionados con el control psicológico que se encuentra dentro del CTS- 2, que incluyen cuestiones como el insulto, la amenaza o la destrucción de propiedad. La tercera herramienta, fue una modificación de la Escala Provocadora de Malestar de Salovey y Rodin, que evalúa los celos y el dominio durante la relación romántica. En ella se puede encontrar diferentes situaciones como una cena con otro hombre atractivo, bailar pegado a un amigo o ver a una persona con la que se mantuvo una relación en el pasado. Por último, el indicador hace alusión a la conducta de acoso a la víctima durante el año anterior al homicidio.

En lo relativo al control, la mitad de la muestra eran controladores, dos tercios habían tenido conductas de abuso psicológico, una cuarta parte de la muestra tenían altos niveles de celos y una quinta parte declaró haber acosado a la víctima antes de matarla.

Los hombres que no habían sido violentos antes del homicidio tenían más posibilidades de haber acabado la escuela secundaria y presentaban menos posibilidades de estar separados o de haber sido amenazados con ello, al igual que de tener problemas con el alcohol o las drogas y de haber crecido en un hogar violento. También, eran más bajos en dos de los indicativos de control coercitivo como son el abuso psicológico y el acoso a la víctima. Al igual que tenían índices menores de antecedentes penales. Por el contrario, los dos grupos tenían niveles parecidos de sospechas de infidelidad, convivencia con hijastros, tratamientos de salud mental y tasa de suicidio.

Estos resultados coinciden con otros estudios llevados a cabo en otras partes del mundo, como el que se realizó en Gran Bretaña (Dobash, Dobash y Cavanagh, 2009), donde los datos obtenidos mostraban que los hombres que no tenían antecedentes por violencia de género eran más “convencionales”: poseían una educación superior, mantenían una mejor relación, no tenían problemas de abuso de sustancias y sus infancias no fueron problemáticas. También presentaban niveles más bajos de control psicológico y acoso, aunque sí que presentaban celos.

Si bien es cierto que en general los hombres con antecedentes de violencia de género presentaban mayores niveles de control coercitivo, el 62% de los que no tenían antecedentes también reconocían haber usado alguna técnica de control sobre las mujeres que acabaron matando. Una quinta parte de estos hombres tenían una orden de alejamiento que les impedía acercarse a su pareja o la policía se había tenido que personar en su domicilio por algún tipo de incidente. Aunque no hubieran sufrido agresiones directas las mujeres estaban lo suficientemente atemorizadas como para pedir protección policial. Estas intervenciones, como ha quedado claro con el homicidio, han sido del todo ineficaces.

Por tanto, se puede concluir que, aunque una presencia clara de un comportamiento de control o de acoso puede ser precursor de un homicidio de violencia de género, comportamientos menos evidentes, sin agresiones directas, también pueden ser indicadores de riesgo de este tipo de conducta.  Este último tipo de comportamiento puede ser pasado por alto por la justicia, ya que no deja evidencias tan claras como una agresión física. Esto lleva a pensar que las evaluaciones de riesgo a veces pueden pasar por alto comportamientos de acoso que clasifican como “menores” y que pueden indicar un riesgo de homicidio.

Cuando Papá acosa a Mamá. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “When Daddy stalks Mommy: Experiences of Intimate partner stalking and involvement of social and legal authorities when stalker and victim have Children together” de Lokkegaard, Hansen, Wolg y Ekklit; en él nos hablan sobre las experiencias de acoso que sufren algunas mujeres por parte de sus maridos y su relación con las autoridades.

El acoso viene definido como un comportamiento repetido, intrusivo y molesto que no es deseado por la víctima que puede incluir amenazas, tanto implícitas como explícitas para la seguridad, y que provoca sentimientos de miedo y angustia. Las estimaciones que hay sobre el acoso rondan el porcentaje de entre un 2 y 29% para los hombres y un 7 al 36% para las mujeres. En Dinamarca las mujeres son en mayor medida víctimas de acoso (11,7%) que los hombres (6,2%).

Un tipo especial de acoso es aquel en el que el acosador es el marido o pareja de la mujer y tienen hijos en común. Es un caso especial porque la principal recomendación, no tener contacto con el acosador, no puede cumplirse, ya que tienen hijos en común lo que les obliga a seguir en contacto. Esto produce que tanto la mujer como los niños corran un alto riesgo de sufrir abusos por el padre acosador. Este fenómeno ha sido poco estudiado en la literatura científica.

Este estudio utiliza un enfoque mixto para, por un lado, describir cuantitativamente los comportamientos del acosador, así como la participación de las autoridades correspondientes. Por otro lado, se pretende examinar cualitativamente cómo las madres experimentaron el acoso por parte del padre de sus hijos.

Durante los meses de enero de 2013 a abril de ese mismo año se llevó a cabo la recogida de datos. Para ello se reclutó a mujeres a través de un grupo privado de Facebook para madres acosadas por los padres de sus hijos y a través de un anuncio en la web de la Asociación danesa anti acoso. Cada participante recibió un email con el enlace a una encuesta online totalmente anónima.

Se contó con una muestra de 196 mujeres con edades entre los 27 y los 70 años, con una edad media de 40. Estas mujeres contaban con una educación de media de 14 años, un 93,4% tenía la nacionalidad danesa y un 86,2% habían nacido en Dinamarca. El 39,3% de las mujeres contaba con un empleo a tiempo completo mientras que un 24,3% tenía un trabajo a tiempo parcial o estaba estudiando y un 36,4% se encontraba de baja por enfermedad.

La encuesta tenía cinco secciones diferenciadas. En la primera de ellas se encontraban preguntas sobre las características de la relación entre la víctima y el acosador, creadas específicamente para la misma. Había una segunda sección donde se les preguntaba sobre el comportamiento de acoso, para la cual se utilizó la Lista de Verificación de Comportamiento de Acoso (SBC). Una tercera sección iba sobre la relación que habían tenido con las autoridades legales y sociales. La cuarta sección versaba sobre la ayuda percibida por parte de 18 autoridades y servicios de ayuda. El último apartado hablaba de las reacciones por parte la policía, la Administración del Estado y los tribunales cuando les habían contado de sus casos de acoso.

Algunos datos sobre la relación mantenida: en el 91,1% de los casos las madres ya no mantenían ninguna relación romántica con el padre. La duración promedio de la relación había sido de 6,6 años. Estas relaciones estaban marcadas por la violencia de género. Un 60% de las mujeres manifestó que la violencia comenzó después de enterarse de que estaba esperando su primer hijo. La media de hijos estaba en 2,15 con edades comprendidas entre los 0 y los 45 años. En un 80% de los casos informaron de que los padres habían amenazado con apartar a los hijos de ellas si se iban. En un 3% de los casos el padre tenía la custodia completa, más de un 41% compartían la custodia y más del 61% de las mujeres afirmó que esperaba tener contacto con el acosador en el futuro a causa de los niños.

En cuanto a los comportamientos de acoso lo más comunes fueron las llamadas telefónicas no deseadas, los mensajes al móvil o correos electrónicos no deseados, las visitas a la casa de la víctima u observar y seguir a la misma. En lo que se refiere a comportamientos violentos destacó las amenazas y los intentos de dañar a las madres. También en un 63,3% se informó de que familiares o amigos del agresor participaron en el acoso.

En relación con su contacto con las autoridades legales y sociales, un 68,3% de las mujeres denunció a la policía un promedio de cuatro veces y en un 23% de los casos el acosador fue quien denuncia a la mujer a la policía un promedio de 2,56 veces. Los acosadores en mayor medida que las víctimas habían utilizado a la Administración del Estado para iniciar un nuevo caso o para cambiar el acuerdo de custodia.

En cuanto con qué instituciones había tenido contacto la madre, destaca la Administración del Estado (95,3%), seguido por el médico privado (89,1%), abogados (82%), profesores de los niños (82%), policía (78’9%), los servicios municipales de atención a la infancia (72,7%), el psicólogo privado (66,4%), el psicólogo público (64,1%) y los tribunales (62,5%). Estas mujeres percibieron como más amigables y con más capacidad de ayudar y apoyarlas a los profesionales médicos, así como a los de las agencias no gubernamentales que a los profesionales que trabajaban en la administración del Estado, los tribunales o la policía. Menos de un 50% declaró que les hubieran ayudado.

El análisis del contenido reveló cuatro categorías con respecto a las experiencias de las madres:

  1. Reconocimiento por parte de los profesionales de las madres como víctimas de acoso. Muchas mujeres afirmaron que los profesionales les habían entendido y comprendido y que les reconocían como víctimas, pero no podían ayudarlas debido a la falta de pruebas físicas. También informaron de casos donde los profesionales carecían de los conocimientos para juzgar y entender la violencia psicológica.
  2. Procedimientos de casos extensos y duraderos en los que participaron diferentes agencias. Aquí destaca la impotencia que sienten las madres cuando los profesionales de las diferentes agencias con las que deben tener contacto, especialmente en casos dilatados en el tiempo, no se comunican entre ellos y hace más difícil que ellas reciban la ayuda que necesitan.
  3. La delimitación de la frontera de si un comportamiento era acoso o simplemente era entrar en contacto legal por los niños. Aquí mencionaron diferentes conductas no penadas legalmente que para ellas suponían acoso como fueron algunas formas de violencia psicológica, la duración infinita del proceso, la posibilidad de que el agresor abra nuevos procesos judiciales, el contacto que podía tener el acosador con la madre a través de las autoridades.
  4. Las conductas de acoso hacia los niños. En esta sección destacaron comportamientos que tenía el padre hacía sus hijos, como el acoso, el intentar constantemente que se pusieran de su parte, amenazándolos directamente o amenazando a la madre a través de ellos.

La finalidad del estudio fue una mayor comprensión del fenómeno de acoso por parte del padre hacía la madre, donde como se ha visto es complejo poder cortar todo tipo de relación con el acosador ya que se vale no solo de sus propios hijos sino también de las autoridades estatales para poder seguir en contacto con su víctima. Lo que puede dejar desamparadas a las madres y con la sensación de que el sistema público no cuenta con los recursos para poder ayudarlas.

Patrones de abuso y niveles postmortem de gabapentina. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Gabapentin – related Deaths: Patterns of Abuse and Postmortem levels” de Thrap, Hobron y Wright; en él nos hablan sobre los patrones que siguen las muertes relacionadas con la Gabapentina.

La Gabapentina (ácido 1- (aminometil)ciclohexanoacético) es un análogo a GABA, es un medicamento para tratar el control de las convulsiones y la posterapéutica, también es útil para el dolor crónico y la neuropatía periférica general. Su uso fue aprobado por la FDA en 1993. En los últimos años se uso ha aumentado, entre 2011 y 2015 en EE.UU. se pasó de los 33 millones de recetas a los 57 millones. Como efectos secundarios de su uso terapéutico destacan mareos, somnolencia, fatiga, ataxia y edema periférico. Hay pocos casos en la literatura preexistente sobre sobredosis fatales, en la mayoría la concentración en sangre era superior a 37 mg. En la mayoría de los casos el paciente sobrevivió con los cuidados de apoyo, y presentaron coma, hipotensión, depresión respiratoria, somnolencia y dificultad para hablar.

La sobredosis de opioides recetados ha sido la causa de muerte en 471 casos en Virginia. El número de muertes por Gabapentina ha aumentado en los últimos años, así como su abuso en el entorno clínico. En el año 2017 la Junta de Medicina incluyó la Gabapentina en su lista de medicamentos regulados para monitorear su prescripción.

El presente estudio es una revisión retrospectiva de los casos de muerte por Gabapentina para poder tener una mayor comprensión de sus efectos terapéuticos al igual que potencialmente tóxicos o letales. Se incluyeron 104 casos ocurridos entre 2014 y 2017 en el distrito Occidental de Virginia. La limitación temporal es que antes de ese año la prueba para la Gabapentina solo se podía realizar en laboratorios externos y era relativamente extraño que se pidiese. Las pruebas toxicológicas que se hacen en la actualidad relacionadas con drogas incluyen opiáceos (oxicodona, oximorfona, hidromorfona, hidrocodona, morfina y buprenorfina), cocaína / benzoilecgonina, metanfetamina/MDMA, anfetamina /fentermina, benzodiazepinas, barbitúricos, fenciclidina, carisoprodol/meprobamato, tramadol, fentanilo, metadona, zolpidem, difenhidramina /ciclobenzaprina, dextrometorfano y amitriptilina /nortriptilina; así como un test de alcoholemia.

Para cada caso se revisó edad, sexo, historial médico, concentraciones en sangre y en humor vítreo de Gabapentina, y de cualquier otra sustancia detectada. Además, un patólogo determinó si la Gabapentina tenía relación con la causa de la muerte o no. También, se examinaron 53 casos en los que el conductor de un accidente no letal dio positivo a la Gabapentina.  Se tomaron como muestra, en el caso de los cadáveres dos viales de sangre con preferencia de los vasos femorales o de los vasos ilíacos, subclavios o del corazón, también se recogió un vial de orina si estaba presente, así como un vial del humor vítreo. En el caso de las personas vivas se les recogió dos viales de sangre del brazo. Todas las muestras se conservaron a 4ºC hasta su análisis. Las muestras fueron analizadas en un cromatógrafo de líquidos conectado a un espectrómetro de masas.

Se realizaron tres análisis: el primero de ellos era para determinar las concentraciones en sangre de Gabapentina entre las muertes y así poder distinguir entre aquellas donde el fármaco causó la muerte, donde contribuyó y en las que no tuvo un papel relevante. También se examinó las muestras de los conductores. El segundo análisis se encargó de determinar la cantidad en sangre en todos los muertos y comprobar las diferencias dependiendo del tipo de muerte (accidental, natural o suicidio). El último análisis se hizo para establecer la relación de la concentración en sangre con la concentración en el humor vítreo.

De los 104 casos mortales donde estaba implicada la Gabapentina, 65 fueron mujeres y 39 hombres. De ellos 72 casos estaban relacionados con la droga, 12 eran suicidios, 19 muertes naturales y 1 homicidio. En 49 de los casos la Gabapentina fue causa directa de la muerte y en otros 11 casos contribuyó su toxicidad a la muerte. En 51 casos fue accidental la muerte, solo 9 casos se utilizó como objeto de suicidarse. En 44 casos no tuvo un papel determinante, 21 fueron intoxicaciones por medicamentos. De los 53 casos de accidentes, solo 47 de ellos se tenía notas sobre el sexo y la edad de los infractores, siendo 27 hombres y 20 mujeres con una edad media de 45 años. En 48 casos se detectó otras drogas adicionales, siendo la más común (26 casos) las benzodiazepinas.

En relación con los niveles que se detectaron como causante directo de la muerte se sitúa la concentración entre 1,1 y 59,2 mg/L, estando la media en 24,8 mg/L. Para el grupo que no se consideró relevante para la muerte los niveles estaban entre 1,0 y 23,0 mg/L, siendo la media de 10,6 mg/L. En el grupo de conductores los niveles eran de 1,5 a 31,0 mg/L, estando la media en 11,0 mg/L.

El análisis 2 destacó unos niveles de Gabapentina mayores (22,0) en los casos de accidentes que en los casos de muerte natural (9,9), aunque los suicidios fueron los que los presentaron más altos, alcanzando los 27,8.  En 38 de 49 casos donde la Gabapentina fue la causa de la muerte se detectó también la presencia de al menos un opioide más. En 9 de los 11 casos donde estuvo relacionada pero no fue la causa directa también se detectaron otras drogas. En las muertes naturales sin relación con la Gabapentina solo estuvo presente otras drogas en 9 de 19 casos. En los casos de los conductores en 17 de 49 casos se encontró también rastros de oxicodona, en 10 de 49 de hidrocodona y en 7 de ellos de buprenorfina. También se encontraron trazas de antidepresivos en todas las categorías.

En relación al tercer análisis se determinó que había diferencias de valores, siendo los niveles de Gabapentina en el humor vítreo menores que en sangre, oscilando entre el 21,4% más alto en sangre al 76,2% menor en el humor vítreo. Esto nos dice que el humor vítreo es una prueba que se puede realizar cuando en el contexto forense no haya sangre disponible pero que los resultados saldrán con una concentración menor.

Este estudio deja claro que la Gabapentina debería incluirse dentro de las pruebas habituales de tóxicos en las muertes y no esperar a una petición expresa del investigador del caso ya que en los últimos años ha aumentado sus prescripciones.

 

El ancho de las crestas como indicador de la degradación. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Latent Fingermark Aging Patters: Ridge Width as one indicator of degradation” de De Alcaraz – Fossoul, Barrot, Zapico, McGarr, Carreras-Marin, Tasker y Gené; en él nos hablan del análisis de la anchura de las crestas para determinar la antigüedad de una huella.

Estudios anteriores evaluaron la posibilidad de utilizar algunas de las características de las huellas para poder determinar el envejecimiento de estas. Estos estudios ya detectaron que es posible que el ancho de las crestas se estrechase con el paso del tiempo. En el presente estudio se pretende determinar las diferencias visuales que ocurren en los anchos de las crestas durante el proceso de envejecimiento de las huellas, para ello se estudiarán los cambios que se producen conforme va pasando el tiempo después de usar polvo de TiO2 para visualizar la huella y, también, se analizarán los patrones de envejecimiento en condiciones de laboratorio en interiores.

Para realizar el estudio se obtuvieron 310 impresiones individuales que fueron envejecidas, reveladas y fotografiadas. Las huellas se podían clasificar en base a dos tipos de secreciones: por un lado, estaban las sudorosas que eran ricas en ecrinos y, por el otro, otras más grasientas ricas en sebáceos. Fueron depositadas sobre diferentes materiales no porosos como fueron el vidrio y el poliestireno plástico y fueron expuestas a tres condiciones de luz natural diferente; unas tuvieron luz directa, otras en sombra y otras en oscuridad durante seis meses. Fueron visualizadas con dióxido de titanio en once momentos temporales diferentes: el día cero, a los siete días, a los 14, a los 21, a los 28, a los 49, a los 70, a los 91, a los 112, a los 140 y a los 170 días. Antes de analizar el ancho de las crestas se hizo un estudio de viabilidad donde fueron clasificadas y descargadas en función de si estaban borradas o muy degradadas para poder tener la calidad suficiente para su análisis.

De cada huella se analizó un área de 1 cm2 en el centro de esta, con una resolución de 3.000 píxeles. Las huellas fueron estudiadas por tres observadores diferentes. Los factores ambientales tales como temperatura, humedad relativa, exposición a la luz diurna e intensidad de la luz natural en interiores fueron registrados durante el estudio. La medición de la anchura de las crestas se realizó con una regla de un programa de tratamiento de imágenes y lo que se analizó fue el ancho promedio de la cresta.

En cuanto a los resultados se obtuvo una disminución del ancho de la cresta con el paso del tiempo de más a menos en sustrato de plástico – secreción de ecrinas – condición de oscuridad- condición de luz directa y por último el sustrato de cristal. La secreción sebácea y la condición de estar en sombra no mostraron una disminución del ancho de la cresta con el paso del tiempo. Esto nos indica que aquellas huellas que tengan estos factores serán más resistentes a la degradación. A continuación, se analiza en detalle la influencia de cada uno de los factores ambientales:

En relación a la exposición a la luz natural se puede decir que no fue tan relevante como cabría esperar ya que su papel fue secundario. La mayor reducción de la cresta se dio en las marcas ricas en ecrinas en sustrato de plástico y expuestas a la luz natural, aunque esto no está del todo claro y puede depender de otros factores. Las huellas sebáceas depositadas en vidrio no se vieron alteradas bajo ningún tipo de luz.

Con lo que respecto al tipo de sustrato se reveló que las marcas depositadas en sustrato de plástico eran más sensibles y se degradaban en mayor medida que aquellas que estaban en un sustrato de cristal. Esto ocurría independientemente de las condiciones de luz o del tipo de secreción. Esto confirma el rol secundario que jugaría la luz.

En lo que respecta al tipo de secreción se ha comprobado que las ricas en ecrinas se degradan más que las sebáceas. Estas últimas eran muy resistentes a la degradación con el paso del tiempo.

Algunas aplicaciones prácticas que se pueden sacar son:

  • En relación con la luz las marcas ecrinas en sustrato de cristal se debe tener precaución porque pueden presentar iguales niveles de degradación aquellas viejas que estén en interior como las nuevas en la sombra, solo cuando son expuestas a la luz natural se podrán ver diferencias visuales. Las marcas sebáceas en sustrato de cristal presentaran una gran dificultad para poder diferenciar marcas antiguas y recientes simplemente con un examen visual. Si lo que se utiliza es un sustrato plástico hay que tener en cuenta que cuando son marcas ecrinas, así como en las sebáceas, puede distinguirse entre huellas recientes o antiguas a través de la comparación visual.
  • En relación al sustrato las marcas ecrinas depositadas en cristal no experimentarían una degradación visible, por tanto, no serviría para diferenciar huellas recientes de huellas antiguas, salvo cuando estén expuestas a la luz natural directa. Mientras que, si son depositadas en plástico sí que sufrirían degradación, independientemente de la luz y sería posible compararlas. Las marcas sebáceas si son depositadas en una superficie de cristal como sería una ventana no presentarían diferencias en el grado de degradación entre huellas recientes y antiguas. Sin embargo, si son depositadas en una superficie de plástico como la caja de un CD, independientemente de las condiciones de luz, se podrá diferenciar visualmente ambos tipos de huellas.
  • Respecto al tipo de secreción se considera que sus ventajas en la práctica real son insignificantes ya que solo cuando hay una exposición a la luz natural directa las huellas ricas en ecrinas parece que tienen una reducción de la anchura de las crestas.

En resumen, todas las marcas depositadas en un sustrato de plástico fueron más sensibles a la degradación que aquellas depositadas en vidrio. Esto indica que el tipo de sustrato será un factor determinante para ver la degradación del ancho de las crestas. También, parece que, aunque su papel no sea tan decisivo, las marcas más ricas en ecrinas se degradaban más que aquellas sebáceas. Por último, aunque la exposición a la luz parecía un factor clave resultó ser casi insignificante.

« Siguientes entradas