clubforenses.com

clubforenses.com

No todo son números: detección del fraude financiero en el discurso. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el artículo “Identification of fraudulent financial statements using linguistic credibility analysis” de Humphreys S.L., Moffitt K. C., Burns M. B., Burgoon J. K. y Felix W. F. (2010), a través del cual vamos a conocer una metodología de naturaleza más cualitativa para la detección del fraude y como difieren los discursos fraudulentos de informes financieros de los que no intentan engañar.

La historia en materia de fraudes financieros se repitió muchas veces en diferentes puntos del mundo, con duras consecuencias en la economía mundial. Y cada vez que aparece una noticia, sigue apareciendo el asombro, como si hubiese una esperanza de fondo de que no volverá a pasar.  Pero hay muchos casos (p. ej. Enron, Lehman Brothers, Freddie Mac, etc.) y todos ellos apuntan a una necesidad de protección de las inversiones y, por tanto, de la detección del fraude en sus momentos más tempranos. Si no se avanza en la protección y detección temprana del fraude, conocemos el destino más probable.

El fraude a modo general se define como un acto de engaño llevado a cabo con el fin de obtener una ganancia injusta, no merecida y/o ilegal. El tipo más común de fraude en el contexto empresarial y económico es el fraude de informes financieros, también llamado fraude de gestión, en el cual se generan informes financieros engañosos. Estos afectan a todas las partes interesadas (stakeholders) y no solo a los inversores directos de una corporación. La gestión del fraude en este contexto tiene un costo anual de billones de dólares, solo en EEUU.

Los inversos suelen consultar información sobre el desempeño financiero de una compañía en declaraciones externas o públicas, como el informe anual de resumen financiero, Form 10-K, que la Comisión de Bolsa y Valores requiere a todas las empresas. Este informe, que sirve como revisión de la empresa y de su estado financiero, tiene puntos débiles. La sección MD&A (Discusión y Análisis de Gestión), la más leída del informe, en la que cada empresa expone un análisis cuantitativo y cualitativo de su estado, su visión de futuro, riesgos del mercado a los que se enfrenta, entre otros, no está auditada, es decir, no se verifica ni se controla gran parte de la información que se presenta.

Los interventores de cuentas o auditores externos son los que se encargan de verificar si la declaración financiera (DF) de una empresa, con la que no mantienen ningún vínculo, contiene omisiones o declaraciones erróneas intencionadas. A diferencia de los errores, las omisiones intencionadas son consideradas un intento de fraude.

El fraude en las DF es muy difícil de detectar, especialmente por el ocultamiento y la colusión. A modo general, las personas son capaces de detectar el engaño solo un poco por encima de lo que sería por azar, por lo que se necesitan ayudas o guías para valorar la credibilidad. Los auditores utilizan muchas técnicas y tanto de las tradicionales como de las más novedosas se incluyen en protocolos para mejorar el proceso de detección (p. ej. SAS 99).

Tanto las técnicas tradicionales (p. ej. procedimientos estadísticos, confirmación adicional con terceros sobre transacciones o relaciones inusuales) como las más avanzadas (p. ej.  técnicas de minería de datos, como la red neuronal artificial) se utilizaron o se estudiaron con datos numéricos provenientes de informes financieros. Por esta razón, en este estudio se propone, como complemento a un análisis de datos financieros numéricos, la evaluación de señales lingüísticas como indicadores de fraude.

Por razones de espacio, solo mencionamos los modelos y teorías más importantes en la detección del engaño a través del discurso. Si estos modelos sobre detección de mentira y fraude son de vuestro interés, enlazamos entradas de MentiraPedia con algunas: Análisis de Contenido Basado en Criterios, técnica SCAN, Monitorización o Control de la Realidad, Hipótesis de Ofuscación de la Gestión, Teoría de la Manipulación de la Información, Teoría interpersonal del Engaño, Teoría de los 4 Factores y la Teoría de la Fuga de Información.

Las evidencias sobre señales lingüísticas que indican engaño mostraron que los que dicen la verdad tienen un discurso distinto de los que engañan. Por ejemplo, los que engañan expresan altos niveles de incertidumbre, utilizan menos detalles en general, pero sí más detalles espacio-temporales, más palabras informales y muchas otras señales diferentes de los que dicen la verdad.

Los autores plantean varias hipótesis que se resumirían así: en la sección MD&A en la que hay fraude habrá más cantidad, expresividad, afecto, incertidumbre y complejidad del lenguaje. Asimismo, habrá menos cercanía (referencia a grupos más que a individuos), diversidad y especificidad en el lenguaje.

En el estudio se analizan señales lingüísticas que puedan indicar fraude financiero de la sección MD&A de 202 compañías registradas, la mitad declaradas como fraudulentas y la otra mitad sin historial de fraude. Además, investigan la utilidad de este tipo de indicadores como modelo de apoyo a la decisión en la evaluación de la credibilidad.

Para medir las diferencias que plantean encontrar en el discurso, utilizan dos modelos: uno de 24 variables y otro resumido en 10, ambos basados en 8 constructos que han mostrado utilidad en la detección del engaño en el discurso (Zhou et al., 2004). En ambos casos, el nivel de precisión obtenido con el programa Agent99 Analyzer en discriminar cuales de los MD&A son fraudulentos y cuales no fue de 67%. Un nivel de precisión mayor del que se dispone en general en la población (54%). El nivel de precisión en la detección del fraude por parte de auditores tampoco es muy alto. En algunos informes se habla de que un 12% de los casos de fraude fueron descubiertos por auditores externos y un 65% de los casos fueron encubiertos por las propias auditorías internas.

Los resultados de la comparación de MD&A fraudulentas y no fraudulentas mostraron que las primeras contenían un lenguaje más activo, compuesto por más palabras agradables, que generan más activación, más metáforas y verbos auxiliares. Esto se puede explicar por un lógico intento de las empresas fraudulentas en dejar una imagen positiva, de éxito, ocultando toda señal de noticias negativas.

También observaron en los informes fraudulentos, más cantidad de palabras, pero con menos diversidad léxica y con contenido menos diverso. Es decir, más contenido irrelevante y más cantidad de texto, lo que sería una estrategia para persuadir al lector de sus éxitos y distraerle de otros temas que podían ser indicadores de una situación financiera negativa. Por ejemplo, alguien puede hablar 10 minutos sobre lo barato que le ha salido una compra online, pero no mencionar más temas, como la calidad, la utilidad, etc., intentando desviar la atención del oyente del beneficio real de la compra.

Otro resultado destacable es que los informes fraudulentos presentaron un texto más complejo, con palabras más largas y que requiere más tiempo para comprender o leer, lo que no daría tiempo al lector pensar más allá o extraer alguna información más negativa, aunque esté presente en el texto. Un buen ejemplo son los términos y condiciones de casi cualquier página web.

Por último, aunque no se hayan encontrado diferencias en todas las variables que los autores plantean, cabe destacar la utilidad de análisis de este tipo en los informes financieros, mirando un poco más allá de los números. Aunque no tengan una total precisión sí que mejora la detección del fraude por encima de lo que se suele conseguir en auditorías. Además, el uso de técnicas cuantitativas y programas de ayuda para la decisión, como el programa Agent99 Analyzer, parece que aumenta la precisión en la detección del fraude. Serían especialmente útiles para un análisis preliminar y, así, facilitar que los esfuerzos y los recursos de los auditores se utilicen de manera más exitosa.

 

Si quieres saber más sobre la gestión y detección del fraude y las técnicas más novedosas, accede a la web de nuestro Master en Análisis de Conducta en la Gestión del Fraude.

Line-up: nueva metodología en grafología forense que reduce los sesgos. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el artículo “Presentation methodologies: an assessment for forensic signature analysis”, de Conlan X. A., Stevens S. J., Found B., Sherman C. D. H. y Durdle A. (2019), que nos acerca a las metodologías del análisis de firmas. En este artículo proponen un nuevo método para los grafólogos forenses y comparan el rendimiento de sujetos profesionales y no profesionales.

Dentro de las ciencias forenses, nos encontramos con una disciplina fascinante. Hablamos de la grafología, con dos vertientes principales: la grafología forense y la grafología psicológica. El artículo que presentamos hoy se centra en la primera de estas dos, siendo la grafología forense la que se encarga de la identificación del autor y del análisis de autenticidad de una firma o texto. La validez del análisis de la escritura a mano ha sido bastante cuestionada como técnica forense. La duda o critica principal en este ámbito es si los/las profesionales que examinan la escritura realmente son más capaces de identificar una firma simulada (por tanto, detectar su falsificación) que una persona no profesional. Existen varios estudios que han mostrado que los sujetos no profesionales detectan erróneamente una firma como simulada muchas más veces que los profesionales. A pesar de las evidencias, sigue habiendo muchas cuestiones a tener en cuenta para minimizar la probabilidad de errores.

Por esta razón, en 2009, la Academia Nacional de Ciencias de EEUU publicó un informe en el cual subraya una serie de limitaciones relativas a las ciencias forenses, incluida la grafología. Una de ellas se refiere a los sesgos contextuales, influencias cognitivas y contextuales que modifican y sesgan la percepción humana de múltiples maneras. En las ciencias de la evidencia forense, la información contextual irrelevante que podría influir en las conclusiones de los expertos proviene de 3 fuentes principales: el contexto en cual se examina una evidencia, la documentación que la acompaña y la información que se obtiene sobre ella mediante la comunicación con otros.

En cualquier caso, de todas las fuentes posibles de sesgo, esta investigación se basa en evidencias previas sobre el impacto que tiene el cotejo de las muestras dubitadas e indubitadas de huellas dactilares en las conclusiones de los expertos. Es decir, el cotejo como fuente de sesgos. Por eso, los autores plantean que los mismos sesgos pueden mantenerse también en el caso de las firmas y otros materiales escritos.

Un ejemplo de cómo podría sesgarnos el proceso de cotejo es imaginarnos que tenemos que decidir cuál es el tono de color rojo cereza y tenemos dos maneras de hacerlo. Una es teniendo una muestra de ese color y elegirlo de una serie de tonalidades distintas de rojo. Otra opción sería hacer lo mismo, pero sin tener referencia alguna, donde elegiríamos el color rojo cereza de una serie de tonos de rojo. ¿Creéis que los resultados serían distintos? No cabe duda de que en el caso de los colores hay menos características para analizar, alejándose bastante de la complejidad de una firma o huella digital, pero el proceso per se es el mismo.

En los estudios previos se sugiere que una alternativa al cotejo que disminuiría el riesgo de una percepción sesgada sería un análisis de las características de la muestra dubitada de manera aislada y, posteriormente, llevar a cabo el cotejo de ambas. En este estudio, no se lleva a cabo esa sugerencia al completo, pero se prueba con un nuevo método, llamado line-up. Este concepto hace referencia a la técnica que se utiliza en las ruedas de reconocimiento de sospechosos. Significa alineación o ponerse en fila, pero aquí se refiere a la presentación de muestras dubitadas e indubitadas de manera conjunta, sin una muestra de modelo.

Se justifica la posibilidad de encontrar diferencias en la cantidad o nivel de sesgo por el tipo de procesamiento que se lleva a cabo en el método de cotejar y Line-up. Si los sujetos aciertan más y discriminan mejor falsificaciones de firmas auténticas con un método más que con el otro, implicaría que ese método permite un análisis menos sesgado.

En el cotejo, el procesamiento cognitivo ocurre primero de abajo-arriba, cuando el modelo se percibe y, posteriormente, ocurre un procesamiento de arriba-abajo para comparar con las demás muestras. Por lo tanto, existe el riesgo de una comparación más sesgada por la información contextual y cognitiva que puede haberse recogido con la percepción del modelo.

En la metodología Line-up, el procesamiento de las muestras dubitadas e indubitadas ocurre de manera conjunta de abajo-arriba. El procesamiento de arriba-abajo implica que en el análisis se utilizará la misma información que la de entrada más el conocimiento del experto, por lo que probablemente habrá menos información contextual, sea interna o externa, que pueda sesgar las conclusiones obtenidas. Es decir, menos de la que se habría recogido si se suma la percepción del modelo.

En el estudio participa una muestra de 40 sujetos no profesionales de la grafología forense. Primero, 10 sujetos deben crear una muestra de 30 firmas originales cada uno. Los otros 10 deben generar 30 falsificaciones cada uno de una muestra de 5 firmas elegidas aleatoriamente de las anteriores. Los 20 sujetos restantes conforman dos grupos: No profesionales de cotejo (NP-C) y No profesionales Line-up (NP-L). Los grupos de profesionales de la grafología están compuestos por 7 sujetos para el grupo Profesionales de cotejo (P-C) y 8 para Profesionales Line-up (P-L).

Los grupos que deben cotejar las muestras (NP-C y P-C) reciben 10 casos. Cada caso se presenta con dos hojas: una con 15 firmas del mismo autor y otra con 5 firmas, de las cuales entre 1 y 5 firmas pueden ser falsificaciones. Los sujetos deben identificar cuáles de las 5 firmas son falsas y justificar para cada una por qué piensan que son o no son falsificaciones. Además, deben valorar en cada firma si consideran que hay una evidencia fuerte de que es original, falsa o si les parecen poco concluyente.

Los grupos que siguen la metodología Line-up también reciben 10 casos. Solo se utiliza una hoja que contiene 20 firmas, siendo la mayoría hechas por el mismo autor y entre 1 y 5 falsificadas. La evaluación de las firmas es igual que la anterior, excepto lo último y en este caso se deben clasificar las firmas: las del mismo autor, las falsificaciones y las que consideran poco concluyentes.

Como resultados principales, se observa que los participantes no profesionales se pronuncian más sobre la naturaleza de las firmas. Es decir, tienen menos dudas sobre si son falsas o no cuando utilizan el método Line-up. En cambio, los grafólogos forenses dan más respuestas correctas que los no profesionales, pero también optan más por no concluir nada. Se considera que estas diferencias pueden deberse a que los profesionales son más cautos a la hora de decidir sobre la naturaleza de las firmas, dado que saben la importancia de estas decisiones a nivel judicial. Prefieren no concluir que concluir incorrectamente. En cualquier caso, parece que el método Line-up es fácil de utilizar tanto para profesionales como no profesionales, dado que ambos grupos fueron capaces de determinar falsificaciones y firmas auténticas correctamente.

Utilizando el método del cotejo, no se encuentran diferencias entre profesionales y no profesionales en ningún tipo de respuesta. Este hallazgo es inconsistente con lo que han encontrado los estudios anteriores, donde suele haber una mayor exactitud en las respuestas de los profesionales.

Según los autores, lo más importante es que este estudio ha demostrado que el método Line-up parece apto para la profesión forense, cumpliendo su función de reducir el sesgo contextual, sin que afecte a la exactitud del análisis grafológico. Por lo tanto, parece un método que aumenta la probabilidad de detectar firmas auténticas y falsificaciones porque empuja a un mayor análisis de los matices que en el caso del cotejo, donde se trabaja más con la comparación de los mismos.

 

Si quieres conocer más sobre grafología forense, el peritaje en este campo y las técnicas que se utilizan, no dejes de visitar nuestro Máster en Pericia Caligráfica y Documentoscopia.

Negociando cara a cara vs online: los rasgos de la Triada Oscura marcan la diferencia. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos un artículo muy interesante titulado “The dark side of negotiation: examining the outcomes of face-to-face and computer-mediated negotiations among dark personalities” de Crossley L., Woodworth M., Black P.J. y Hare R. (2015), que combina el contexto de negociación (online vs cara a cara) con los rasgos de los tres tipos de personalidad que componen la Triada Oscura: psicopatía, maquiavelismo y narcicismo. ¿Tener o no estos rasgos marca alguna diferencia a la hora de negociar? Sigue leyendo para averiguarlo.

La Triada Oscura es un concepto que hace referencia a rasgos de personalidad que se dan en las personalidades psicopáticas, maquiavélicas y narcisistas. Se consideran en conjunto, formando este constructo de Triada Oscura, porque comparten una serie de rasgos considerados negativos, que se reflejan en las interacciones con los demás y con el mundo en general.  Lo que más se ha asociado a la Triada Oscura es un comportamiento de explotación, manipulación e insensibilidad hacia los demás en una gran variedad de situaciones cara-a-cara (p. ej. en el trabajo).

Aunque la Triada Oscura se puede considerar como un constructo único, se debe tener en cuenta que cada tipo de personalidad conlleva también atributos únicos y una sola persona puede encajar en un tipo o en varios, dándose combinaciones diferentes en cada sujeto. Por separado, cada tipo de personalidad se asocia de manera más recurrente a ciertos comportamientos: la psicopatía se asocia más a un estilo de vida anti-social, el maquiavelismo a la manipulación y a ser orientado a metas, y el narcicismo a comportamientos de grandiosidad y auto-adoración.

¿Qué tienen que ver personalidad y negociación? Existe una gran cantidad de investigaciones que llegan a la conclusión de que los rasgos de personalidad son uno de los mayores predictores del rendimiento en una negociación, aunque suele ser clave si en la negociación se necesita competir o cooperar. Hay rasgos que suponen una ventaja para lo primero y no para la segundo y al revés; por ejemplo, ser más simpático o agradable da mejores resultados en una negociación en la que se necesita cooperar y serlo menos da mejores resultados cuando se necesita competir, por lo que, por lo menos las personalidades psicopáticas, lo harían mejor en una negociación competitiva. Y sería así porque se les asocian una actitud más hostil y menos agradable.

La negociación es un contexto casi-perfecto para observar habilidades de persuasión y manipulación y se espera que los sujetos con personalidades de la Triada Oscura lo hagan muy bien y mejor que los sujetos que no presentan estos rasgos. Pero, ¿por qué deberían hacerlo tan bien? Pues, aparte de que se les asocian comportamientos de manipulación que podrían darles ventaja en una negociación, no hay que olvidar que la negociación es principalmente un proceso comunicativo.  Se ha observado que los sujetos con personalidades de la Triada Oscura tienen sus “trucos” para manipular a través de la comunicación. Estos “trucos” se basan principalmente en el lenguaje no verbal: el contacto visual, el tono de voz que utilizan, copiar las expresiones faciales del receptor, dándoles más credibilidad, etc. El uso de claves no verbales sí son útiles en negociaciones cara a cara, pero no se espera que ocurra lo mismo en negociaciones mediante ordenador (por escrito), contexto que claramente difiere en la cantidad y diversidad de información que se puede recibir desde la otra persona.

En la comunicación a través del ordenador el lenguaje no verbal desaparece, la expresión escrita es más controlada, no se puede observar la consecuencia inmediata de aquello que se dice o de los gestos, etc. En definitiva, conversar y negociar por internet ocurre en un contexto en el que faltan muchas claves contextuales y socio-emocionales que sí median en la comunicación cara a cara. Por lo tanto, este estudio plantea que los sujetos con personalidades de la Triada Oscura van a negociar mejor cara a cara que los que no presentan rasgos de este tipo, pero no pasará lo mismo en las negociaciones en línea, por la falta de esas claves socio-emocionales que mencionábamos.

Partiendo de estas ideas, el estudio se desarrolla de la siguiente manera: participan 206 universitarios/as con una media de edad de 20 años, a los cuales se les evalúan rasgos de personalidad típicos de la Triada Oscura con tres cuestionarios pertinentes, cada uno para cada tipo de personalidad (psicopática, maquiavélica y narcisista). Se obtienen cuatro tipos de puntuaciones altas y baja: las primeras tres son de cada tipo de personalidad y una puntuación total en la Triada Oscura. La negociación en este estudio es una situación en la que los sujetos deben negociar la compraventa de unas entradas al concierto, durante un máximo de 20 minutos y, después de asignar aleatoriamente el contexto de negociación (cara a cara vs chat) y el rol (vendedor o comprador), reciben un documento en el cual se concreta: qué se negocia (precio de la entrada, productos de merchadising, asiento y acceso al backstage), posibles precios de compra-venta (según el rol) y la cantidad de dinero que van a ganar como beneficio de la negociación. Así, en el rol de comprador, a menor precio que consigue los productos, más beneficio y, del mismo modo, en el rol del vendedor, a mayor precio que consigue por los productos, más beneficio; en este proceso podían conseguir un total de 9$ y este beneficio es la variable que se espera que difiera entre grupos.

Los autores encuentran dos resultados principales. Considerando la Triada Oscura como único constructo, lo que encuentran es que el grupo con altas puntuaciones en la Triada Oscura es el que peores resultados ha obtenido de todos los grupos en la negociación por ordenador, es decir, el que menos beneficio ha obtenido. Además, y tal como se esperaba, este mismo grupo ha obtenido mejores resultados en la negociación cara a cara que el grupo con puntuaciones bajas en la Triada Oscura.

Considerando las personalidades psicopática, maquiavélica y narcisista por separado, se obtienen nuevos datos sobre las dos primeras en cuanto al éxito en las negociaciones cara a cara: los sujetos con puntuaciones altas en ambas ganaron mucho más dinero que los sujetos con puntuaciones altas en psicopatía, pero bajas en maquiavelismo, independientemente de la vía de comunicación de la negociación; hasta cierto punto, esto puede indicar que hay algunos atributos clave que son la llave del éxito en la negociación. También se observó que los sujetos con altas puntuaciones en maquiavelismo han obtenido mayores beneficios en la negociación cara a cara que por ordenador. Como este grupo destaca, siendo el maquiavelismo el único que indica una relación recurrente con el éxito en negociaciones cara a cara, los autores consideran que puede ser por rasgos como orientación a metas y comportamientos típicos de “los fines justifican los medios”.

Cabe destacar que el narcicismo no ha mostrado relaciones con el éxito en la negociación cara a cara y se puede deber a que los comportamientos principales asociados al narcicismo son la insensibilidad hacia los demás y la búsqueda de atención. En la base de estos comportamientos se encuentran otras motivaciones con poco impacto en las negociaciones.

Concluyendo, las diferencias individuales parecen interaccionar con el contexto de comunicación, influyendo en los resultados de una negociación y, por tanto, esta variable debería ser tenida en cuenta cuando se negocia con diferentes personalidades, porque hay ventajas diferenciales según el tipo de comunicación que se utiliza. También cabe destacar que, si se hiciera el mismo estudio, pero con una negociación vía videochat, los resultados podrían ser bien diferentes por la inclusión de algunas claves contextuales que desaparecen en los mensajes escritos.

 

Si quieres conocer más sobre la personalidad y cómo esta puede afectar a la conducta y a la negociación no dejes de visitar nuestro Máster en Perfilación de Personalidad y Negociación.

¿Se puede discriminar la nacionalidad del violador por su comportamiento? Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Can the offence behaviors of stranger rapists discriminate between UK and non- UK nationals?” de Almond, McMaus y Curtis; en él nos hablan de la posibilidad de discriminar entre violadores nacionales de Reino Unido y no nacionales fijándose en el comportamiento ofensivo que tienen durante el crimen.

Los delitos sexuales han aumentado un 41% en Reino Unido, siendo el 16% de las agresiones sexuales cometidas por desconocidos en el año 2013/2014. Este tipo delictivo es difícil de resolver y por ello la investigación se está centrando en generar inferencias entre los comportamientos en la escena del crimen y las características del agresor.

En Reino Unido el 14% de la población carcelaria es extranjera. El 34% de los delitos cometidos por estos presos son delitos violentos (22%) o delitos sexuales (12%). A estos datos se une la creciente preocupación de los ciudadanos por la inmigración y el delito. La investigación se ha centrado en la población carcelaria no británica sugiriendo la evidencia que, aunque el tamaño de esta población está aumentando hay pocas pruebas que apoyen que los delincuentes extranjeros sean más violentos que los nacionales. Los delincuentes extranjeros aportan a sus delitos una amplia gama de diversidad cultural, lingüística y religiosa y esto puede que haga que tengan diferentes comportamientos en la escena del crimen. El por qué de estas posibles diferencias puede deberse a la falta de comprensión del sistema legal del país, variaciones en la forma de investigar los crímenes o en lo que se considera un delito, barreras lingüísticas entre víctima y victimario y las propias diferencias de personalidad, ya que estudios anteriores mostraran variaciones en el neuroticismo y el narcisismo entre las diferentes nacionalidades (McCrae y Terracciano, 2005).

Este estudio pretende ver si los comportamientos en la escena sirven para discriminar entre autores nacionales y extranjeros, este hecho serviría para diferenciar más rápidamente sospechosos y centrar los esfuerzos de la investigación policial en el camino adecuado.

Los datos se obtuvieron de la base de datos SCASUK, utilizando 651 casos de violación por parte de un hombre desconocido contra una mujer mayor de 16 años. Todos los casos ocurrieron posteriormente al 1 de enero de 2000. Teniendo todos una sola víctima y solo agresor. Estos datos se dividieron en dos muestras. La primera formada por 217 delincuentes no británicos, siendo de 65 nacionalidades diferentes, la más comunes fueron la nigeriana (7,4%) y la polaca (6,5%), con una edad media de 28 años. La segunda muestra consistía en 434 delincuentes británicos, con una edad media de 27 años. En cuanto a las víctimas, las de la primera muestra tenían una edad media de 27 años y las de la segunda de 30 años.

Se analizaron de manera dicotómica (1 presente y 0 ausente) 70 variables de comportamiento relacionados con la participación interpersonal (autodivulgación, relación prolongada, referencias al disfrute de la víctima) y el tipo de violencia (mínima, moderada, severa).  Primero se analizó si había alguna asociación significativa entre las variables de comportamiento del delito y la nacionalidad del delincuente. Posteriormente se analizaba cualquier comportamiento llevado a cabo en el delito para comprobar que esa variable era óptima para la predicción de la nacionalidad.

De los 651 casos, 323 utilizaron la confianza como un método de aproximación, es decir, iniciaban una conversación o les hacían preguntas antes del ataque. Había una asociación significativa entre el método de aproximación y la nacionalidad, siendo 1’5 veces más probable que al usar la confianza la nacionalidad fuera extranjera (56,2%) que nacional (46,3%).

El 84’2% de los casos de violación cometida por un desconocido ocurrieron durante la noche. En este caso también fue más común que el autor fuera extranjero (89’4%) que en nacional (81’6%).

En la mitad de la tipología delictiva el agresor besaba a la víctima, siendo 1’42 veces más probable que si ocurría el delincuente sea extranjero (56’2%) frente a nacional (47’5%). Lo mismo ocurre en relación con el forzar a la víctima a practicar actos sexuales, sucede en la mitad de estos delitos, pero en esta ocasión es más probable que el agresor sea nacional (54’4%) si esto ocurre que extranjero (40’6%). Lo mismo sucede con la solicitud de actos sexuales, es más probable que ocurra con un violador nacional (45’6%), que con uno extranjero (37’7%).

En esta clase de delitos sólo un porcentaje muy bajo de los agresores piden disculpas (14%), siendo más posible que el agresor sea nacional (16’1%) que extranjero (9’7%). Sólo un 8% de los agresores destruyen pruebas forenses, siendo una conducta más común en agresores británicos (9’7%) que extranjeros (4’6%).

En el 14% de los casos de violación el agresor bloquea la entrada o salida para evitar que la víctima escape. Esta conducta es más común entre los violadores extranjeros (18’4%) que entre los nacionales (11’8%). En cuando a la presencia de armas de fuego solo se da en un 2’8% de los casos de violación, siendo 5’47 veces más probable que el agresor sea extranjero cuando está presente (6%) que si es nacional (1’2%).

En relación a la violencia presentada, en el 21’2% de los casos se considera mínima, en el 16’9% moderada y en el 4’6% severa. Se da la violencia mínima en aproximadamente un cuarto de las violaciones cometidas por extranjeros (26’3%), frente a un 18’7% de los casos cometidos por nacionales. Por último, en casi un tercio de las violaciones existe penetración vaginal usando las manos, los puños o los dedos. Se comprobó que su empleo era más probable en crímenes cometidos por nacionales (35’9%) que por extranjeros (25’3%).

En resumen, de las 70 variables se descubrió que once comportamientos discriminaban. Cuatro no superaron la regresión logística: la aproximación por confianza, la solicitud de actos sexuales, las disculpas y la destrucción de pruebas. Otros siete comportamientos tenían valor predictivo, cinco serían para el grupo de extranjeros: la nocturnidad, el besar a la víctima, el bloquear la entrada o salida, la violencia mínima y la posesión de un arma de fuego. Para los nacionales fueron predictivos la realización de actos sexuales y la penetración vaginal con la mano, puño o dedos.

 

La utilidad de los datos de delitos pasados como variable de atractivo para ladrones residenciales. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The usefulness of past crime dates as an attractiveness index for residential burglars” de Hanayama, Haginoya, Kuraiski y Kobayashi; en el cual utilizan un modelo de elección discreta para comprobar los efectos del atractivo del vecindario en el proceso de selección de ubicación del crimen.

De sobra conocida es la importancia de entender cómo los delincuentes eligen sus objetivos y la ubicación de los mismo de cara a la investigación y a la prevención del crimen. Varias teorías se han encargado del tema: la teoría de la elección racional, la teoría de las actividades cotidianas y la teoría del patrón del crimen. También, hay estudios que sugieren que los datos de los delitos anteriores pueden servir para predecir la ubicación de crímenes futuros.

El atractivo de un vecindario como predictor de la actividad criminal se puede estimar a partir de los datos de delitos pasados, utilizando siempre el mismo tipo de delito, ya que esta característica puede variar de una tipología a otra. El modelo de elección discreta intenta explicar el resultado del comportamiento cuando un tomador de decisiones individuales debe elegir una alternativa única de un conjunto de alternativas distintas finitas.

Los principales aspectos que analiza el modelo de elección discreta en los robos residenciales son:

  • Lugar de residencia de ladrón: a mayor distancia en la residencia del ladrón menor posibilidad de robo. Esto se conoce como patrón de decaimiento en la distancia.
  • Número de unidades residenciales: un área con muchas unidades residenciales tiene más posibilidades de ser atractiva para el delincuente.
  • Viviendas unifamiliares: la presencia de un mayor número de viviendas unifamiliares hace más atractiva la zona ya que este tipo de construcción suele ser más accesible para el ladrón.
  • Heterogeneidad étnica y movilidad residencial: estos factores propician la ausencia de guardines capaces haciendo más atractiva la zona.
  • Valor inmobiliario de la residencia: algunos estudios han demostrado una correlación significativa entre el valor inmobiliario de la residencia y la posibilidad de ser elegido como objetivo criminal.
  • Distancia al centro de la ciudad: las áreas cercanas al centro corren más riesgo de robo ya que son más conocidas por todos, incluyendo los ladrones.

El objetivo del presente estudio es sumar los datos de delitos pasados para ver si pueden ayudar a determinar el índice de atractivo de una zona para esta actividad criminal. Se utilizó los robos resueltos cometidos en la ciudad en la ciudad de Sendai, localizada al norte de Tokio, entre los años 2007 y 2015 por un ladrón en solitario. En total se usaron 369 casos llevados a cabo por 70 ladrones. La proporción de robos cometidos en viviendas unifamiliares es de 42%. En cuanto a los aspectos antes mencionados se obtienen los datos del censo de Japón.

Los resultados apoyaron que la distancia de la residencia del agresor disminuye las posibilidades de selección como objetivo. Cuando la distancia aumenta un kilómetro solo se tiene un 0,70 de posibilidades de robo. El número de unidades residenciales tiene un efecto positivo en la posibilidad de que el ladrón elija esa zona. Cuando aumenta su número en 100 las posibilidades de ser el objetivo son de 1,05. Lo mismo ocurre con el tanto por ciento de viviendas unifamiliares, a un tanto por ciento más alto más posibilidades. Cuando aumenta un 10% aumenta en 1,06 veces la posibilidad de robo. Por el contrario, la proporción de extranjeros y la movilidad residencial se muestran indiferentes. También se ha descubierto que cuanto más robo ha habido en una zona mayores son las posibilidades de que vuelve a ocurrir. Cuando se aumenta en uno los robos ocurridos, aumenta la probabilidad en 1,16 veces.

La proximidad de la residencia del agresor fue la variable que más impacto tuvo en el proceso de selección de objetivos por parte de los ladrones de residencia. Después, la siguiente variable a la hora de elegir fue el número de residencias en la zona, seguido de la proporción de viviendas unifamiliares y para acabar el número de robos anteriores en la zona.

Estos resultados muestran que el número de casos de delitos pasados es una variable útil para determinar la atracción de un vecindario para los ladrones. También se puede decir que la precisión del perfil geográfico se incrementa si se incluye la tasa de robos residenciales en el pasado, además, de los otros índices de atractivo.

Los resultados del presente estudio están en línea con estudios anteriores y se puede afirmar que el patrón de decaimiento en la distancia es una guía sólida para los procesos de elección de la ubicación criminal. Esto es debido a que el delincuente reduce los costes del viaje y conoce mejor el área. Pero, hay que tener cuidado porque no sólo su residencia puede ser el punto de partida, se debe considerar también otros puntos de anclaje como sus residencias anteriores. Los resultados positivos en cuanto al mayor número de residencias pueden deberse a que de esa manera tienen más objetivos entre los que escoger y el tanto por ciento de viviendas unifamiliares debe de ser por las facilidades de accesibilidad que presentan. En cuanto a la tasa de extranjeros, quizás la no relevancia de esta variable se debe a la homogeneidad que presenta la población de Japón.

Aunque los resultados muestran la importancia de los robos pasados, el estudio tiene limitaciones. No se tuvo en cuenta otros posibles factores de elección como la infraestructura de las zonas, especialmente las carreteras. Además, hay que tener en consideración que ese realiza en la ciudad de Sendai en Japón y puede que las conclusiones no sean extrapolables a otros lugares ya que se ha sugerido en otros estudios que los factores que influyen en el crimen difieren según el país y la ciudad.

¿Usar la línea base para diagnosticar estados internos? Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Using baseline to diagnose internal state? Listen closely” de Leins; en él nos hablan de cómo se estable la línea base por parte de los entrevistadores en relación al comportamiento de los entrevistados.

El uso de la línea base puede ser un proceso válido para identificar los estados internos de los entrevistados si estos estados se corresponden de manera confiable con la conducta perceptible y los entrevistadores la perciben de manera fiable.

Este estudio tuvo dos fases, en la primera de ellas se desarrollan vídeos de estímulo para una observación posterior. Se entrevistaron a hombres adultos utilizando un estudio de protocolo. Los vídeos fueron desarrollados para provocar cambios en los estados internos. La segunda fase consistía en que los entrevistadores visionaran los videos e informaran sobre sus percepciones e interpretaran el comportamiento de los sujetos.

Como se ha dicho en la primera fase se pretendía grabar los vídeos que servirían para la segunda parte del experimento. Para ello se quería manipular los estados internos de las personas que estaban siendo entrevistadas y grabar los cambios de comportamiento que se produjeran y posteriormente solicitar que identificaran e interpretaran esos cambios de comportamiento. Para producir los cambios en el estado interno se creó un protocolo de entrevista que incluía temas que pueden provocar diferentes cogniciones y emociones. Para ello se realizó una encuesta en la que se preguntaba sobre como se sentiría contestando a preguntas relacionadas con su historial laboral, el estado de su relación, sus antecedentes penales, su educación, su afiliación política, su historial médico, su estado financiero, su consumo de drogas o alcohol o su opinión sobre temas políticos o sociales. Se comprobó que las preguntas sobre el estado financiero, sus antecedentes penales o sobre su consumo de drogas o alcohol presentaban mayor reticencia para responder que aquellas sobre su empleo, su educación o su opinión política. Gracias a esta clasificación se creó un protocolo de entrevista que incluía preguntas sobre temas generales e inocuos y otras sobre temas íntimo y más comprometidos.

Se reclutó a siete hombres de diferentes comunidades y culturas con edades entre los 20 y los 35 años del área metropolitana de Washington. Se les dijo que participarían en un experimento para mejorar las técnicas de entrevista.

Los entrevistados rellenaban primero un cuestionario previo a la entrevista. Después comenzaba la entrevista llevada a cabo por un agente especial retirado que tenía experiencia en entrevistas para autorizaciones del gobierno. Se empezaba con temas generales no amenazadores como la educación y su historial laboral. Para, a continuación, pasar a temas que fueran más amenazadores y produjeran cambios internos, como su historial médico, su salud mental o el uso de drogas o alcohol. La entrevista dura entre 45 – 60 minutos y fueron grabadas desde una vista frontal y otra de perfil. Al concluir la entrevista se revisaba el vídeo con cada entrevistado para que informara sobre sus sentimientos y emociones en cada momento.

Al final, para la siguiente fase, se utilizaron cuatro vídeos de 25 minutos de duración, de los cuales los ocho primeros minutos eran sobre temas inocuos, para a continuación pasar a los más incómodos. El promedio fue de once cambios del estado emocional y siete del estado cognitivo según los entrevistados.

En la segunda fase los vídeos fueron visionados por 18 entrevistadores profesionales con una edad media de 44 años siendo el 94% hombres y el 75% caucásicos, con trabajos en el ejército o en las fuerzas de seguridad federales. Todos ellos habían recibido capacitaciones sobre entrevista, habían realizado más de 50 a lo largo de su trayectoria profesional y contaban con más de cinco años de experiencia. Se les presentaban los vídeos grabados en un ordenador y se decidió aplicar la técnica de pensamiento en voz alta, grabándose todo lo que iban diciendo mientras visionaban las entrevistas. Posteriormente rellenaban un cuestionario sobre datos demográficos y la postvista. Se les dijo que debían ver los vídeos e informar de todo lo que percibieran que les ayudara a establecer y evaluar la línea base. Al final del vídeo debían calificar de fácil o difícil el establecer la línea base de cada entrevistado en una escala de Likert de cinco puntos. Cada entrevistador visionó dos vídeos. Las sesiones tenían una duración media de entre 75 y 90 minutos.

Se transcribió todo lo que dijeron sobre lo que habían usado para descubrir los estados internos y cuales habían sido estos. Las señales fueron codificadas en verbales, no verbales y otras. Después se calculó la tasa de aciertos y errores para cada vídeo. Las categorías de diagnóstico interno incluyen: emoción, cognición, veracidad y estrategia.

En todos los vídeos los participantes informaron de un total de 528 señales, las de tipo no verbal fueron las más identificadas. En general, los casos de señales reportados coincidían con el 27% de los estados internos destacados que identificaron los entrevistados. Se encontraron más aciertos durante el periodo de preguntas más incómodas que durante el de temas generales. Las señales verbales se revelaron como el tipo que más aciertos producía para descubrir el estado interno.

En cuanto a los estados internos encontrados que coincidían con la realidad, el 45% eran emocionales, el 33% eran cognitivos, el 14% eran relacionados con la veracidad y el 31% con los de estrategias.

Los entrevistadores informaron de varias pautas para establecer la línea base. Era de esperar que el tipo de señal más usada sea el comportamiento no verbal ya que es muy habitual que en los programas formativos para la realización de entrevista se hable de la importancia de fijarse en movimientos corporales, gestos, contacto visual, expresiones faciales, etc. A pesar de ello en este estudio se encontró que casi el 70% de las señales verbales identificadas como informativas parecían serlo realmente. Por tanto, también se encontró que los entrevistadores podían estar mejor preparados para prestar atención a lo que les dice los entrevistados de lo que se esperaba. La tasa de aciertos para los estados internos fue baja, un 27%, lo que sugiere que el uso de estados internos para establecer la línea base puede llevar a error, lo que implicaría no sólo perder oportunidades para establecer un buen rapport con el entrevistado sino también el que las entrevistas sean ineficaces.

La aplicación de procesos de referencia para diagnosticar los estados emocionales fue fructífera. Muchos diagnósticos eran relevantes y coincidían con los estados informados. La mayoría versaba sobre la comodidad frente a los temas a tratar. Muchos hicieron diagnósticos resaltando que la incomodidad no la veían como resultado de la culpa o de un sentimiento negativo sino de que hay temas que pueden ser difíciles de tratar según la cultura del sujeto. El uso de líneas base puede ser una adición práctica a los métodos para determinar cuándo profundizar en un tema y cuándo dejarlo.

Es cierto que en este estudio los estados cognitivos fueron menos detectados que los emocionales y habría que investigar en un futuro por esta línea ya que el estado cognitivo puede ayudar a la detección de mentiras.

Enfoque de dominios para predecir resultados en casos de homicidios. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Shifting the focus variables to substantive domains when modeling homicide case outcomes” de Hawk y Dabney; en él nos hablan de la utilización de los dominios en la predicción de los resultados de la investigación de homicidios.

En el año 2016 en EE.UU. la tasa de resolución de homicidios era muy baja, un 59%, marcando un mínimo histórico. Se estima que 7.000 asesinatos se quedan sin resolver cada año. Lo que limita la perspectiva de mejora del índice de resolución de casos es la falta de comprensión de los factores que predicen si un caso se resolverá o no. Este estudio propone un modelo conceptual holístico y práctico para averiguarlo.

Se han detectado varios problemas, el acceso a los datos produce importantes problemas para la medición de procedimientos de investigación policial. Esto a su vez produce que al no trabajar con datos fiables las teorías que se realizan sobre la resolución de homicidios pueden no ser precisas. Otro problema es que los diferentes tipos de investigaciones sobre este tema no son extrapolables de un lugar a otro por diversas circunstancias. Todo ello genera que los resultados de las investigaciones científicas llevadas a cabo sobre la investigación de homicidios den unos resultados incongruentes e incluso contradictorios entre ellos.

Para ampliar y mejorar la investigación este estudio sistematiza las medidas de cinco dominios de investigación y analiza la importancia de cada posible modelo conceptual de agrupación para la posterior resolución. Estos cinco dominios son: sujetos involucrados, circunstancias del incidente, dinámica del caso, características ecológicas y factores del investigador.

Las medidas de los sujetos involucrados hacen referencia a las diferencias personales en víctima y autor y la forma en que su manifestación en el episodio violento puede generar pistas. Las circunstancias del incidente incluyen combinaciones en condiciones relacionales, temporales y físicas que pueden hacer cambiar la forma en que las personas interactúan, como puede ser la relación existente entre víctima y autor, el motivo, el tipo de arma o el día y la hora en la que se produce el crimen. La dinámica del caso hace referencia a los factores que la policía encuentra una vez se dan cuenta del asesinato, como pueden ser los tipos de evidencia que descubren, la ubicación de la escena del crimen o la presencia de policía en esa zona. Las características ecológicas, dentro de este dominio se incluye la cultura, la demografía de los residentes, la eficacia colectiva, las percepciones de la policía y la tasa de delincuencia. Dentro de las variables del investigador se considera la carga de trabajo, el esfuerzo, la experiencia y la técnica que usa.

Para comprobar esto se realizó un estudio en un área metropolitana de EE.UU. de casi medio millón de habitantes. En la década anterior (2000 – 2009) experimentó altos niveles de delincuencia, con 100 homicidios por año. En el momento en que se realizó el estudio la unidad del departamento de homicidios era la encargada de investigar todos los asesinatos reportados, las muertes bajo custodia, los secuestros, los tiroteos relacionados con la policía, los casos antiguos sin resolver y las muertes sospechosas. Para ello contaban con entre 15 y 20 investigadores, supervisados por entre cinco y siete sargentos, un teniente, un capitán y un comandante. Se permitió el acceso total a toda la documentación de todos los casos de homicidios acaecidos entre 2009 y 2011.

Los investigadores recopilaron datos de 252 archivos de homicidio en una plantilla estandarizada, posteriormente buscaron en la base de datos incidentes ocurridos en la misma localización del homicidio. También, se añadieron los antecedentes penales de todas las personas mencionadas en el caso. Además, se añadió información del censo. Posteriormente, se entrevistó al investigador principal de cada caso para que aportara detalles adicionales que se hubieran mencionado en los informes.

Se tuvo como variable dependiente la resolución del caso, considerándose como tales todos aquellos que hubiera finalizado con una detención. La tasa de resolución en esos años estaba en un 69%, siendo ligeramente superior a la media nacional de esa época (65- 67%). Como variables independientes se consideraron 16. En lo relacionado al dominio de sujetos involucrados se consideró el género de la víctima y del sospechoso, la edad de la víctima y el historial criminal del sospechoso. En lo relativo a las circunstancias del incidente se analizó la relación existente entre víctima y victimario, el motivo del crimen y la hora de comisión del mismo. En lo relacionado con la dinámica del caso se extrajeron datos de la presencia de testimonios, de armas y de evidencias tecnológicas y biológicas. También se analizó la frecuencia de la policía en el área y si el crimen había sido interior o exterior. En lo referente a las características ecológicas se analizó la población, el tanto por ciento de extranjeros y el de personas con un nivel educativo inferior a la educación secundaria. Por último, en lo relativo al investigador se recopiló información sobre el número de casos abiertos cada año, el número de casos que tiene asignados, la utilidad de los apoyos y de las revisiones de casos por parte de la unidad.

Los resultados obtenidos muestran que los casos donde la víctima tenía menos de 24 años tenían 3,5 veces más de posibilidades de ser resueltos que cuando la víctima era mayor. Esto puede ser así, porque se les da mayor prioridad a los casos donde la víctima era joven o porque las personas más pequeñas cuentan con la supervisión de los adultos y, por tanto, es más fácil obtener datos. Cuando el sospechoso tiene antecedentes penales hay 1,09 más de posibilidades de resolución. No se encontró una relación entre el sexo de víctima y autor y el índice de resolución de casos. Cuando había una relación entre víctima y autor las posibilidades de resolución aumentan un 6,89. Si el crimen estaba motivado por algún asunto relacionado con el submundo criminal las posibilidades de resolución se reducían un 0,38. Esto es así porque las personas involucradas daban información falsa a la policía o directamente no cooperaban con ella. En lo relativo a las evidencias aumentaban la resolución del caso 2,72 veces. De igual manera la mayor presencia de la policía en la zona hacía que las posibilidades creciesen 2,4. La localización interior del crimen aumenta en un 2,51. Cada vez que se aumentaba en una unidad la población se reducía por 0,99 las posibilidades de resolución, esto es así porque al haber más gente el delincuente se vuelve más anónimo y, por tanto, se dificulta su identificación. Sorprendentemente aumentaban en un 1,11 cuando había mayor presencia de extranjeros, se piensa que es así porque colaboraran más con la policía por el miedo a la deportación o alguna otra falta administrativa. Sin embargo, no se observó relación con el nivel educativo. Por cada caso abierto que tiene el investigador se reduce en 2,5 las posibilidades de resolución. Por el contrario, las revisiones del caso aumentan en un 1,80.

Se puede concluir que los casos que tendrían más posibilidades de resolverse serían aquellos que hubieran pasado en un escenario interior, donde la víctima es menor de 24 años, tiene relación personal con el autor. El victimario tenía antecedentes penales, pero no guardaba relación directa con el submundo criminal. Ocurría en una población pequeña con gran presencia policial y alto número de inmigrantes. La escena del crimen presentaba un gran número de evidencias. El investigador principal tenía pocos o ningún otro caso abierto y en su equipo se hacían revisiones periódicas del caso.

 

Efectos de la inclusión y exclusión social en la obtención de información. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Eliciting human Intelligence: the effects of social exclusión and inclusión on information diclosure” de Ask, Ejelöv y Anders; en él se estudia los efectos de las experiencias sociales, concretamente la inclusión o exclusión social, sobre la facilidad de obtención de informaciones en entornos semicooperativos que pueden darse en un contexto de investigación policial o de inteligencia.

La hipótesis que se plantearon en esta investigación es que la exclusión social supondría una amenaza para la necesidad de pertenencia y la autoestima de los individuos lo que les haría intentar reconectar socialmente y eso llevaría a compartir más información crítica.

Para comprobar la hipótesis hicieron dos experimentos. El primer experimento consistió en un dilema de administración de información, en el que debían conseguir llegar a un punto de equilibrio entre la información crítica que divulgaban, que beneficiaba al resto, y la información crítica que retenían, que les beneficiaba a ellos. Previamente habían jugado a un videojuego en el que podían estar incluidos o excluidos socialmente por sus compañeros. Los miembros del grupo control simplemente observaban pasivamente el juego. Se predijo que los participantes que fueran excluidos compartirían más información que aquellos incluidos y que el efecto de la exclusión se podría medir por el nivel de amenaza de pertenencia y por la autoestima que experimentaban los participantes.

Para comprobar las hipótesis se utilizó una muestra de 150 participantes, con una edad media de 28 años. Un 71,3% eran mujeres y un 28,7% hombres. Fueron reclutados a través del departamento de psicología de la universidad de Gotemburgo y se les dijo que el estudio era sobre la toma de decisiones en grupo. Se les asignó al azar a una de las tres condiciones de investigación.

Los participantes llegaban en grupos de entre tres y seis miembros, cada uno se sentaba en un ordenador individual y leían las instrucciones. Para el dilema de la información se les decía que eran un paparazzi que trabajaba en un equipo con más miembros (el resto de participantes). Su equipo competía con otro equipo por ganar un premio de 20€, pero solamente el mejor fotógrafo de manera individual lo ganaría. Cada fotógrafo debía fotografiar a nueve famosos determinados, pero desconocían donde se encontraban. Por el contrario, conocían la ubicación de los famosos de uno de sus compañeros. Compartir dicha información podía hacer ganar a su equipo, pero sólo uno de ellos ganaría el premio. Antes de pasar a la realización del intercambio de información se les pedio que jugaran a Cyberball, un juego donde tres jugadores se pasan el balón entre ellos. Los participantes creían estar jugando en línea con otros participantes. A las personas que se les asignó la inclusión social les pasaba el balón el mismo número de veces, a los de la exclusión social solo se les pasaba dos veces al principio y luego los otros dos jugadores se la pasaban entre ellos exclusivamente. El grupo control vio una grabación. Después de ello se les pedio a los participantes que dijeran cuantas coordenadas revelarían a sus compañeros y que contestaran a unas preguntas con escalas de Likert. Tuvieron que calificar el grado de pertenencia que experimentaron, la autoestima, la existencia significativa y el control que sintieron durante el juego. También tuvieron que informar sobre diferentes estados positivos y negativos que experimentaron y sobre el grado de exclusión o inclusión que sintieron y la frecuencia con la que recibieron el balón.

Los resultados revelaron que los participantes excluidos socialmente se sentían significativamente más excluidos e ignorados que el resto de participantes. También, pensaron que habían recibido el balón un número menor de veces que el resto. Los participantes excluidos informaron que sintieron menos pertenencia, control, existencia significativa y autoestima que los incluidos o el grupo control. Entre estos dos grupos no hubo diferencias significativas. En cuanto a los estados de ánimo el grupo excluido presentó más estados negativos que el resto de grupos. En relación a la revelación de información no se mostró diferencias significativas entre los grupos, por tanto, la hipótesis planteada no pudo demostrarse. Si bien es cierto que los excluidos revelaron un poco más de información que los incluidos, los niveles fueron los mismos que los del grupo control. Tampoco pudo ser probada la hipótesis referente a los niveles de pertenencia y autoestima. Se cree que el resultado negativo del experimento pudo deberse a que la revelación de la información se hacía a un miembro anónimo, lo que no producía una reconexión con el grupo social. También se piensa que la condición de control generaba el mismo rechazo que la de exclusión y por tanto los resultados no diferían.

En el segundo experimento se intentó paliar las deficiencias presentadas en el primero. Por ello se optó por una entrevista de inteligencia, que llevaba aparejada una interacción más directa. Además, se incluyó una medida de sensibilidad al rechazo como un moderador potencial de los efectos de la exclusión social. Se pidió a los participantes que imaginasen ser informadores de la policía con antecedentes delictivos y con conocimientos críticos sobre un inminente ataque terrorista. Para ello se les dio previamente información sobre un ataque ficticio y sobre el grupo que lo iba a llevar a cabo. Se les pidió que durante la entrevista evitaran revelar muy poca información pero que tampoco revelaron demasiada, ya que por un lado necesitaba ser útil para la policía para que le permitirán quedar en libertad, pero por otro, a parte de su simpatía por el grupo terrorista podía ser identificado como la fuente de información. Previamente a la entrevista participaron en un experimento sobre la toma de decisiones grupales que no estaba relacionado donde fueron invitados a unirse a una discusión con otras dos personas o fueron ignorados. El grupo control no participó en esa fase. Las hipótesis que se plantearon fueron que, primeramente, los participantes excluidos socialmente revelarían más información que el resto. También se planteó que el efecto de la exclusión sería mayor para las personas con una sensibilidad de rechazo alta. Por último, el efecto de la exclusión sería mayor en aquellos que experimentaron una amenaza a la pertenencia y a la autoestima. Se manejó una muestra de 135 participantes con una edad media de 29 años, siendo un 65,2% mujeres y un 34,8% hombres.

Después de la entrevista los participantes tuvieron que contestar una prueba de memoria sobre el supuesto ataque que contaba con 17 preguntas. A continuación, contestaron el cuestionario de sensibilidad al rechazo de Downey y Feldman. Para acabar, respondieron a las escalas de satisfacción de necesidades empleadas en el primer experimento.

Los resultados mostraron que los participantes excluidos experimentaron menos pertenencia, autoestima, existencia significativa y control en comparación con los otros dos grupos. Los grupos de control y de inclusión no difirieron en nada salvo en pertenencia que era mayor en el segundo. También, los participantes excluidos mostraron estados de ánimo más negativos que positivos. Los excluidos no difirieron en el número de informaciones reveladas en relación a los otros dos grupos, por tanto, la hipótesis planteada no fue demostrada. Tampoco la sensibilidad al rechazo interactuó significativamente, siendo incompatible este resultado con la segunda hipótesis. El nivel de sensibilidad al rechazo tampoco se pudo relacionar significativamente con la divulgación de información. Por último, tampoco fueron significativos los efectos de la pertenencia o la autoestima en relación a la exclusión social y al intercambio de información, dejando de esta manera sin apoyo a la tercera hipótesis. Se obtuvieron resultados sorprendentes que revelaron que la inclusión social hacía que el número de informaciones reveladas fuera ligeramente mayor.

En conclusión, se puede decir que las experiencias sociales previas de las fuentes pueden realmente influir en el resultado de las entrevistas, aunque, en la actualidad se desconocen los mecanismos que puedan estar detrás de ello.

Estimación de la edad de muerte por el esqueleto: método bayesiano versus regresión. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Skeletal age -at-death estimation: Bayesian versus regressions methods” de Nikita y Nikitas; en él hacen una comparativa sobre los dos métodos para determinar la edad en el momento de la muerte, la aproximación bayesiana o el método de regresión.

Establecer la edad de fallecimiento basado en el esqueleto es importante, tanto en antropología forense como en la bioarqueología. En el primero de estos campos ayuda a establecer el perfil biológico del individuo y su identificación. En la bioarqueología nos da información del pasado biológico y contribuye al estudio de la patología, la actividad y otros marcadores del esqueleto de la vida del individuo.

Se han propuesto varios métodos para estimar la edad en restos de adultos. Casi todos los métodos utilizan una muestra que debe ser representativa de la población de referencia. Después se establecen relaciones entre la edad cronológica y los marcadores de edad a través de los métodos de regresión o el enfoque bayesiano. Estas relaciones son las que se utilizan para establecer la edad de muerte en la muestra objetivo. Este procedimiento y en concreto el uso de método de regresión ha sido criticado, ya que la edad está sesgada por el perfil demográfico de la muestra utilizada, técnicamente el método bayesiano se desarrolló para minimizar ese problema.

En este estudio se han utilizado dos técnicas para incorporar el perfil demográfico de la muestra utilizada en el análisis regresivo. La primera de ellas es usar factores de ponderación adecuados tomados del perfil demográfico de la muestra objetivo o de una muestra que tenga un perfil similar. La segunda es crear, basándose en la muestra original, una nueva muestra hipotética con un perfil demográfico similar al de la muestra objetivo.

El método bayesiano para la estimación de la edad de fallecimiento fue desarrollado por Konigsberg et al. Calculó la probabilidad condicional Pr(aǀc) de que los restos óseos provinieran de individuos que murieron en la edad = a dado que se observa el marcador de edad c a través del teorema de Bayes:

Donde Pr(aǀc) es la probabilidad de observar el marcador de la edad r en un individuo que ha muerto en la edad a. f(a) es la distribución de la edad de fallecimiento en la población de referencia llamada información previa y shift es la edad mínima en información previa. Esta información era:  la muestra objetivo, la muestra de entrenamiento y la muestra con perfil demográfico uniforme.

La f(a) de la información previa se estima con la ecuación que parte de la estimación del ratio de mortalidad y del de supervivencia aplicando la función del modelo de Gomplertz- Makeham. Las probabilidades condicionales Pr(aǀc) se obtienen utilizando el análisis de transición. Hay que tener en cuenta que la Pr(aǀc) se calcula como función de densidad de probabilidad. La edad de la muerte de un individuo con el marcador de edad c corresponde a la posición del pico de la curva de esta función.

En el presente estudio se utilizó como material datos artificiales, donde los marcadores de edad mostraban una expresión de ocho grados. Se generaron muestras aleatorias de edades comprendidas entre los 18 y los 85 años. El perfil demográfico de las muestras se basa en la distribución por edades de Gilbert, en la de Terry y en las tablas de vida inglesa número 17. Para las muestras de entrenamiento se crearon muestras con edades que siguen la distribución uniforme de Los Balcanes.  A cada edad se le adjuntó un marcador de edad determinado. Las muestras de entrenamiento se generaron con el tamaño de 50,100,200 y 500. Para las muestras objetivo se utilizó el tamaño de menos de 500 para evitar fluctuaciones en las predicciones. Para cada muestra de entrenamiento se generaron siete muestras objetivo. En total se obtuvo 588 sistemas de datos artificiales, aunque solo se utilizaron 532 por problemas computacionales.

Se utilizaron varios criterios para probar el funcionamiento de los modelos de estimación de edad de la muerte:

  1. Coeficiente de correlación de Pearson entre la edad original y la edad estimada.
  2. El error estándar de estimación (SEE):
  3. El porcentaje de casos en los que la edad de muerte original cayó dentro de un cierto intervalo alrededor de la edad promedio de muerte. Los intervalos fueron ±5 ±10 y ±20 años. Los casos que cayeron en el último fueron descontados por su poco poder de discriminación.

De los resultados obtenidos se pueden sacar dos conclusiones generales: la primera es que aparecen problemas de cálculo par los modelos de regresión 2 y 3 y en bayesiano en todas las muestras superiores a 200. Los problemas surgen cuando hay factores de la muestra objetivo que no están presentes en la muestra de entrenamiento sobre todo cuando faltan factores pequeños. Por tanto, la muestra de entrenamiento debe ser lo suficientemente grande e incluir todos los factores posibles de los marcadores de edad.

La segunda conclusión es que si se documenta la edad de muerte de una colección el mejor método para estimarla en los individuos que pertenezcan a la misma es la regresión simple. El método bayesiano reduce el efecto del mimetismo, pero no lo elimina totalmente.

El tipo y el tamaño de la muestra de entrenamiento puede afectar significativamente a los resultados obtenidos. Estos también se ven influenciados por la técnica propuesta, los pesos y la muestra hipotética de entrenamiento. El método bayesiano se desempeña mejor solo cuando el tamaño de la muestra es pequeño (50) y especialmente al usar muestra de entrenamiento arbitrarias. Cuando las muestras de entrenamiento tienen un perfil demográfico el rendimiento de los métodos de regresión aumenta considerablemente y mejora más si la muestra es uniforme. Los métodos de regresión superan al bayesiano en el 90% de los sistemas.

El método bayesiano que usa un perfil demográfico uniforme o el perfil de la muestra de capacitación son una opción inapropiada especialmente el primero de ellos que deberá evitarse por completo.

El rendimiento de los métodos de regresión en relación al bayesiano depende del criterio utilizado. Existen patrones característicos que son independientes del mismo. El uso de una muestra de entrenamiento uniforme da como resultado el rendimiento óptimo entre los métodos de regresión independientemente del tamaño de la muestra y del tipo de método propuesto. Esto puede ser porque un algoritmo de aprendizaje requiere la edad en el momento de la muerte y que los cambios morfológicos y esqueléticos correspondientes estén completamente representados en la muestra de entrenamiento para que la función matemática que lo mapea sea eficiente.

Se concluye que en el enfoque bayesiano si la información previa se utiliza la muestra objetivo o una similar demográficamente se reduce el sesgo de estimación de la edad de muerte, pero no se elimina del todo. En cuanto a los métodos de regresión tanto si se utiliza el enfoque de factores de ponderación tomados del perfil demográfico de la muestra objetivo como si se utilizan una muestra hipotética de entrenamiento con perfil demográfico similar al de la muestra objetivo, reducen y minimizan el sesgo siempre y cuando la muestra de entrenamiento tenga un perfil demográfico uniforme o de tipo gaussiano con representación equilibrada entre individuos jóvenes y mayores. Si se cumple esto, los dos enfoques superan en rendimiento al bayesiano por encima del 90%.

Vincular delitos contra la propiedad a través del comportamiento del delincuente en la escena del crimen. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Linking property crime using offender crime scene behavior: A comparision of methods” de Tokin, Lemeire, Santtila y Winter; en él hacen una comparativa entre la capacidad de siete modelos estadísticos para diferenciar delitos contra la propiedad vinculados de aquellos que no lo están.

El estudio compara siete modelos estadísticos diferentes que se derivan de los tres enfoques más comúnmente utilizados en la investigación conductual: el análisis de regresión logística binaria, el análisis de árbol de clasificación y el modelo probabilístico/bayesiano. Estos enfoques se aplican sobre tres conjuntos de datos: robos residenciales cometidos en Finlandia, robos de automóviles cometido en Reino Unido y robos comerciales cometidos en Finlandia. Este estudio contribuye a determinar cual es el método estadístico más apropiado para vincular los delitos a través del comportamiento del delincuente, siendo novedosa la aplicación estadística a la vinculación del comportamiento criminal.

Para llevarlo a cabo se utilizaron datos de 160 robos residenciales cometidos por 80 ladrones en serie en la región del Gran Helsinki de Finlandia entre 1990 y 2001. Se seleccionaron al azar dos delitos por delincuente del total de crímenes que hubieran cometido en ese periodo. Para cada robo se registraba: ubicación del delito, hora y día de la semana en que se cometió, tipo de propiedad robada, método de entrada, el comportamiento de búsqueda del delincuente una vez dentro y el valor de los objetos robados. Los datos utilizados para el robo de coches fueron los procedentes de 376 delitos de robo de vehículos cometidos por 188 ladrones en serie en Northamptonshire, en Reino Unido entre enero de 2004 y mayo de 2007. Se registró: ubicación del robo, el tipo de automóvil, los años del vehículo y el estado físico en el que se recuperó el coche. En lo referente a los robos comerciales se utilizaron 118 cometidos por 59 ladrones en serie en la región de Gran Helsinki en Finlandia entre 1991 y 2002. Se seleccionaba al azar dos delitos por delincuente. Se registró: ubicación, tipo de negocio, hora y día en que se produjo, el uso de disfraz, el uso de armas, el número de delincuentes, el uso de violencia, el idioma utilizado y el tipo y coste de la propiedad robada.

Después de recoger los datos se crearon una serie de dominio de comportamiento para cada tipo de crimen. Para el robo de residencias: características objetivo, comportamiento de entrada, comportamiento en el interior, propiedad robada, distancia entre delitos y proximidad temporal. Para el robo de vehículos: opciones de selección de objetivos, comportamiento de adquisición del objetivo, comportamiento de eliminación y distancia intercrímen. Para el robo comercial: opciones de selección de objetivos, conductas de planificación, conductas de control, propiedad robada, distancia entre delitos, proximidad temporal, diferencia de el valor de los artículos robados y conducta de aproximación.

A continuación, se crearon pares de delitos vinculados que contenían dos delitos cometidos por el mismo autor y parejas no vinculadas que contenían delitos cometidos por diferentes delincuentes. De los 160 delitos de robo residenciales se crearon 80 parejas vinculadas y 12.640 parejas sin vincular. De los 376 robos de automóviles, se crearon 188 parejas vinculadas y 70.312 sin vincular. De los 118 robos comerciales se crearon 59 parejas vinculadas y 6.844 sin vincular. Estos representaban todas las posibilidades. Para cada par de delitos se calculó la distancia entre los crímenes, un valor de proximidad temporal y/o un coeficiente de Jaccard, que indica la similitud o no del comportamiento. Estos fueron las variables predichas de los análisis subsiguientes.

Se utilizaron tres tipos de modelos estadísticos: los modelos de regresión logística, los modelos de árbol de clasificación y los modelos probabilísticos. En cuanto a los modelos de regresión logística se probaron los dos presentes en Weka: el SimpleLogistic y el Logistic. En lo referente a los modelos de árbol de clasificación se estudiaron los disponibles en Weka: el J48, el árbol de modelo logístico y el modelo de RandomForest. Para terminar, en los modelos probabilísticos se utilizaron: el BayesNet y el Naive Bayes. Todos estos análisis se utilizaron para generar un valor de probabilidad predicho para cada conjunto de datos de cada par de delitos, lo que indica la probabilidad pronosticada de que los dos delitos de cada par fueran cometidos por la misma persona. Posteriormente, se crearon curvas características (ROC) que permitieron comprobar la precisión con la que los distintos modelos estadísticos podrían distinguir entre pares de delitos vinculados y no vinculados.

Los modelos basados en la regresión fueron los más exitosos en los tres conjuntos de datos, con el algoritmo Logistic se obtuvo la puntuación más alta para el robo residencial y robo comercial y con el algoritmo SimpleLogistic para el robo de automóviles. Estos resultados pueden chocar con los obtenidos en estudios anteriores y es que hay que tener en cuenta multiples variables. Por tanto, se debe decir, que a día de hoy no hay un método estadístico superior a otro. La eficacia de cada uno variará en función de los datos que se posean para llevarlo a cabo. Además, los resultados de este estudio solo se basan en la precisión de la discriminación y hay otros muchos factores a tener en cuenta.

Este estudio ha sido pionero en el uso de dominios para ver el impacto en la precisión de la discriminación en comparación con la utilización de comportamientos individuales de delincuentes para hacer predicciones de vinculación. Los dominios obtuvieron una tendencia hacia una mayor precisión.

Tomando como ejemplo el robo de automóviles se obtuvo una alta puntuación lo que implica que tenían una posible vinculación mediante el algoritmo los crímenes, pero cuando se examinó el éxito que tuvo en hacerlo se encontraron dificultades considerables. La razón principal de esto es el problema de que cuando el número de pares de crímenes no vinculados supera ampliamente el número de pares vinculados un modelo estadístico tenderá a tener una probabilidad de vinculación muy baja para todos los pares de la muestra.

Se predice que los comportamientos impulsados por los delincuentes (fecha y lugar del crimen) están menos influenciados por la situación ofensiva y son más consistentes de un crimen a otro, lo que los hace más adecuados para la vinculación. También es posible que esto se deba a que esos datos sean registrados de una manera más objetiva en las bases de datos policiales que, por ejemplo, si el ladrón buscó de una manera ordenada o no. También obtuvo puntuaciones altas la interacción personal entre víctima y agresor, por ejemplo, las condutas de control son una característica útil para la vinculación de robos comerciales.

Una limitación muy importante de este estudio es que solo se utilizaron datos de crímenes resueltos, cuando en la práctica real no podrá ser así. Por ello, investigaciones futuras deberán buscar replicar estos resultados utilizando delitos resueltos y no resueltos, ya que una herramienta que apoye la toma de decisiones y ayude a vincular posibles crímenes cometidos por el mismo autor sería valiosísima en la investigación policial.

« Siguientes entradas