clubforenses.com

clubforenses.com

Categoría: Investigación policial (página 1 de 6)

Comparativa de técnicas de entrevista en relación a la mejora de la memoria y la detección del engaño. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A comparision of different investigative interviewing techniques in generating differential recall enhancement and detecting deception” de De Rosa, Hiscock-Anisman, Blythe, Bogaard, Hally y Colwell; en él hacen una comparativa entre diferentes técnicas de entrevista de investigación y su relación con un mayor número de recuerdos y la detección del engaño.

Detectar el engaño es complicado para cualquier persona, incluso para los profesionales de la ley. Es cierto que hay ciertas técnicas que facilitan la obtención de recuerdos honestos. El concepto de mejora de la recuperación diferencial (DRE) explica el rendimiento de estas técnicas, contra más DRE mayores diferencias presentan las declaraciones honestas y engañosas y mejor detección del engaño.  El estudio de la DRE comenzó cuando se descubrió las diferentes demandas cognitivas e interpersonales de los encuestados engañosos y honestos, por ejemplo, una persona que quiera mentir deberá dar los suficientes detalles, pero tendrá que tener cuidado en no dar datos contradictorios o decir de más.

Normalmente los mentirosos se preparan un “guion” para que les sea más fácil la tarea, de esta manera son capaces de responder la necesidad de dar la suficiente información al entrevistador, pero sin caer en contradicciones o revelar más de lo que quiere. Generalmente las personas honestas no llevan preparado este guion y no están preocupados por caer en pequeñas contradicciones o desviarse del tema principal. También destaca que los mentirosos al basarse en un guion cuentan siempre la misma historia mientras que las narraciones de las personas honestas incluyen cambios, ya que sea basan en sus recuerdos y no en un guion prestablecido.

El entrevistador primeramente deberá dejar una fase de recuerdo libre donde cada uno haga una narrativa libre. Después, aplicará una serie de técnicas que harán más fácil distinguir entre las declaraciones honestas y las engañosas como son la restauración mental del contexto, el recuerdo desde otra perspectiva y la memoria de orden inverso.  Después de la aplicación de estas técnicas se puede pasar a una fase de preguntas con opciones cerradas.

Hay varios tipos de entrevista de investigación que utilizan estas técnicas como son la entrevista por pasos que comprende la construcción de relaciones, la transferencia de control y la obtención de un relato libre, y luego otras tareas de recuperación. La entrevista cognitiva que es similar a la anterior, pero utiliza técnicas de recuperación de recuerdo libre en vez de otras más guiadas como la entrevista por pasos. La entrevista de realidad es similar a la entrevista cognitiva, pero incluye preguntas de elección forzada. Estas preguntas sirven de claves de recuerdo adicional y hace que sea más difícil al mentiroso usar su guion prestablecido.

Se supone que la entrevista por pasos generará menos diferencias entre ambos tipos de declaración que la cognitiva, y ésta a su vez generará menos que la entrevista de realidad. También la entrevista de realidad será más precisión en la detección del engaño que la cognitiva, y la entrevista por pasos tendrá una menor precisión de detección del engaño que la cognitiva.

Para realizar el estudio se utilizó una muestra de 180 participantes masculinos encarcelados, siendo un 56,7% caucásicos, un 25,6% afroamericanos, un 14,4% hispanos, un 1,6% asiáticos y un 1,7% de otra raza. Se escogieron presos porque ellos ya habían vivido una entrevista interrogativa y porque el fin general era aplicarlo a las entrevistas de la policía.

Los participantes fueron testigos de un robo y luego se les asignó un rol, los que recibieron el de honestos se le pidió que dieran en las entrevistas la información más honesta que pudieran y lo más completa para que pudieran declarar culpable al ladrón. Por el contrario, aquellos que tuvieron el rol engañoso se le dijo que imaginara que conocían al ladrón y que por tanto tenían que hacer lo posible para que no fuera declarado culpable. Los participantes tenían cinco minutos para prepararse la entrevista. Hubo nueve entrevistadores capacitados, que entrevistaron a cada recluso haciéndoles una entrevista por pasos, una entrevista cognitiva y una entrevista de realidad.

Para que las entrevistas tengan un DRE alto debe aumentar la cantidad de información veraz única aportada y disminuir la información falsa. Las declaraciones honestas crecen con la suma espontanea de detalles a lo largo de toda la entrevista, cosa que no ocurre con las declaraciones falaces. Es importante crear situaciones en las que los testigos, así como los sospechosos que son inocentes se sientan cómodos y tengan oportunidad de contar su versión del hecho.

En el estudio se les dio libertad a la hora de mentir, casi todos optaron por señalar a un falso culpable lo que les permitía ser sinceros en la mayor parte de los detalles del hecho y solo fabricar o distorsionar los detalles del autor. Estos participantes dieron menor número de detalles a la hora de usar las técnicas de restauración mental del contexto, el recuerdo desde otra perspectiva y la memoria de orden inverso. Por tanto, el engaño fue más simple y tuvieron especial cuidado en contar siempre la historia que habían diseñado, así como no caer en contradicciones.

Para que una entrevista de investigación sea útil debe obtener la mayor información real posible, maximizar las diferencias entre respuestas veraces y falaces y estas diferencias deben de ser fáciles de observar. Para maximizar el recuerdo y protegerlo de posibles contaminaciones se utilizan técnicas como la transferencia de control al entrevistado, hacer énfasis en la relación, el uso del relato libre y la utilización de estrategias como restauración mental del contexto, el recuerdo desde otra perspectiva y la memoria de orden inverso.  Evaluar el número de detalles único es una buena estrategia para detectar el engaño y es fácil de entrenar ya que con una capacitación de entre cuatro a ocho horas fue suficiente para clasificar con mayor éxito la veracidad o falsedad de las afirmaciones, ya que en los relatos honestos hay de media 50 nuevos detalles añadidos nuevos. Se puede decir que si el número de detalles agregados después del relato libre es superior a aquel proporcionado en el mismo se considera creíble la declaración y viceversa.

Los tres tipos de entrevista se compararon para obtener información, obtener DRE y detectar engaños. La entrevista de realidad tuvo un mejor desempeño que las otros en las tres áreas. Esto es importante porque las técnicas y los criterios de evaluación tienen una base teórica, las técnicas de entrevista no son difíciles de aprender para los profesionales, al igual que los criterios de contenido, no se requieren herramientas especiales para su aplicación y, además, pueden ser usadas tanto en interacciones cara a cara como en telefónicas o por internet.

 

El impacto de las estrategias y las tácticas en la investigación de homicidios (II). Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana continuamos con el resumen del estudio “The Impact of Investigation Strategies and Tactics on Homicide Clearance” de Pizarro, Terrill y LoFaso; en él nos hablan de los cambios que llevó a cabo el Departamento de Policía de Rochester en los procedimientos de investigación de los homicidios.

En 2012 el departamento de Policía de Rochester implementó un nuevo protocolo de investigación, y con este estudio lo que se busca es comprobar si esas técnicas nuevas mejoraban el índice de resolución de casos.

Rochester es la tercera ciudad más grande del Estado de Nueva York, según el censo de 2010 tiene una población de 210.565 habitantes. La tasa de homicidios era de 19.9 por cada 100.000 habitantes, 3.9 puntos superior a la de la ciudad de Nueva York y 4.5 puntos más que la media nacional de EE. UU, según datos del FBI. El estudio se realizó durante dos años antes y dos años después de los cambios en el protocolo de investigación. En los dos primeros años hubo una media de 34 asesinatos por año y en los dos últimos una media de 32 asesinatos. Rochester es una de las ciudades más pobres del país.

Antes de los cambios había dos sargentos y cada uno controlaba a cuatro o seis investigadores. Cada semana había un equipo de guardia formado por un sargento y dos investigadores y ellos se hacían cargo de todos los homicidios que acontecían durante esa semana e investigaban todo sin ayuda del resto de personal de su departamento. Un incremento en la plantilla debido a restructuraciones, fue una de las variables que motivó el cambio.

El departamento cambió su protocolo de actuación en enero de 2013. El departamento contaba con tres sargentos, cada uno lideraba un equipo con cuatro investigadores. Cada semana, un sargento y dos de investigadores estaban de guardia para los homicidios que pasaban fuera de las horas de servicio. A parte podían llamar a más personal si las circunstancias del caso así lo requerían. El resto de la unidad podía colaborar durante la jornada laboral en tareas auxiliares de la investigación. Cuando el homicidio ocurre en horas de servicio todos los investigadores disponibles acuden a la escena. En el momento en que un equipo tiene un homicidio deja de estar de guardia para el resto de la semana y esta tarea recae sobre el siguiente equipo.  De los dos investigadores principales de cada caso, uno asumirá la función de líder, aunque en la práctica eso es indiferente ya que ambos se repartirán las tareas indistintamente.

Otro de los cambios más importantes que realizaron fue las reuniones de supervisión de los casos. Las reuniones de progresión del caso se programan regularmente, con el capitán y el teniente de la Unidad de Delitos Graves, también asisten a las mismas la Fiscalía y los miembros de la Policía Científica. También invirtieron en un “vehículo de comando”, que era un vehículo equipado con una sala de videoconferencia, vídeos, wi-fi y una pizarra blanca, que trasladaban a cada escena del crimen.

Se estudiaron 132 homicidios ocurridos durante cuatro años. Se estudiaron de cada caso las variables que estaban presentes en la literatura previa, como las relacionadas con el investigador (experiencia previa, número de casos), con la víctima (género, raza, edad, estilo de vida y antecedentes penales), con el hecho (arma usada, modo, testigos, lugar) y con el vecindario (nivel de vida, etnia mayoritaria).

Las variables del investigador se refieren tanto a la carga de trabajo como a la idoneidad del personal de la investigación. Los años de experiencia se refiere a la experiencia como investigador principal del policía encargado y el número de casos es el número de casos abiertos que tiene simultáneamente.

Las relacionadas con la víctima son bastante claras, género, edad, raza, el estilo de vida era si guardaban relación con la vida criminal, por ejemplo, si era miembro de una pandilla o traficante de drogas.

Las variables relacionadas con el hecho, el arma usada distinguía básicamente entre el uso de armas de fuego u otro tipo. El modo en que se llevo a cabo el hecho, era si víctima y agresor eran conscientes de la presencia del otro en el momento de cometerse el homicidio. Los testigos si había o no y si habían declarado ante la policía y en cuanto al lugar hace referencia a si se ha cometido en la residencia de la víctima o del agresor o en un lugar diferente.

En cuanto a las de vecindario, se utilizaron datos para saber los ingresos del barrio donde había ocurrido y ver si estaban por debajo, en la media o por encima de la media del país. La etnia hace referencia a la composición racial de la zona, dividiéndolo en tres grupos, mayoría de no blancos, integrado (número similar de no blancos y blancos) y mayoría de blancos.

En cuanto a los homicidios en sí mismos, se puede decir que la mayor parte de las víctimas fueron hombres (85%), afroamericanos (77%) y con edades entre los 15 y los 44 años (76%).  Generalmente eran cometidos con armas de fuego (67%), cara a cara (68%) y la víctima y victimario se conocía previamente (64%). Había como mínimo un testigo (66%) y la mayoría se produjo en un lugar diferente a la residencia (67%). La mayoría ocurrió en barrios con ingresos en la media y que estaban integrados.

El 68% de los casos se resolvieron en el tiempo que estuvieron en estudio. En la época anterior a los cambios se resolvió el 54% de los homicidios y en la posterior el 83% de los mismos. La mayor parte de los casos se resolvieron en los primeros siete días, pero la media está en 57 días, ya que hubo varios casos que se demoraron más de un año. En la primera época tardaban de media 75 días en resolver los homicidios y en la segunda solamente 44 días.

Como se ha visto los cambios sí que ayudaron a mejorar tanto la resolución del caso, como la rapidez del mismo. Además, se comprobó que cuanto más números eran los casos abiertos por investigador bajaba el porcentaje de resolución. Aquellos homicidios que se habían llevado a cabo cara a cara y en los que se contaba con algún testigo tenían mayores posibilidades de esclarecerse. Curiosamente parece ser que cuanto a más experiencia del investigador se percibe un descenso en las posibilidades de resolución del caso (en este caso concreto puede ser por dos circunstancias específicas, la llegada de nuevo personal y la mayor presencia de nuevas técnicas relacionadas con el uso de la tecnología y las redes sociales, a las cuales estaban más acostumbrados los investigadores de menos edad y por tanto menos experiencia).  Los casos en los que las víctimas estaban relacionadas con el mundo criminal tardaron menos tiempo en resolverse que aquellos en los que la víctima no guardaba relación con ese mundo. También se resolvieron más rápido aquellos homicidios que no se llevaron a cabo con un arma de fuego, o los que fueron cometidos en la residencia de la víctima o del agresor y los que tenían algún testigo.

Como se ha visto la resolución de un homicidio es un proceso complejo en el que entran en juego multitud de variables, tanto propias del hecho, la víctima o el lugar donde ocurre como las relacionadas con las características de la propia policía.

 

El impacto de las estrategias y las tácticas en la investigación de homicidios (I). Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The Impact of Investigation Strategies and Tactics on Homicide Clearance” de Pizarro, Terrill y LoFaso; en él nos hablan de los cambios que llevó a cabo el Departamento de Policía de Rochester en los procedimientos de investigación de los homicidios.

Los homicidios tienen muchas consecuencias negativas para los familiares y amigos de la víctima y para la sociedad en su conjunto. A nivel social, algunos académicos han calculado que cada homicidio tiene un coste de 17,25 millones de dólares. Además, si los delincuentes no son atrapados el efecto disuasorio de las sanciones disminuye.

En EE. UU se considera resuelto un caso cuando la policía arresta y acusa a los delincuentes y los pone a disposición judicial o si el infractor muere. En la década de 1960 la tasa de resolución de los homicidios era de un 90%, en la actualidad es del 60%.

La mayor parte de la investigación actual sobre el esclarecimiento de homicidios se centra en la devaluación de la víctima, en las características del evento, la devaluación policial o el estilo de vida de la víctima. Lo relacionado con la devaluación de la víctima tiene que ver con la perspectiva discrecional o extra -legal. Esto está relacionado con que al investigar un homicidio los investigadores se verán “influenciados” por características extra legales como el estatus socioeconómico de la víctima y la demografía. Por tanto, viene a decir que es más posible que se quede sin resolver el homicidio de una persona de estatus social bajo ya que los policías están menos motivados y no se esfuerzan tanto.

En relación a las características del evento, esta teoría dice que todos los homicidios tienen mucho impacto y harán que los policías estén motivados para su resolución pero que debido a otras circunstancias (testigos, ubicación, armas de fuego…) algunos se resuelven y otros no.

La devaluación de la policía tiene que ver con la percepción de la comunidad. La asociación negativa entre tasa de resolución y víctimas no blancas con bajo estatus social es más atribuible a la devaluación de la policía que a la de la víctima. En áreas donde la población no confía en la policía es más posible que no colaboren en la investigación de los homicidios.

La perspectiva de estilo de vida de la víctima viene a decir que es más complicado resolver el homicidio con víctimas que tengan un estilo de vida desviado. Esto viene a ser personas relacionadas con el tráfico de drogas, con las pandillas o tener antecedentes penales. Los casos que involucran a criminales conocidos son más difíciles de resolver porque los policías tienen dificultad en encontrar testigos creíbles u obtener evidencias físicas.

Una línea que ha recibido muy poca atención es justamente la que se centra en el proceso de investigación.  Después de que se reporte un homicidio y la policía comience con su investigación, hay que ver si el detenido puede ser determinado por las acciones que lleven o no a cabo los investigadores.

El objetivo de la investigación de un homicidio es resolver el caso con el arresto del autor del mismo. El proceso de investigación puede dividirse en dos etapas: la preliminar y la complementaria. La primera de ellas se inicia cuando el primer policía llega a la escena del crimen. Las primeras acciones que se llevan a cabo es proteger la escena para preservar las evidencias físicas dejadas y si es posible detener al autor del crimen. También fotografían la escena para que quede constancia del estado en el que estaba cuando se personaron y recogen los hechos más importantes para realizar una línea de tiempo. La investigación complementaria es la que realiza el investigador asignado al caso, que incluye acciones como examinar la escena del crimen, realizar entrevistas y examinar las evidencias del caso. Este proceso es complicado y en su mayoría cognitivo, ya que es necesario recopilar información, evaluarla, interpretarla y tomar decisiones en base a las conclusiones que realicen.

La mayor parte de los estudios que se centran en el proceso de investigación como la variable principal para la resolución de un homicidio comparan los departamentos de policía con altos y bajos índices de resolución. Estos estudios sugieren que las técnicas de investigación tienen como mucho un efecto marginal en la resolución del caso. Los arrestos están influidos por la investigación preliminar que ha llevado a cabo la patrulla que se persona en primer lugar, la información que ha facilitado los testigos y por el procedimiento administrativo rutinario. Otros investigadores encontraron que el esclarecimiento del homicidio está completamente fuera del control de los investigadores y que depende de las características del homicidio.

Otros estudios determinaron que ni la experiencia del investigador ni la cantidad de oficiales y los gastos económicos del departamento eran variables significativas para la resolución de un homicidio. También se han analizado la carga de trabajo, el número de casos abiertos, el tiempo que ha pasado el último caso del investigador y parece ser que está última variable es la única que tiene relevancia, pudiendo ser debido al efecto de oxidarse.

Por el contrario, otros estudios han demostrado que sí que son importantes las tácticas de investigación. Un estudio que se realizó en el Departamento de Policía de Boston demostró se mejoraba un 18% el índice de resolución de homicidios con un aumento de investigadores, una capacitación extensa en prácticas de investigación y análisis forenses, desarrollar protocolos estándares de investigación y reuniones mensuales para revisar los casos abiertos.

Uno de los factores más importantes para la resolución de un homicidio es la cooperación de los testigos. También se asocia un mayor éxito con la velocidad a la que se notifica a los investigadores de homicidios y al equipo forense y el tiempo que estos tardan en llegar a la escena. La investigación que se lleve a cabo durante las primeras 48 horas es vital para el esclarecimiento del homicidio. Los departamentos que consiguen asegurar pruebas y testigos, así como a los delincuentes tienen índices de resolución más altos.

Otros factores claves son la supervisión de la administración, la capacitación de los investigadores y la disponibilidad de las técnicas forenses más actuales también ayudan a mejorar el índice de resolución de los casos. Aunque parece ser que los investigadores solo recurren a las técnicas forenses más innovadoras cuando el resto de recursos han fallado. Además, éstas marcan una diferencia importante en casos especialmente complicados, pero no es así en los más rutinarios. El personal del que se dispone también es importante. Una investigación sugiere que el nivel más óptimo es un sargento y cuatro investigadores por equipo, con los investigadores rotando en el puesto de líderes en cada investigación no siendo en más de tres homicidios por año. La forma en que se lleva a cabo la investigación también es importante, una buena autopsia y la toma de notas limpia ayuda a mejorar el índice de resolución de casos.

La semana que viene continuaremos con los resultados del estudio de Pizarro, Terrill y LoFaso.

 

Comparación entre dos técnicas de detección de huellas dactilares: deposición de metal único versus revelador físico. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Single metal deposition versus physical developer: A comparision between two advanced finergermark detection techniques” de Moret, Lee, de la Hunty, Spindler, Lennard y Roux; en él nos hablan de los resultados obtenidos de una comparativa realizada en más de 1.000 especímenes con los métodos de deposición de metal único y de un revelador físico.

La última década ha sido testigo de una mejora de la efectividad de diversas técnicas para detectar las huellas dactilares, por ejemplo, en sustratos porosos se utiliza cada vez más la 1,2-indandiona/zinc (IND-Zn), sustituyendo al 1,8-diazafluoren-9-ona (DFO), debido a la mayor sensibilidad y intensidad lumínica. Otras técnicas más avanzadas como el revelador físico (PD) y la deposición de metales al vacío (VMD) también son cada vez más utilizados. La deposición multimetal (MMD) y la deposición de un solo metal (SMD) han avanzado mucho en los últimos años. La versión más reciente del SMD II puede ser una buena alternativa al PD, ya que no se limita a los sustratos porosos como pasa con el PD, sino que también se aplica a sustratos no porosos o semiporosos. La SMD II es una técnica basada en un proceso en inmersión en dos pasos que primero involucra a nanopartículas de oro (oro coloidal), seguido de un baño de refuerzo que aumenta el contraste de la marca para mejorar su visibilidad. El protocolo más reciente ha mejorado la robustez y su facilidad de implementación, el rendimiento del SMD II es menos dependiente del pH, además, la síntesis del oro es sencilla y no hay que controlar la temperatura. Esto ayuda a que la técnica se pueda implementar en el uso diario. A pesar de ello, la implementación sigue siendo más compleja que los reactivos de aminoácidos, siendo comparable a los PD. En apariencia también es similar, ya que las crestas se presentan en color gris oscuro sobre un fondo claro. Pero a pesar de todo esto, la técnica SMD II nunca ha sido comparada con otras técnicas actuales, en este estudio se va a comparar la SMD II con el PD.

Se realizaron tres experimentos para comparar el rendimiento del SMD II con el de PD.  Primero se aplicaron cada una de ellas como métodos de detección independientes. Después fueron aplicadas posteriormente a dos reactivos de aminoácidos como son el IND-Zn y la ninhidrina. Por último, se compararon en sustratos que se habían sumergido en agua después de dejar las huellas, una situación donde los reactivos de aminoácidos no son aplicables.

Los donantes de las huellas fueron instruidos en que realizasen sus actividades cotidianas normalmente pero que no se lavasen las manos ni se pusiesen ningún cosmético una hora antes de la donación. Antes de tocar los sustratos se les pidió que se frotasen las manos. La presión para dejar la huella no fue controlada. Se recogieron huellas de cinco donantes (cuatro hombres y una mujer) en 12 sustratos diferentes (9 papeles convencionales, un papel térmico, un papel de cartón y un papel de una revista satinada). Las huellas tenían dos edades diferentes: una semana y cuatro meses. Se recogieron depósitos de dos dedos para cada condición, teniendo un total de 480 marcas de dedos. También se recogió muestras en sustrato no poroso (polipropileno transparente) para probar el SMD II.  Todas las huellas se guardaron en la oscuridad (un cajón de oficina) baja condiciones ambientales de 19ºC y una humedad relativa del 54,3%.

Para la comparación independiente y el experimento del sustrato humedecido las huellas se cortaron por la mitad, de esa manera cada huella era procesada por las dos técnicas. En el experimento en secuencia primero se aplico el IND-Zn y después la ninhidrina, y posteriormente fueron cortadas por la mitad, para procesar cada mitad con una técnica.

Cada resultado fue evaluado por tres evaluadores independientes, las imágenes se presentaban en orden aleatorio. Para comparar las técnicas, se calculó la puntuación media de cada marca de dedo.

En total se recolectaron 1080 muestras. De ellas, 480 se compararon con las técnicas de manera independiente, 480 para la forma secuencial y 120 en los sustratos humedecidos.

Las puntuaciones obtenidas fueron bajas para ambas técnicas, era esperable ya que la calidad variaba de una huella a otra, debido a que habían sido depositadas de manera natural no controlada. Los valores promedios fueron ligeramente para SMD II cuando fue aplicada por sí sola. Sin embargo, PD tuvo un desempeño mejor al ser aplicado después del IND-Zn y la ninhidrina, demostrando que la eficacia de esta técnica no varía, aunque se hayan aplicado otras técnicas con anterioridad. Estos resultados habría que interpretarlos con cautela puesto que pueden ser debidos a una mayor calidad de las muestras. SMD II tuvo peor desempeño cuando fue aplicado después de los aminoácidos que cuando se aplicó de manera independiente, esto puede significar que las técnicas anteriores son compuestos dirigidos también por el SMD II o que el disolvente portador del IND-Zn y la ninhidrina está eliminando los compuestos que analiza el SMD II. Todo parece indicar que los tratamientos con IND-Zn y ninhidrina pueden tener un efecto perjudicial para el rendimiento del SMD II. En relación con la edad de las huellas, se obtuvieron mejores resultados en las marcas más frescas en ambas técnicas. En promedio la PD dio mejores resultados en la mayoría de los sustratos. El SMD II tuvo su mejor resultado en el papel blanco y su peor en el papel satinado. En papeles verdes y naranjas obtuvo buena resolución, pero un mal contraste lo que impidió su visualización. El PD no fue efectivo sobre el polipropileno transparente, resultado ya esperado.

En lo relativo a los sustratos húmedos obtuvo mejores puntuaciones el PD que el SMD II, por tanto, parece que la inmersión tiene un efecto más negativo en la técnica del SMD II.

Por todo esto no se puede recomendar la SMD II como una alternativa válida para la detección de huellas en sustratos porosos. Los reactivos de aminoácidos afectaron negativamente al rendimiento de SMD II y su visualización se ve impedida por la falta de contraste. Aunque en algunos sustratos es superior el rendimiento de la SMD II al de PD. La aplicación secuencial de ambas técnicas no produce mejoras. Además, la aplicación de PD después de SMD II daña la muestra.

A pesar de estos resultados, la SMD II tiene ventajas, como que puede ser aplicada desde sustratos no porosos a los porosos y su aplicación es más sencilla que la de PD. También es menos perjudicial para el sustrato, siendo, además, más barata al requerir menos productos químicos. Aunque para ser más efectiva requiere una mejora del contraste.

Detección canina de la sangre humana en descomposición y sus compuestos orgánicos volátiles. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Decomposing Human Blood: Canine Detection Odor Signature and Volatile Organic Compoundsde Rendine, Fiore, Bertozzi, De Carlo, Filetti, Fortarezza y Riezzo; en él nos hablan de cómo afectan los compuestos orgánicos volátiles a la sangre humana durante su proceso de degradación y de cómo los perros pueden utilizarlos para detectar los restos mortales de una persona.

Los perros (Canis familiaris) pueden ayudar en las investigaciones forenses ya que poseen una alta sensibilidad y selectividad en su sistema olfativo. Casi un octavo de su cerebro está dedicado a ello, por esto un perro bien entrenado será capaz de identificar olores específicos. Los perros especialistas en descubrir cadáveres son entrenados para detectar restos humanos o fluidos. En la actualidad faltan procedimientos estandarizados para su entrenamiento y puede llegar a cuestionarse la admisibilidad ante un tribunal del “olor a muerte” humano.  Tampoco es comprendido en su totalidad su capacidad para detectar olores transitorios.

Después de la muerte los tejidos humanos empiezan a degradarse mediante reacciones como la autolisis, la acción de microorganismos eliminadores lo que da como resultado Compuestos Orgánicos Volátiles (VOCs). Estos compuestos son productos intermedios en la descomposición de las proteínas, los carbohidratos, los ácidos nucleicos y los lípidos. Hay muchas investigaciones previas que han identificado multitud de VOCs identificándolos como marcadores de la descomposición humana. Estas sustancias son liberadas al medio ambiente debido a sus propiedades fisicoquímicas como son el bajo peso molecular, la alta presión del vapor o el bajo punto de ebullición.  Si bien es cierto que hay muchos factores que influyen en la descomposición como son la temperatura, la humedad, la presión barométrica, la profundidad del enterramiento, las corrientes de aire, la composición del suelo, la humedad, la presencia o no de ropa, el porcentaje de grasa corporal, las enfermedades, el uso de productos químicos, la actividad de insectos, la vegetación y la propia ubicación del entrenamiento.

En el presente estudio se escogió la sangre ya que normalmente está presente en la mayor parte de escenarios del crimen y es una fuente de VOCs y de subproductos de la descomposición. Se recogió sangre de sujetos fallecidos por muertes traumáticas de sujetos no liberados y se excluyeron los casos de cribado toxicológico positivo. Finalmente fueron cuatro jóvenes muertos en accidentes de circulación: hombre negro de 22 años, hombre blanco de 22 años, mujer negra de 24 años y una mujer blanca de 20 años. Las muestras fueron recogidas entre cuatro y cinco horas después de la muerte desde la vena yugular interna hasta un vacutainer que con fluoruro de sodio y oxalato de potasio. Los tubos habían sido tratados previamente para eliminar posibles contaminaciones.

Las muestras fueron transferidas al laboratorio en huelo seco y almacenadas a -20ºC. Después se prepararon a temperatura ambiente (22ºC y 45% de humedad). La primera extracción fue evaluada como día 0 del experimento. Los viales se abrieron y mantuvieron a temperatura ambiente y humedad relativa durante 21 días. En los días, 3, 7, 14 y 21 se repitieron las extracciones.

Los perros utilizados fueron un Labrador Retriever macho de cinco años (perro A) y un Labrador Retriever macho de tres años (perro B). Los perros ya estaban entrenados y eran capaces de detectar sangre de cadáveres humanos en las diferentes etapas de descomposición.

Para el estudio se utilizó una habitación cerrada que no había sido previamente utilizada para el entrenamiento con perros. Se realizaron cinco pruebas, una por cada día de extracción de sangre. La sangre fue colocada en recipientes de vidrio no transparentes con un solo orificio pequeño en la tapa superior, para que de esta manera solo fuera accesible a través del olor. Después se colocaban en soportes de madera y se ponían en el suelo por azar. La habitación, además, tenía muestras en blanco en las mismas condiciones que las que contenían sangre.

El rendimiento de los perros se realizó mediante ocho pruebas por cada día. Los perros estaban entrenados y mostraban una señal pasiva (sentarse) en caso de detectar sangre de cadáver humano y no de otro tipo de animal. En cada sesión había dos observadores para controlar los resultados. Ni los observadores y no los controladores de los perros sabían donde estaban las muestras de sangre para no provocar posibles interferencias a los animales. Los observadores marcaban la ubicación que había señalado el perro y consultaban por vía telefónica al investigador sobre si era la correcta o no para que el entrenador pudiera recompensar al perro en caso de ser positivo. Se consideró como verdadero positivo cuando los perros lo detectaban y era una muestra de sangre de verdad, se considera falso positivo si los perros lo detectaban, pero no era sangre humana, era falso negativo cuando la sangre humana no fue detectada por los perros y un verdadero negativo cuando el objetivo no estaba presente y los perros no lo detectaron.

Los VOCs cambiaron a lo largo del tiempo, a pesar de que las condiciones fueron constantes. No había diferencias cualitativas entre los días 0 y 3. A medida que pasaba el tiempo fueron desapareciendo los ácidos, los ésteres, los compuestos heterocíclicos aromáticos y los hidrocarburos halogenados y aparecieron los hidrocarburos y los aldehídos. Posteriormente se detectaron sulfuros y el disulfuro de dimetilo y el disulfuro de carbono que están ambos asociados a la descomposición. Los alcoholes estaban más presentes en las fases frescas, al pasar el tiempo cambiaron, por ejemplo, el etanol no apareció hasta el día 14. No se apreciaron diferencias entre los cadáveres de raza blanca y los de raza negra.

Para cada sesión se calcularon el PPV (proporción de las respuestas caninas de objetivo- presente correctas) y el NPV (proporción de las respuestas caninas de objetivo-ausente correctas) que indican la predicción del perro cuando detecta las muestras o cuando no señala la presencia del objetivo. Los resultados fueron de PPV para el perro A entre 98.96% y el 100%, para el perro B entre el 99,47% y el 100%. El NPV para el perro A fue de entre el 75% al 100% y para el perro B de entre el 88.89% y el 100%.

El día 0 obtuvieron buenos índices de rendimiento, aunque los mejores fueron los días 14 y 21. Esto puede deberse a las diferencias de los VOCs, ya que los últimos días habían compuestos de azufre. Como es sabido el receptor olfativo de los mamíferos es la metaloproteína y que las nanopartículas de zinc metálicas podrían participar en la transducción de señales entre las proteínas receptoras y las proteínas heterotriméricas de unión a nucleótidos de guanina y las enzimas efectoras que están activas. Los compuestos de azufre que se encuentran en los días más avanzados se unen fuertemente al zinc lo cual puede explicar esta mejoría.

Si bien es cierto que mejora crecientemente desde el día 14 al 21 y en cambio los VOCs son iguales. Esto puede ser explicado ya no por sus diferencias cualitativas sino por las cuantitativas. Los compuestos de azufre estaban presentes en mayor cantidad el día 21 que el día 14. También puede explicarse porque los perros habían mejorado en su detección al haber sido expuestos más vece al olor en los días anteriores.

Estos hallazgos demuestran que la descomposición de la sangre humana es una buena fuente de VOCs y que es un buen objetivo para provocar la respuesta olfativa en perros bien entrenados.

 

Exploración forense del Windows 10 Timeline. Club de Ciencias Forenses.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A Forensic Exploration of the Microsoft Windows 10 Timeline” de Horsman, Caithness y Katsavounidis; en él nos hablan de las características que presenta la Línea de Tiempo de Windows 10 y su utilidad para la investigación forense.

Microsoft Windows sigue siendo el líder en sistemas operativos en la informática doméstica, se calcula que un 80% de los ordenadores utilizan esta plataforma a nivel mundial, siendo por tanto uno de los que se más se tiene que examinar en el curso de las diferentes investigaciones criminales. Desde el inicio del presente siglo Microsoft ha lanzado siete versiones: 2000, ME, XP, Vista, 7, 8 y 10, todas ellas pueden ser fácilmente encontradas por los profesionales forenses. En muchos casos los forenses tendrán que examinar los dispositivos buscando comportamientos de los usuarios, como pueden ser, destinos recientes, registros del sistema y búsquedas previas, para determinar el comportamiento y la culpabilidad del sospechoso.

En este caso se analizará la nueva característica de “Línea de Tiempo” (Timeline) de Windows 10, lanzada en la versión 1803 de Windows en abril de 2018, su principal función es representar gráficamente las acciones de los usuarios en el sistema operativo. Microsoft da la siguiente definición de esta nueva funcionalidad: “La Línea de tiempo se encuentra en la barra de tareas y mejora la Vista de tareas para mostrar las aplicaciones actuales y las actividades pasadas. De manera predeterminada, la Línea de tiempo muestra instantáneas de las cosas en las que estaba trabajando antes en el día o en una fecha pasada específica. Una barra de desplazamiento anotada le permite saber dónde se encuentra en su línea de tiempo y, si prefiere no desplazarse, puede buscar el elemento o actividad que te gustaría retomar”.

La Línea de tiempo graba la actividad del usuario durante 30 días. No hay un listado definitivo de todo lo que registra, pero entre ellos esta los eventos del navegador Edge, incluyendo las búsquedas en Bing, fotos, noticias, deportes, mapas del tiempo, información básica de Office y la información de apertura de archivos. Esta funcionalidad puede ser de gran ayuda para los investigadores forenses ya que ayudará a identificar con mayor facilidad las acciones que un sospechoso a llevado a cabo en su dispositivo. Cuando está operativo, ya que se puede desactivar, su recopilación pasiva de interacciones del usuario ofrece una fuente de operaciones grabadas que van desde el historial de internet, documentos e imágenes. Esto puede ser especialmente útil en el caso de la pornografía infantil ya que la utilización de estos registros junto con los metadatos es posible revelar toda la actividad del usuario.

Para probar la funcionalidad de la Línea de tiempo se crearon archivos de prueba únicos en un sistema de prueba con los que se interactúo anotando la fecha y la hora de cualquier interacción, pudiéndose identificar cualquier inclusión de estos datos en la investigación de la línea de tiempo posterior. La base de datos de la Línea de tiempo se puede extraer y consultar o acceder en vivo, lo que permite ver los cambios de inmediato.

Primero se tiene que hacer una diferenciación entre los dos tipos de mosaicos que registra la Línea de Tiempo. Por un lado, están los mosaicos de procesos (PT) y por otro, los mosaicos de actividad (AT). La Línea de Tiempo, aunque está comercializada como una herramienta de seguimiento de actividad también se comporta como administrador de tareas ya que puede cambiar entre procesos y terminarlos. Los PT son mosaicos activos que muestran un proceso que actualmente está en ejecución mientras que los AT son como accesos directos que facilitan la localización de archivos. Los usuarios tienen la opción de subir toda la actividad de su Línea a la nube de Microsoft lo que permite la sincronización con los diferentes dispositivos. Aunque está pensada principalmente para Windows 10 tanto Microsoft Launcher en Android como Edge en iOS son compatibles. Para controlar la actividad e iniciar su uso se debe hacer a través de Inicio> Configuración> Privacidad> Historial de Actividades. Una vez activa, la Línea de tiempo almacena la información dentro de la base de datos SQLite ActivitiesCache.db.

Las pruebas realizadas con el ActivitiesCache.db de la Línea de Tiempo a través de SQL y los archivos asociados han demostrado ser una fuente de información sobre el usuario de que se pueden extraer e interpretar mediante el SQL. Los eventos capturados por la Línea se podrían diferenciar entre información a AT y de PT interpretándola y vinculándola a acciones concretas del usuario. También se puede diferenciar entre una cuenta local de una asociada a través de un análisis de estructuras.

Dentro del ActivitiesCache.db hay dos tablas (Metadata y Manual Sequence) que contemplan todo lo relacionado con los metadatos, incluyendo la última hora y fecha en la que se creó la base de datos y otras tres tablas (Activity, ActivityOperation y Activity_PackargeId) que documentan toda la actividad de la Línea de Tiempo, que incluyen la última ETag registrada.

El análisis demuestra el valor potencial de un análisis de Timeline como fuente de evidencia para denotar la interacción entre usuario y sistema en el contexto de la investigación forense de Windows 10. Cuando los accesos a los archivos de evidencia clave se han producido en un sistema Windows 10 y esta activo la Línea de Tiempo puede capturar y registrar la información lo que proporciona un registro de la culpabilidad. Además, se han investigado las limitaciones de la Línea de Tiempo, que indica cuando se elimina los archivos, a los 30 días se purgan las tablas de Activity, ActivityOperation y Activity_PackargeId. Tampoco se almacenan el nombre de las carpetas si se entra desde el explorador de archivos al igual que ocurre con los archivos de la papelera. También, en el caso de los AT al funcionar como un acceso directo no podrá entrar en el archivo si ha sido movido después de haberse grabado en el base de datos.

Aplicación de la tecnología 3D al estudio de las huellas dactilares antiguas. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Application of 3D imagining technology to latent fingermark aging studies” de De Alcaraz- Fossoul, Mancenido, Soignard y Silverman; en él nos hablan de las características que presenta el estudio de las huellas dactilares con la tecnología 3D y sus ventajas sobre otras técnicas.

Determinar el tiempo en que se deja una huella dactilar, sigue siendo uno de los retos sin resolver de las ciencias forenses. Uno de los beneficios de resolver este resto, es la posibilidad de incluir o excluir a sospechosos del crimen basada en consistencias temporales entre la fecha estimada en la que la huella fue dejada y la fecha de comisión del acto delictivo. Para poder determinar el tiempo de deposición primero es necesario descubrir la degradación, con modelos bajo control y monitorizarlos en un entorno controlado. En un futuro cercano, la información topográfica podría ayudar a predecir la edad de las huellas en la propia escena del crimen.

Muchos métodos pueden ser usados para detectar las huellas, en este artículo nos centraremos en el potencial que presenta el examen visual. Los beneficios de esta técnica son la correlación directa entre el aspecto físico de la huella y su edad, el bajo coste de equipamiento y que no tiene una naturaleza destructiva como puede ser el análisis químico.

Se ha estudiado que la huella dactilar con el paso del tiempo sufre alteraciones y degradación que provoca alteraciones en su composición química, pero también en su topografía. Uno de las más relevantes es la deriva de la cresta (ridge drifts). Este fenómeno todavía no es del tipo entendido y demuestra la naturaleza dinámica del mismo. Este dinamismo, descrito como movimiento de la cresta, va más allá de la típica distorsión. Es un hecho inesperado que tiene un impacto directo en la identificación de la huella porque hasta hace poco se asumía que la huella era una copia estática de la huella de la piel desde la que se originaron. Sin embargo, las modificaciones de las derivas de las crestas pueden producir cambios potenciales en la identificación.

Muchos estudios de envejecimiento visual han utilizado la tecnología 2D, como la captura de fotografías normales, para llegar a descubrir la edad y el proceso de degradación. Las huellas dactilares tienen características en tres dimensiones que podrían experimentar cambios a lo largo del tiempo, incluido variaciones en el ancho de la cresta o pérdida de contraste de color entre la cresta y los surcos.

Por ello se necesita una aproximación más comprensiva usada la tecnología 3D como herramienta para adquirir datos estadísticos sobre el proceso de envejecimiento e identificarlos posibles patrones de la edad incluyendo la deriva de las crestas.

En los últimos años se ha producido una mejora significativa, respecto a la tecnología óptica 3D sin contacto, permitiendo incrementa la captura de la imagen y su medida cuantitativa. El trabajo ha estado más enfocado en la adquisición y el por procesado de la huella en 3D o en el análisis químico de su composición, pero generalmente no se ha centrado en el proceso de envejecimiento. Los perfilómetros ópticos se usan para medir la rugosidad de la superficie de los materiales. Son muy útiles para detectar micro abrasiones y son usados en la fabricación y en el control de la calidad. En el presente estudio se utilizan para investigar la colección de características de la topografía de las huellas dactilares y sus cambios a lo largo del tiempo.

Para el estudio se utilizó un perfilómetro óptico con propiedades de interferometría de luz blanca para determinar la altura de las crestas en la superficie de muestra. A medida que el microscopio se mueve verticalmente se graba una imagen digital. El microscopio usa objetivos que dividen la luz en dos trayectorias, una reflejada por la muestra y la otra por un espejo de referencia. Cuando ambas longitudes son iguales, aparecen las franjas. El software utiliza está información para determinar la altura de cada punto de la imagen con reducción nanométricas. Se genera una nube de puntos, un conjunto de puntos que describen la ubicación (x, y) en la superficie y la altura (z) para crear el perfil 3D completo.

El objetivo que se busca es describir el potencial del perfilómetro óptico como una herramienta analítica dual que sirve para visualizar cualitativamente y medir cuantitativamente cualquier cambio en la topografía de la creta de las huellas dactilares.

Para el estudio se utilizará la huella de dos personas una mujer del sudoeste asiático y un hombre caucásico, en la treintena ambos. Sin enfermedades conocidas y sin tomar alcohol, café o drogas o utilizar maquillaje o crema las doce horas antes de la toma. Eran dos individuos sanos y con una dieta omnívoros.

La toma de huellas se llevo a cabo de la siguiente manera, primero se lavaron con agua y jabón, después se frotaron las manos contra el antebrazo, la frente y la nariz, luego se frotaron las manos entre sí y por último imprimieron las puntas de los dedos en el sustrato. Las huellas fuesen dejadas sobre un portaobjetos del microscopio de vidrio y sobre la cubierta transparente de plástico de los CD. Se tomaron las huellas de los dedos índices, medio y anular. Un ayudante de investigación controló la presión ejercida durante el proceso. La toma se realizó en una habitación controlada con temperatura de 22.6ºC y un 23% de humedad.

Las huellas fueron envejecidas en una cabina cerrada a oscuras. Solo se entraba para la toma de datos. Se conservaron durante un año con temperaturas entre los 21-24ºC y el 22-26% de humedad. Se tomaron datos las veinticuatro impresiones en once momentos diferentes en los días: 0,7,14,21,35,63,91,119,147,182,364. En total se obtuvieron 13 imágenes de cada donante.

La herramienta utilizada para la toma de imágenes y las mediciones topográficas fue el perfilómetro óptico ZeScape de Zygo, con un objetivo 5x combinado con un cambiador de aumento de 0.63x para maximizar el área de visualización para cada impresión.

Se realizó un análisis cualitativo y cuantitativo para detectar variaciones topográficas en las huellas dactilares. El primero de ellos consistió en un examen visual y la comparación de cada huella. El segundo de ellos era medir la altura de la cresta y comparaba a lo largo del tiempo. Se complementó con la evolución de los patrones de degradación de las crestas.

Los resultados revelaron diferencias en la calidad visual de las crestas entre las dos superficies estudiadas; pero sí que se compartían similitudes en los patrones de degradación. Después de su recogida electrónica se revelará las huellas usando un polvo de base de TiO2. Se demostró que el perfilómetro óptico es más sensible que el TiO2 detectando las diferencias visuales entre las huellas frescas y las antiguas. Sin embargo, el perfilómetro no pudo detectar algunas crestas antiguas cosa que sí que hizo el TiO2.

El perfilómetro óptico detectó huellas dactilares frescas y antiguas sobre substratos tanto de plástico como de cristal. La calidad de la imagen dependía de la altura de las crestas. La calidad en las huellas antiguas es menor. Sin embargo, las huellas no detectadas sí lo fueron con los polvos y su calidad visual fue similar en las frescas. Esto implica que hay una pérdida significativa en la altura de las crestas, pero no una pérdida en la finalidad del polvo con la capa delgada restante de los componentes del sudor de la cresta. El perfilómetro también distingue entre huellas nuevas y antiguas a través del examen de la imagen, especialmente en caso donde el TiO2 falló en detectar cambios a lo largo del tiempo. Pero no puedo detectar capas muy finas de componentes de sudor de menos de 0.02µm de espesor.

Los datos recogidos de medida muestran una disminución de la altura de la cresta en todos los casos, en ambos donantes y en los dos sustratos. Más específicamente, las pérdidas de altura son más notables en los primeros sesenta días después de la deposición. Se planteó la hipótesis de que la cresta no desaparezcan por completo, pero es difícil su detección un año después de la deposición. Aunque los patrones generales de degradación fueron similares, se presentaban diferencias entre las donantes y los substratos. Las diferencias entre los donantes pueden deberse a que eran de diferente género y diferentes etnias. Las diferencias entre los substratos pueden deberse a las diferentes propiedades fisicoquímicas de cada material. Las diferencias más sorprendentes fueron encontradas entre las huellas de los diferentes dedos del mismo donante. Se hipnotizó que pudo influir la presión durante la deposición, las diferencias en morfología de las crestas de cada dedo, pero se tiene que realizar un estudio más en profundidad.

El perfilómetro óptico es una herramienta de imagen de 3D no destructiva y sin contacto que permite captar y visualizar directamente las huellas dactilares sin ningún tratamiento previo, minimizando la manipulación y los posibles errores y permitiendo reevaluar en múltiples ocasiones. Otra ventaja sería los costes inexistentes para la visualización, el análisis simultaneo que realiza tanto de la altura de la cresta como de la anchura en el tiempo, la extensión mayor de análisis en comparación con otras herramientas, así como el breve tiempo de ejecución (3 mins). Algunas desventajas es la limitación del área en una docena de mm2, la baja velocidad si se recogen datos de alta resolución.

Características distintivas de la escritura robótica. Club de Ciencias Forenses.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Distinguishing Characteristics of Robotic Writing” de Dumitra, Guzowski, Jean, Shaw, Warmbier y Zippo; en él nos hablan de las características que presenta la escritura robótica que intenta imitar la humana y cómo identificarla de cara a un posible peritaje.

La escritura a mano es un rasgo distintivo de cada persona y sirve de identificación ya que no hay dos personas que escriban del mismo modo, siendo muy complicado el copiar el estilo y la fluidez individual de cada uno. En la época actual el recibir un mensaje escrito a mano subconscientemente lo asociamos con una mayor personalización del mismo.

La escritura robótica tiene sus inicios en el siglo XVIII cuando inventaron máquinas que simulaban la firma de personas importantes, como el presidente de EE.UU. La primera máquina fue creada por Friedrich von Knauss él cual adaptó el mecanismo de un reloj para que fuera capaz de escribir frases cortas. En la década de 1930 se desarrolló la primera versión del Auto Pen, llamada Robot Pen, que consistía en un instrumento de escritura automático con una unidad de almacenamiento que era capaz de grabar la firma de una persona.

La primera versión comercial fue desarrollada por Robert De Shazo en 1942. El Auto Pen podía usar cualquier instrumento de escritura, variaba la velocidad de ejecución y permitía variar la calidad dependiendo del operador. Desde la década de los 60 este invento fue usado, no sólo por gobiernos sino también por corporaciones empresariales.

En 2013, Sonny Cabernal fundó el startup Bond, especializada en robótica que tienen los derechos del software de escritura. Bond es capaz de crear documentos enteros que repliquen el patrón de escritura a mano de cualquier persona. Mecánica y software trabaja juntos para adaptar la posición del útil de escritura, la velocidad y la forma de las letras y que un robot lo ejecuta en papel. El robot puede simular los movimientos de un bolígrafo operado a través de tres ejes lineales que se mueven simultáneamente.

Actualmente la robótica ha avanzado mucho en el campo de la escritura a mano, pero, ¿son capaces de replicar las variaciones naturales que produce cada individuo al escribir?

Cada vez que una persona escribe está influida por unos factores condicionales como son la posición, el agarre del bolígrafo, factores físicos como el instrumento de escritura y factores psicológicos como el estrés o la emoción. Estos factores hacen que la escritura sea individualizada y varié de una vez para otra. Los programas robóticos son desarrollados en entornos controlados y tiene dificultades para incorporar estos condicionantes, siendo demasiado perfectas y poco naturales.

El avance de la tecnología también ha supuesto un potencial abuso de ella, lo que preocupa a los especialistas forense de cara a un potencial aumento de falsificaciones mejores y más difíciles de detectar. De ahí la importancia de conocer las características de este tipo de documentos para poder identificarlos.

Para realizar el estudio se utilizó una modificación del procedimiento ACE-V (Analizar, Comparar, Evaluar y Verificar). Es un método utilizado universalmente en diferentes disciplinas forenses. El procedimiento es el siguiente:

En la fase de Análisis, un experto examina los documentos tanto el dubitado como el indubitado buscando características identificables, como son las inconsistencias que forman parte del estilo de escritura personal de cada uno resultado de los movimientos impulsivos que se realizarían con el bolígrafo repetida y consistentemente en la misma localización contextual mientras se escribe. En la fase de Comparación, como su propio nombre indica se comparan las características antes extraídas de ambos documentos. En la fase de Evaluación, el experto forense evalúa las similitudes y las diferencias observadas durante la fase anterior y emite su opinión de experto. En la fase de Verificación, un segundo experto hace una valoración independiente sin tener en cuenta los comentarios del primer examinador. Aunque en el presente estudio la parte de verificación no se realizó.

Los documentos utilizados para realizar el estudio fueron ejemplares genuinos y no originales. Los originales eran de dos tipos dirigidos y recopilados, todos ellos escritos a mano por varios autores, en tinta y de manera libre y natural. Los ejemplares no originales era muestras de escrituras robóticas hechas por Bond.

En los documentos genuinos se utilizaron documentos dirigidos y documentos recolectados. Para los ejemplares dirigidos se utilizaron la Carta de Londres, el Formulario Postal de EE.UU. 582 y un pasaje. Estos ejemplos son comunes ya que ofrecen muestras de todas las letras minúsculas y mayúsculas del alfabeto latino, así como los signos de puntuación y símbolos. Las instrucciones dadas a los autores fueron que escribieran en el entorno en el que se sintieran más cómodos y no tuvieran límite de tiempo ni restricciones sobre el útil de escritura a utilizar. Los recolectados procedían de documentos preparados en el curso normal de los negocios y de cuyo autor no se tenían dudas. Estos documentos eran de dos tipos, muestras de notas personales manuscritas y de documentos de trabajo.

Las muestras del robot fueron documentos creados imitando a seis de los autores por parte del robot.

El proceso de creación de los documentos por el Bond es el siguiente: primero se escanea a través de la web la muestra de escritura. Después se diseña la fuente de la letra del autor. Se hacen algunos retoques como el oscurecimiento de los trazos, finalización de todas las letras, y corrección de la línea base. Aunque para que no hubiera interferencias con la finalidad del estudio se evitaron los retoques. A través de un operador se crea el “render” que consiste en una versión del estilo de escritura de la persona tanto para las letras como para los números y los símbolos. Este render se transforma en código y es lo que se le comunica al robot para que realice la copia de la escritura. El robot tiene un brazo mecánico que tiene el instrumento de escritura y una platina con la que estabiliza el medio en el que se va a escribir. El robot lee el código y se mueve a través de tres ejes lo que le permite imitar el movimiento humano al escribir.

Participaron cuatro expertos en el estudio cada uno recibió 37 documentos, donde había de todos los tipos de documentos antes descritos. Sus instrucciones eran; examinar cada documento, comparar todos los documentos y agruparlos según su posible autoría, y determinar si había sido elaborado de una manera natural.

Todos los expertos clasificaron los papeles por autores correctamente e identificaron aquellos realizados por el robot. Las características que usaron para identificar la escritura robótica fueron:

  • La apariencia general de los trazos era suave y parecía estar dibujada.
  • Los trazos tenían una presión del bolígrafo uniforme.
  • Sombreado antinatural dentro de los trazos de los caracteres.
  • Presencia de trazos contundentes y falta de trazos cónicos y de arrastre.
  • El espacio entre las palabras y las letras era consistente y equidistante.
  • Exhibe formas alternativas de letras repetidas para imitar la variación.
  • Los caracteres pueden ser superpuestos con precisión.

Los cuatro expertos fueron capaces de identificar la escritura robótica identificando indicadores de escritura no natural en la producida por el Bond gracias a su entrenamiento, experiencia y los principios de identificación de la escritura a mano. Uno de ellos es que no se puede escribir igual dos veces debido a la variación natural y a la gran dificultad que existe de repetir de la misma manera las diferentes variaciones de forma de una misma letra. En la escritura humana, la fluidez de movimiento de la mano produce que unos trazos sean más oscuros y otros más claros debido a las subidas y bajadas que produce el bolígrafo sobre el papel.

El robot no puede reproducir el movimiento humano al escribir, la configuración física del robot es la responsable de la presión del bolígrafo, de los trazos contundentes, de la falta de trazos cónicos y de marcas de arrastre, así como del sombreado en la escritura. La superposición de características o la precisión exacta del espaciado son atribuibles al software.

Los expertos forenses deberían ser conscientes de la existencia de la escritura robótica y ser capaces de reconocer los indicios característicos de la reproducción mecánica. Cuando deban dar su opinión se recomienda el siguiente formato: “La escritura a mano que aparece en la evidencia muestra una presión inusual y uniforme de la pluma, falta de ritmo, trazos contundentes y falta de trazos cónicos, lo que sugiere que la escritura ejecutada no fue escrita de forma libre y natural. La evidencia encarna una apariencia de ser ejecutadas lentamente. La forma de ejecución sugiere la simulación y, por tanto, la escritura cuestionada puede no haber sido escrita por el autor conocido”.

 

La influencia del entrevistador en la precisión de las respuestas de los niños. Club de Ciencias Forenses

Estimados suscriptores y seguidores del Club de las Ciencias Forenses, en esta ocasión les presentamos un resumen del artículo “Effects of interviewer behavior on accuracy of children’s responses” de Jessica Sparling, David Wilder, Megan Boyle y Jennifer Kondash,  en donde explican como influye el comportamiento del entrevistador en la precisión de las respuestas de los niños.

La evaluación de la precisión de los informes de los niños se ha convertido en un tema importante de estudio. Algunas investigaciones sobre entrevistas con niños se han centrado en cómo la conducta del entrevistador influye en la declaración de los niños. Diferentes investigadores sugirieron que las entrevistas impropias tienen el potencial de evocar información falsa de los niños y describieron cuatro amplias categorías de técnicas inadecuadas de entrevista: preguntas sugestivas (por ejemplo, preguntando “¿La tocó de forma íntima?” cuando un niño ha reconocido ser tocado pero no ha mencionado ningún toque inapropiado), influencia (por ej., decirle al niño lo que ha dicho o ha visto sobre un tema), refuerzo y castigo (es decir, la entrega de declaraciones de aprobación y desaprobación dependientes de un informe del niño), y la eliminación de la experiencia directa (por ejemplo, invitar a un niño a especular sobre lo que pudo haber ocurrido).

Se examinaron los efectos de las preguntas sugestivas, la información de vacilación, las declaraciones de aprobación y desaprobación, y la solicitud (es decir, la presentación de una pregunta después de una respuesta inicial) sobre la precisión de los niños en las entrevistas. Los niños estuvieron expuestos a las cinco técnicas anteriores o solo a preguntas sugestivas durante las entrevistas sobre la visita. Los niños expuestos a las cinco técnicas de entrevista tenían más probabilidades de responder preguntas de forma incorrecta; sin embargo, no fue posible determinar cuál de las cinco técnicas tuvo el mayor efecto en la respuesta de los niños. En un estudio de seguimiento, se examinaron los efectos de las declaraciones aprobadas, la información de la actitud agresiva y el cuestionamiento sugestivo sobre la precisión de los niños. Los niños respondieron incorrectamente con mayor frecuencia cuando el entrevistador entregó declaraciones aprobadas supeditadas a que el niño proporcionara información inexacta.

Para el experimento participaron tres niños: Matthew (4 años), Owen (5 años) y Abby (8 años). Todos los niños tenían habilidades lingüísticas apropiadas para su edad, no tenían discapacidades o diagnósticos psiquiátricos, y estaban en clases de educación general en sus escuelas. Todas las sesiones se llevaron a cabo en una universidad en una sala que contenía un ordenador (para mirar videos) y una mesa y dos sillas. Los videos se obtuvieron de varios recursos en línea y consistieron en clips de dibujos animados para niños (por ejemplo, Scooby Doo) de 3 a 5 minutos de duración. Hasta 20 preguntas y respuestas correctas correspondientes basadas en eventos en cada video fueron preparadas por adelantado. Los videos fueron asignados aleatoriamente a las diversas condiciones de los estudios; es decir, cada video tenía la misma probabilidad de ser utilizado en cada condición de cada estudio. Para garantizar que la exposición repetida a un video no afectara la respuesta, los participantes vieron cada video solo una vez.

La variable dependiente fue la precisión de las respuestas de los participantes a las preguntas del entrevistador. Los participantes fueron entrevistados en sesiones que tuvieron lugar durante varios días. Las respuestas precisas se definieron como respuestas “sí” o “no” a una pregunta que requería la respuesta correspondiente. Las respuestas inexactas se definieron como una respuesta “sí” o “no” a una pregunta para la cual la respuesta opuesta sería apropiada. Si un participante respondió “No sé” a una pregunta, esa pregunta y respuesta se excluyeron del análisis (se excluyeron de una a dos preguntas por sesión). En el Experimento 1, el refuerzo se definió diciendo “bueno” y sonriendo. El castigo se definió diciendo “eso no está bien” y frunciendo el ceño. Una respuesta neutral se definió como un asentimiento rápido y decir “bien” sin inflexión vocal. Las preguntas generales, que se usaron en ambos experimentos, se definieron como preguntas afirmativas o negativas que contenían información sobre eventos en los videos (por ejemplo, preguntando si Scooby Doo se había caído). En el Experimento 2, las preguntas sugestivas se definieron como preguntas afirmativas o negativas que contenían información sobre eventos que no ocurrieron en los videos (por ejemplo, preguntando “¿No cayó Scooby?” Cuando no lo hizo). La información de co-testigo se definió como una pregunta precedida por la frase “Alguien me dijo que…”.

Al comienzo del Experimento 1, se les dijo a los participantes que miraran de cerca todos los videos porque les harían algunas preguntas. Para cada sesión, a los participantes se les mostró el video (descrito anteriormente) y posteriormente fueron entrevistados por el experimentador. Las entrevistas fueron precedidas por la dirección “Voy a hacerle algunas preguntas. Responda ‘sí’ o ‘no’ y hágalo lo mejor que pueda”. Se implementaron cuatro condiciones diferentes: control, refuerzo para respuestas imprecisas, castigo por respuestas precisas y refuerzo más castigo. El entrevistador, que era la misma persona en ambos experimentos, llevaba una camisa de diferente color para cada condición para ayudar a los participantes a discriminar entre las condiciones.

Se hicieron preguntas generales durante todas las condiciones, con un total de 12 preguntas por sesión para Matthew y Abby (debido a limitaciones de tiempo) y 20 preguntas por sesión para Owen. En la condición de control, se entregó refuerzo para cada respuesta, independientemente de la precisión de la respuesta. Por lo tanto, uno esperaría ver niveles más bajos (pero no inexistentes) de respuestas inexactas en esta condición que en las otras condiciones. En el refuerzo para las condiciones de respuesta imprecisas, todas las respuestas precisas fueron seguidas por una respuesta neutral y las respuestas inexactas fueron seguidas por el refuerzo, como se definió anteriormente. En el castigo por la condición de respuesta precisa, todas las respuestas precisas fueron seguidas por el castigo, como se definió anteriormente; las respuestas inexactas fueron seguidas por una respuesta neutral, como se definió anteriormente. En el refuerzo más las condiciones de castigo, el refuerzo se entregó dependiendo de respuestas inexactas y el castigo se aplicó a respuestas precisas.

En cuanto a los resultados del Experimento 1 los niveles más altos de inexactitud ocurrieron durante el refuerzo y las condiciones de castigo para todos los participantes. Además, la condición de control produjo niveles relativamente bajos de inexactitud para todos los participantes. Matthew respondió incorrectamente a una media de 33% (rango, 8% a 50%) de las preguntas en la condición de refuerzo y castigo y una media de 8% (rango, 0% a 17%) de las preguntas en la condición de control. Owen respondió incorrectamente a una media del 53% (rango, 37% a 65%) de las preguntas en el refuerzo más las condiciones de castigo, y una media del 20% (rango, 10% a 39%) de las preguntas en la condición de control. Abby respondió inexactamente a una media de 58% (rango, 25% a 92%) de las preguntas en la condición de refuerzo más castigo y una media de 17% (rango, 8% a 25%) de las preguntas en la condición de control.

Estos resultados sugieren que ambos antecedentes (es decir, la estructura de las preguntas) y las consecuencias (es decir, el refuerzo y el castigo) pueden influir en la precisión de la respuesta de los niños a las preguntas de un entrevistador. Además, la respuesta diferencial observada entre los participantes sugiere que algunos niños pueden ser más o menos sensibles a técnicas específicas de entrevistador. Esto es importante porque la mayoría de los estudios previos sobre este tema no se han llevado a cabo de una manera que permita dicho análisis. Finalmente, en estudios previos, ni el cuestionamiento sugestivo ni el suministro de información sobre la agresividad aumentaron sustancialmente la imprecisión. En contraste, los resultados del presente estudio sugieren que estas dos técnicas pueden aumentar la imprecisión en algunos niños. Las diferencias metodológicas entre el estudio actual y la investigación previa pueden explicar este hallazgo.

De todos modos, los niños en este estudio tenían edades comprendidas entre 4 y 8 años. Es probable que existan algunas diferencias de desarrollo en las habilidades del lenguaje en este rango de edad que puedan afectar la precisión. De hecho, las directrices de la entrevista forense reflejan esto; las recomendaciones para los niños más pequeños requieren preguntas más específicas que para los niños mayores. La investigación futura debe investigar las diferencias adicionales relacionadas con la edad en la sensibilidad a las técnicas del entrevistador.

Diferencia de homicidios típicos y atípicos, y el papel del perfilador criminal. Club Ciencias Forenses.

En este artículo abordaremos la diferencia entre los homicidios típicos y los homicidios atípicos. Los investigadores de homicidios, incluso aquellos que en grandes agencias manejan docenas de homicidios cada año, dedicaron la mayoría de sus carreras a investigar homicidios típicos. Estos incluyen homicidios en los que el perpetrador tiene una relación con la víctima; la víctima se dedica a la actividad de drogas; o la víctima es un objetivo, espectador o participante en otra actividad ilegal. Los homicidios atípicos son aquellos que no caen en una de estas áreas; incluyen crímenes en serie.

Los investigadores veteranos pasan sus carreras en agencias como Detroit, Baltimore, Nueva Orleans y otros departamentos que investigan literalmente cientos de homicidios cada año. Los homicidios de rutina son para el trabajo policial lo que diagnosticar y tratar la gripe es para un médico. Los médicos de práctica general pueden diagnosticar la gripe de manera eficiente y rápida, pero la mayoría de los médicos rara vez ven enfermedades exóticas. Para diagnósticos atípicos, los médicos suelen consultar a un especialista. Los homicidios son similares. La mayoría de los homicidios que estos investigadores ven son el equivalente de la gripe. El homicidio típico a menudo involucra a personas con un historial de violencia y cuando los detectives llegan a la escena, no es raro que conozcan tanto a la víctima como al perpetrador.

La diferencia entre los homicidios que los investigadores están acostumbrados a ver y los que los detienen es la diferencia entre los típicos y atípicos homicidios. Muchos investigadores toman atajos cuando investigan homicidios típicos. Estos accesos directos ayudan a agilizar el proceso y pueden ahorrar dinero y tiempo. Investigar a fondo todos los homicidios sería una pérdida de recursos para un investigador experimentado, pero los accesos directos dejan los casos que faltan por investigar para el perfilador.

La mayoría de los homicidios se cometen principalmente por uno de los tres tipos de perpetradores: (1) la víctima tiene una relación con el perpetrador: amantes, cónyuges, hijos, vecinos o compañeros de trabajo; (2) la víctima se dedica al uso, compra, venta, almacenamiento o distribución de drogas ilegales; o (3) la víctima es un objetivo inocente (es decir, un empleado de una tienda) o está involucrado en actividades socialmente marginales (es decir, prostitución, comportamiento de pandillas). Estos son homicidios típicos. Los casos que atormentan a los investigadores son aquellos que no encajan en el modelo de investigación por el cual han sido entrenados. Una vez que se les acaban los sospechosos y siguen todos los pasos hacia su fin lógico, no saben qué hacer: su capacitación y experiencia no los han preparado para investigar homicidios que no encajan en una categoría típica.

Los homicidios cometidos por asesinos en serie, asesinos psicóticos o perpetradores que no encajan en uno de los tres tipos principales enumerados anteriormente se consideran homicidios atípicos. Estos homicidios constituyen una minoría de los homicidios que se cometen, pero cuando los investigadores abordan los homicidios atípicos como lo harían con los homicidios típicos, se topan con un callejón sin salida. En este punto, sus casos se han enfriado y es difícil o imposible adquirir la evidencia necesaria, evidencia que podría haberse recopilado fácilmente desde el principio. Estos casos permanecerán inactivos hasta que nuevas pruebas salgan a la luz; es posible que nunca estén cerrados. Pero los casos también se enfrían cuando los investigadores simplemente se quedan sin pistas. En los homicidios típicos, las investigaciones se parecen más a las películas. Hay un grupo finito de sospechosos y es probable que el perpetrador sea uno de ellos. Esas reglas no funcionan con los homicidios atípicos. Hay un número infinito de posibles sospechosos, así como un número infinito de motivos. Si los investigadores no reconocen esta diferencia al comienzo de la investigación, pronto se encontrarán dando vueltas.

Con los homicidios típicos sería una pérdida de mano de obra y esfuerzo realizar entrevistas exhaustivas con testigos tangenciales o parientes, establecer trayectorias de cuerdas o llevar a cabo otros procesos caros y lentos. La búsqueda del caso se puede centrar de manera mucho más eficiente en un sospechoso específico y probable. La mayoría de los investigadores no tienen los lujos de tiempo, dinero o mano de obra. Lo más probable es que lleven varios homicidios u otros casos simultáneamente. Por lo tanto, los atajos y la heurística funcionan bastante bien y, a menudo, conducen a condenas exitosas. Sin embargo, cuando un homicidio atípico es investigado de esta manera, cuando los investigadores se dan cuenta de que han estado siguiendo el camino equivocado, los testigos han desaparecido y la evidencia valiosa e insustituible ha desaparecido. Del mismo modo, los vecinos han olvidado lo que pudieron haber visto o escuchado y sus recuerdos están manchados por la cobertura de los medios.

Los perfiladores criminales reciben casos que otros profesionales e investigadores ya han intentado resolver. Estos casos a menudo han pasado por las manos de varios investigadores diferentes a lo largo de un tiempo. Durante ese tiempo, el material se pierde o se pasa por alto información importante. Es por ello fundamental la figura del perfilador criminal, que cuenta con los conocimientos científicos necesarios para poder ofrecer luz a esos casos sin salida aparente. Para las personas interesadas en la figura del perfilador criminal, podéis comprobar los campos tratados en el Master de Criminal Profiling de Behavior & Law.

Antiguas entradas