clubforenses.com

clubforenses.com

Categoría: Investigación policial (página 1 de 7)

El ancho de las crestas como indicador de la degradación. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Latent Fingermark Aging Patters: Ridge Width as one indicator of degradation” de De Alcaraz – Fossoul, Barrot, Zapico, McGarr, Carreras-Marin, Tasker y Gené; en él nos hablan del análisis de la anchura de las crestas para determinar la antigüedad de una huella.

Estudios anteriores evaluaron la posibilidad de utilizar algunas de las características de las huellas para poder determinar el envejecimiento de estas. Estos estudios ya detectaron que es posible que el ancho de las crestas se estrechase con el paso del tiempo. En el presente estudio se pretende determinar las diferencias visuales que ocurren en los anchos de las crestas durante el proceso de envejecimiento de las huellas, para ello se estudiarán los cambios que se producen conforme va pasando el tiempo después de usar polvo de TiO2 para visualizar la huella y, también, se analizarán los patrones de envejecimiento en condiciones de laboratorio en interiores.

Para realizar el estudio se obtuvieron 310 impresiones individuales que fueron envejecidas, reveladas y fotografiadas. Las huellas se podían clasificar en base a dos tipos de secreciones: por un lado, estaban las sudorosas que eran ricas en ecrinos y, por el otro, otras más grasientas ricas en sebáceos. Fueron depositadas sobre diferentes materiales no porosos como fueron el vidrio y el poliestireno plástico y fueron expuestas a tres condiciones de luz natural diferente; unas tuvieron luz directa, otras en sombra y otras en oscuridad durante seis meses. Fueron visualizadas con dióxido de titanio en once momentos temporales diferentes: el día cero, a los siete días, a los 14, a los 21, a los 28, a los 49, a los 70, a los 91, a los 112, a los 140 y a los 170 días. Antes de analizar el ancho de las crestas se hizo un estudio de viabilidad donde fueron clasificadas y descargadas en función de si estaban borradas o muy degradadas para poder tener la calidad suficiente para su análisis.

De cada huella se analizó un área de 1 cm2 en el centro de esta, con una resolución de 3.000 píxeles. Las huellas fueron estudiadas por tres observadores diferentes. Los factores ambientales tales como temperatura, humedad relativa, exposición a la luz diurna e intensidad de la luz natural en interiores fueron registrados durante el estudio. La medición de la anchura de las crestas se realizó con una regla de un programa de tratamiento de imágenes y lo que se analizó fue el ancho promedio de la cresta.

En cuanto a los resultados se obtuvo una disminución del ancho de la cresta con el paso del tiempo de más a menos en sustrato de plástico – secreción de ecrinas – condición de oscuridad- condición de luz directa y por último el sustrato de cristal. La secreción sebácea y la condición de estar en sombra no mostraron una disminución del ancho de la cresta con el paso del tiempo. Esto nos indica que aquellas huellas que tengan estos factores serán más resistentes a la degradación. A continuación, se analiza en detalle la influencia de cada uno de los factores ambientales:

En relación a la exposición a la luz natural se puede decir que no fue tan relevante como cabría esperar ya que su papel fue secundario. La mayor reducción de la cresta se dio en las marcas ricas en ecrinas en sustrato de plástico y expuestas a la luz natural, aunque esto no está del todo claro y puede depender de otros factores. Las huellas sebáceas depositadas en vidrio no se vieron alteradas bajo ningún tipo de luz.

Con lo que respecto al tipo de sustrato se reveló que las marcas depositadas en sustrato de plástico eran más sensibles y se degradaban en mayor medida que aquellas que estaban en un sustrato de cristal. Esto ocurría independientemente de las condiciones de luz o del tipo de secreción. Esto confirma el rol secundario que jugaría la luz.

En lo que respecta al tipo de secreción se ha comprobado que las ricas en ecrinas se degradan más que las sebáceas. Estas últimas eran muy resistentes a la degradación con el paso del tiempo.

Algunas aplicaciones prácticas que se pueden sacar son:

  • En relación con la luz las marcas ecrinas en sustrato de cristal se debe tener precaución porque pueden presentar iguales niveles de degradación aquellas viejas que estén en interior como las nuevas en la sombra, solo cuando son expuestas a la luz natural se podrán ver diferencias visuales. Las marcas sebáceas en sustrato de cristal presentaran una gran dificultad para poder diferenciar marcas antiguas y recientes simplemente con un examen visual. Si lo que se utiliza es un sustrato plástico hay que tener en cuenta que cuando son marcas ecrinas, así como en las sebáceas, puede distinguirse entre huellas recientes o antiguas a través de la comparación visual.
  • En relación al sustrato las marcas ecrinas depositadas en cristal no experimentarían una degradación visible, por tanto, no serviría para diferenciar huellas recientes de huellas antiguas, salvo cuando estén expuestas a la luz natural directa. Mientras que, si son depositadas en plástico sí que sufrirían degradación, independientemente de la luz y sería posible compararlas. Las marcas sebáceas si son depositadas en una superficie de cristal como sería una ventana no presentarían diferencias en el grado de degradación entre huellas recientes y antiguas. Sin embargo, si son depositadas en una superficie de plástico como la caja de un CD, independientemente de las condiciones de luz, se podrá diferenciar visualmente ambos tipos de huellas.
  • Respecto al tipo de secreción se considera que sus ventajas en la práctica real son insignificantes ya que solo cuando hay una exposición a la luz natural directa las huellas ricas en ecrinas parece que tienen una reducción de la anchura de las crestas.

En resumen, todas las marcas depositadas en un sustrato de plástico fueron más sensibles a la degradación que aquellas depositadas en vidrio. Esto indica que el tipo de sustrato será un factor determinante para ver la degradación del ancho de las crestas. También, parece que, aunque su papel no sea tan decisivo, las marcas más ricas en ecrinas se degradaban más que aquellas sebáceas. Por último, aunque la exposición a la luz parecía un factor clave resultó ser casi insignificante.

Calidad de los informes escritos tras la entrevista a testigos. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Quality of written record following mock eyewitness testimony: Note taking should be a mínimum standard!” de Meise y Leue; en él nos hablan de cuál es la mejor estrategia para tener un registro escrito de la declaración de un testigo.

Lo que se buscaba en este estudio era comprobar qué técnica de registro escrito favorecía la recogida una mayor cantidad de información y de más calidad. Se hipotetizó que utilizando técnicas aplicadas en el recuerdo libre se obtendría menos información que con la toma de notas durante la entrevista o con las técnicas de recuerdo de la entrevista cognitiva. Además, se hipotetizó que las personas con una mejor memoria verbal obtendrían mejores resultados que aquellas con niveles más bajos, ya que tendrían mayor número de detalles correctos.

Para comprobar las hipótesis se realizó un estudio con una muestra de 80 participantes siendo 40 hombres y 40 mujeres con edades comprendidas entre los 18 y los 62 años, siendo la edad media de 30 años. Para comprobar su memoria verbal se utilizó el Módulo A del Inventario de Evaluación de la Memoria, que contenía cuatro tareas: memoria de trabajo verbal, aprendizaje verbal, reconocimiento diferido y reproducción retardada.

Se les presentó un vídeo donde una mujer joven sentada a una mesa describía durante 18 minutos una agresión sexual que había sufrido a manos de su dentista. El relato de la joven contenía 101 datos relevantes para el caso. Este concepto estaba definido como cualquier palabra o frase que identificara o describiese a individuos, objetos, eventos, sentimientos, impresiones o acciones que fueses declarados por la víctima. Los datos se clasificaron en las notas de los participantes como dato correcto, EOO (un dato que no fue mencionado), EOC (datos añadido que no fue mencionado por la mujer) o confabulación (información que fue cambiada ligeramente respecto a la manifestada por la mujer). La mujer era una actriz aficionada que relataba un episodio real.

Antes de ver el vídeo se les dijo a todos los participantes que tenían que pensar como policías y debían presentar un escrito lo más completo y detallado posible sobre el testimonio que iban a ver. Se les asignó aleatoriamente a una de las tres condiciones que había, 27 fueron asignados a la utilización de técnicas de recuerdo libre después de visualizar el testimonio, 27 a la aplicación de técnicas de recuerdo de la entrevista cognitiva al terminar el video y 26 a la toma de notas durante el relato. Las instrucciones que se les dieron a los participantes de las dos primeras técnicas fue que tenían que presentar un escrito con el mayor número de detalles posibles después de ver el vídeo y a los de la tercera que tenían que pasar a limpio las notas después de acabar de ver el vídeo dando la mayor cantidad de información posible. Para esta tarea se les entregó papel en blanco a los del recuerdo libre y a los asignados a tomar notas, mientras que a los de la entrevista cognitiva se les dieron papeles donde se les ayudaba a aplicar las cuatro técnicas de la entrevista cognitiva: restauración en el contexto, describir todo, recordar los hechos en distinto orden y cambiar de perspectiva. Después del vídeo se les daba 15 minutos para la realización del escrito.  A continuación, tenían que realizar el test de memoria verbal y un test de personalidad.

De media los participantes recordaron correctamente al menos la mitad de los datos. Se obtuvieron menos detalles en los relatos de recuerdo libre que en aquellos basados en notas, lo mismo ocurrió con la técnica de la entrevista cognitiva. No hubo diferencias estadísticamente significativas entre los datos obtenidos por recuerdo libre que aquellos que aplicaron las técnicas de la entrevista cognitiva.

Se observó una asociación entre tener una alta capacidad de memoria verbal y un relato con un mayor número de datos correctos. No se obtuvo ninguna relación entre el sexo de los participantes y el número de detalles que aportaron. En cambio, se encontró una relación entre la edad y la cantidad de información, ya que los participantes más jóvenes aportaron un mayor número de datos que aquellos con más edad. En lo que respecta a las técnicas de la entrevista cognitiva se encontró que la que más datos aportó fue la descripción de todo.

El análisis también descubrió que había un menor número de datos que nunca fueron mencionados (EOO) que de datos correctos. Los EOC y las confabulaciones fueron muy raras. Esto nos dice que los participantes no tendieron a agregar información y que cambiaron muy pocos detalles, aunque eran más probables las confabulaciones que los EOC, siendo más habituales en el recuerdo libre y en la entrevista cognitiva que en la toma de notas.

Se puede concluir que, como se hipotetizó, la toma de notas durante la entrevista aumenta la calidad del registro escrito ya que se consigue un mayor número de datos correctos en comparación con el recuerdo libre o la aplicación de técnicas de la entrevista cognitiva. Del mismo modo si se toman notas durante la entrevista se obtienen menos datos falsos o con cambios respecto a lo declarado por el testigo. Se obtuvo hasta un 65% de información correcta recordada al usar la toma de notas, mientras que en el recuerdo libre el porcentaje estuvo alrededor del 50%.

Se han encontrado dos explicaciones posibles para estos resultados: la primera de ellas es que al tomar notas se codifica mejor la información por medio de un estilo de procesamiento generativo. La segunda es que al tomar notas mientras se lleva a cabo la declaración facilita la finalización del registro escrito posterior. Esto es así porque la información escrita sirve como señal para recordar otras piezas informativas.  Los resultados peores obtenidos con las otras técnicas pueden deberse a que se tienen que realizar diferentes tareas simultáneamente como son escuchar, memorizar y recordar. Otra explicación posible para los resultados pobres que se han obtenido con la entrevista cognitiva es que los participantes no estén del todo familiarizados con las técnicas que conlleva y esto las haya hecho menos efectivas. En una investigación futura habría que probar con policías reales que estén más acostumbrados a la aplicación de dichas técnicas. Además, hay que tener en cuenta que solo vieron un vídeo, seguramente con una entrevista en directo estas técnicas hubieran obtenido mejores resultados.

En cuanto a las repercusiones prácticas se recomienda, no solo la toma de notas, sino que los encargados de recoger testimonios sean entrenados tanto en la mejora de la memoria de trabajo verbal como en la aplicación de las técnicas de la entrevista cognitiva.

Comparativa de técnicas de entrevista en relación a la mejora de la memoria y la detección del engaño. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A comparision of different investigative interviewing techniques in generating differential recall enhancement and detecting deception” de De Rosa, Hiscock-Anisman, Blythe, Bogaard, Hally y Colwell; en él hacen una comparativa entre diferentes técnicas de entrevista de investigación y su relación con un mayor número de recuerdos y la detección del engaño.

Detectar el engaño es complicado para cualquier persona, incluso para los profesionales de la ley. Es cierto que hay ciertas técnicas que facilitan la obtención de recuerdos honestos. El concepto de mejora de la recuperación diferencial (DRE) explica el rendimiento de estas técnicas, contra más DRE mayores diferencias presentan las declaraciones honestas y engañosas y mejor detección del engaño.  El estudio de la DRE comenzó cuando se descubrió las diferentes demandas cognitivas e interpersonales de los encuestados engañosos y honestos, por ejemplo, una persona que quiera mentir deberá dar los suficientes detalles, pero tendrá que tener cuidado en no dar datos contradictorios o decir de más.

Normalmente los mentirosos se preparan un “guion” para que les sea más fácil la tarea, de esta manera son capaces de responder la necesidad de dar la suficiente información al entrevistador, pero sin caer en contradicciones o revelar más de lo que quiere. Generalmente las personas honestas no llevan preparado este guion y no están preocupados por caer en pequeñas contradicciones o desviarse del tema principal. También destaca que los mentirosos al basarse en un guion cuentan siempre la misma historia mientras que las narraciones de las personas honestas incluyen cambios, ya que sea basan en sus recuerdos y no en un guion prestablecido.

El entrevistador primeramente deberá dejar una fase de recuerdo libre donde cada uno haga una narrativa libre. Después, aplicará una serie de técnicas que harán más fácil distinguir entre las declaraciones honestas y las engañosas como son la restauración mental del contexto, el recuerdo desde otra perspectiva y la memoria de orden inverso.  Después de la aplicación de estas técnicas se puede pasar a una fase de preguntas con opciones cerradas.

Hay varios tipos de entrevista de investigación que utilizan estas técnicas como son la entrevista por pasos que comprende la construcción de relaciones, la transferencia de control y la obtención de un relato libre, y luego otras tareas de recuperación. La entrevista cognitiva que es similar a la anterior, pero utiliza técnicas de recuperación de recuerdo libre en vez de otras más guiadas como la entrevista por pasos. La entrevista de realidad es similar a la entrevista cognitiva, pero incluye preguntas de elección forzada. Estas preguntas sirven de claves de recuerdo adicional y hace que sea más difícil al mentiroso usar su guion prestablecido.

Se supone que la entrevista por pasos generará menos diferencias entre ambos tipos de declaración que la cognitiva, y ésta a su vez generará menos que la entrevista de realidad. También la entrevista de realidad será más precisión en la detección del engaño que la cognitiva, y la entrevista por pasos tendrá una menor precisión de detección del engaño que la cognitiva.

Para realizar el estudio se utilizó una muestra de 180 participantes masculinos encarcelados, siendo un 56,7% caucásicos, un 25,6% afroamericanos, un 14,4% hispanos, un 1,6% asiáticos y un 1,7% de otra raza. Se escogieron presos porque ellos ya habían vivido una entrevista interrogativa y porque el fin general era aplicarlo a las entrevistas de la policía.

Los participantes fueron testigos de un robo y luego se les asignó un rol, los que recibieron el de honestos se le pidió que dieran en las entrevistas la información más honesta que pudieran y lo más completa para que pudieran declarar culpable al ladrón. Por el contrario, aquellos que tuvieron el rol engañoso se le dijo que imaginara que conocían al ladrón y que por tanto tenían que hacer lo posible para que no fuera declarado culpable. Los participantes tenían cinco minutos para prepararse la entrevista. Hubo nueve entrevistadores capacitados, que entrevistaron a cada recluso haciéndoles una entrevista por pasos, una entrevista cognitiva y una entrevista de realidad.

Para que las entrevistas tengan un DRE alto debe aumentar la cantidad de información veraz única aportada y disminuir la información falsa. Las declaraciones honestas crecen con la suma espontanea de detalles a lo largo de toda la entrevista, cosa que no ocurre con las declaraciones falaces. Es importante crear situaciones en las que los testigos, así como los sospechosos que son inocentes se sientan cómodos y tengan oportunidad de contar su versión del hecho.

En el estudio se les dio libertad a la hora de mentir, casi todos optaron por señalar a un falso culpable lo que les permitía ser sinceros en la mayor parte de los detalles del hecho y solo fabricar o distorsionar los detalles del autor. Estos participantes dieron menor número de detalles a la hora de usar las técnicas de restauración mental del contexto, el recuerdo desde otra perspectiva y la memoria de orden inverso. Por tanto, el engaño fue más simple y tuvieron especial cuidado en contar siempre la historia que habían diseñado, así como no caer en contradicciones.

Para que una entrevista de investigación sea útil debe obtener la mayor información real posible, maximizar las diferencias entre respuestas veraces y falaces y estas diferencias deben de ser fáciles de observar. Para maximizar el recuerdo y protegerlo de posibles contaminaciones se utilizan técnicas como la transferencia de control al entrevistado, hacer énfasis en la relación, el uso del relato libre y la utilización de estrategias como restauración mental del contexto, el recuerdo desde otra perspectiva y la memoria de orden inverso.  Evaluar el número de detalles único es una buena estrategia para detectar el engaño y es fácil de entrenar ya que con una capacitación de entre cuatro a ocho horas fue suficiente para clasificar con mayor éxito la veracidad o falsedad de las afirmaciones, ya que en los relatos honestos hay de media 50 nuevos detalles añadidos nuevos. Se puede decir que si el número de detalles agregados después del relato libre es superior a aquel proporcionado en el mismo se considera creíble la declaración y viceversa.

Los tres tipos de entrevista se compararon para obtener información, obtener DRE y detectar engaños. La entrevista de realidad tuvo un mejor desempeño que las otros en las tres áreas. Esto es importante porque las técnicas y los criterios de evaluación tienen una base teórica, las técnicas de entrevista no son difíciles de aprender para los profesionales, al igual que los criterios de contenido, no se requieren herramientas especiales para su aplicación y, además, pueden ser usadas tanto en interacciones cara a cara como en telefónicas o por internet.

 

El impacto de las estrategias y las tácticas en la investigación de homicidios (II). Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana continuamos con el resumen del estudio “The Impact of Investigation Strategies and Tactics on Homicide Clearance” de Pizarro, Terrill y LoFaso; en él nos hablan de los cambios que llevó a cabo el Departamento de Policía de Rochester en los procedimientos de investigación de los homicidios.

En 2012 el departamento de Policía de Rochester implementó un nuevo protocolo de investigación, y con este estudio lo que se busca es comprobar si esas técnicas nuevas mejoraban el índice de resolución de casos.

Rochester es la tercera ciudad más grande del Estado de Nueva York, según el censo de 2010 tiene una población de 210.565 habitantes. La tasa de homicidios era de 19.9 por cada 100.000 habitantes, 3.9 puntos superior a la de la ciudad de Nueva York y 4.5 puntos más que la media nacional de EE. UU, según datos del FBI. El estudio se realizó durante dos años antes y dos años después de los cambios en el protocolo de investigación. En los dos primeros años hubo una media de 34 asesinatos por año y en los dos últimos una media de 32 asesinatos. Rochester es una de las ciudades más pobres del país.

Antes de los cambios había dos sargentos y cada uno controlaba a cuatro o seis investigadores. Cada semana había un equipo de guardia formado por un sargento y dos investigadores y ellos se hacían cargo de todos los homicidios que acontecían durante esa semana e investigaban todo sin ayuda del resto de personal de su departamento. Un incremento en la plantilla debido a restructuraciones, fue una de las variables que motivó el cambio.

El departamento cambió su protocolo de actuación en enero de 2013. El departamento contaba con tres sargentos, cada uno lideraba un equipo con cuatro investigadores. Cada semana, un sargento y dos de investigadores estaban de guardia para los homicidios que pasaban fuera de las horas de servicio. A parte podían llamar a más personal si las circunstancias del caso así lo requerían. El resto de la unidad podía colaborar durante la jornada laboral en tareas auxiliares de la investigación. Cuando el homicidio ocurre en horas de servicio todos los investigadores disponibles acuden a la escena. En el momento en que un equipo tiene un homicidio deja de estar de guardia para el resto de la semana y esta tarea recae sobre el siguiente equipo.  De los dos investigadores principales de cada caso, uno asumirá la función de líder, aunque en la práctica eso es indiferente ya que ambos se repartirán las tareas indistintamente.

Otro de los cambios más importantes que realizaron fue las reuniones de supervisión de los casos. Las reuniones de progresión del caso se programan regularmente, con el capitán y el teniente de la Unidad de Delitos Graves, también asisten a las mismas la Fiscalía y los miembros de la Policía Científica. También invirtieron en un “vehículo de comando”, que era un vehículo equipado con una sala de videoconferencia, vídeos, wi-fi y una pizarra blanca, que trasladaban a cada escena del crimen.

Se estudiaron 132 homicidios ocurridos durante cuatro años. Se estudiaron de cada caso las variables que estaban presentes en la literatura previa, como las relacionadas con el investigador (experiencia previa, número de casos), con la víctima (género, raza, edad, estilo de vida y antecedentes penales), con el hecho (arma usada, modo, testigos, lugar) y con el vecindario (nivel de vida, etnia mayoritaria).

Las variables del investigador se refieren tanto a la carga de trabajo como a la idoneidad del personal de la investigación. Los años de experiencia se refiere a la experiencia como investigador principal del policía encargado y el número de casos es el número de casos abiertos que tiene simultáneamente.

Las relacionadas con la víctima son bastante claras, género, edad, raza, el estilo de vida era si guardaban relación con la vida criminal, por ejemplo, si era miembro de una pandilla o traficante de drogas.

Las variables relacionadas con el hecho, el arma usada distinguía básicamente entre el uso de armas de fuego u otro tipo. El modo en que se llevo a cabo el hecho, era si víctima y agresor eran conscientes de la presencia del otro en el momento de cometerse el homicidio. Los testigos si había o no y si habían declarado ante la policía y en cuanto al lugar hace referencia a si se ha cometido en la residencia de la víctima o del agresor o en un lugar diferente.

En cuanto a las de vecindario, se utilizaron datos para saber los ingresos del barrio donde había ocurrido y ver si estaban por debajo, en la media o por encima de la media del país. La etnia hace referencia a la composición racial de la zona, dividiéndolo en tres grupos, mayoría de no blancos, integrado (número similar de no blancos y blancos) y mayoría de blancos.

En cuanto a los homicidios en sí mismos, se puede decir que la mayor parte de las víctimas fueron hombres (85%), afroamericanos (77%) y con edades entre los 15 y los 44 años (76%).  Generalmente eran cometidos con armas de fuego (67%), cara a cara (68%) y la víctima y victimario se conocía previamente (64%). Había como mínimo un testigo (66%) y la mayoría se produjo en un lugar diferente a la residencia (67%). La mayoría ocurrió en barrios con ingresos en la media y que estaban integrados.

El 68% de los casos se resolvieron en el tiempo que estuvieron en estudio. En la época anterior a los cambios se resolvió el 54% de los homicidios y en la posterior el 83% de los mismos. La mayor parte de los casos se resolvieron en los primeros siete días, pero la media está en 57 días, ya que hubo varios casos que se demoraron más de un año. En la primera época tardaban de media 75 días en resolver los homicidios y en la segunda solamente 44 días.

Como se ha visto los cambios sí que ayudaron a mejorar tanto la resolución del caso, como la rapidez del mismo. Además, se comprobó que cuanto más números eran los casos abiertos por investigador bajaba el porcentaje de resolución. Aquellos homicidios que se habían llevado a cabo cara a cara y en los que se contaba con algún testigo tenían mayores posibilidades de esclarecerse. Curiosamente parece ser que cuanto a más experiencia del investigador se percibe un descenso en las posibilidades de resolución del caso (en este caso concreto puede ser por dos circunstancias específicas, la llegada de nuevo personal y la mayor presencia de nuevas técnicas relacionadas con el uso de la tecnología y las redes sociales, a las cuales estaban más acostumbrados los investigadores de menos edad y por tanto menos experiencia).  Los casos en los que las víctimas estaban relacionadas con el mundo criminal tardaron menos tiempo en resolverse que aquellos en los que la víctima no guardaba relación con ese mundo. También se resolvieron más rápido aquellos homicidios que no se llevaron a cabo con un arma de fuego, o los que fueron cometidos en la residencia de la víctima o del agresor y los que tenían algún testigo.

Como se ha visto la resolución de un homicidio es un proceso complejo en el que entran en juego multitud de variables, tanto propias del hecho, la víctima o el lugar donde ocurre como las relacionadas con las características de la propia policía.

 

El impacto de las estrategias y las tácticas en la investigación de homicidios (I). Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The Impact of Investigation Strategies and Tactics on Homicide Clearance” de Pizarro, Terrill y LoFaso; en él nos hablan de los cambios que llevó a cabo el Departamento de Policía de Rochester en los procedimientos de investigación de los homicidios.

Los homicidios tienen muchas consecuencias negativas para los familiares y amigos de la víctima y para la sociedad en su conjunto. A nivel social, algunos académicos han calculado que cada homicidio tiene un coste de 17,25 millones de dólares. Además, si los delincuentes no son atrapados el efecto disuasorio de las sanciones disminuye.

En EE. UU se considera resuelto un caso cuando la policía arresta y acusa a los delincuentes y los pone a disposición judicial o si el infractor muere. En la década de 1960 la tasa de resolución de los homicidios era de un 90%, en la actualidad es del 60%.

La mayor parte de la investigación actual sobre el esclarecimiento de homicidios se centra en la devaluación de la víctima, en las características del evento, la devaluación policial o el estilo de vida de la víctima. Lo relacionado con la devaluación de la víctima tiene que ver con la perspectiva discrecional o extra -legal. Esto está relacionado con que al investigar un homicidio los investigadores se verán “influenciados” por características extra legales como el estatus socioeconómico de la víctima y la demografía. Por tanto, viene a decir que es más posible que se quede sin resolver el homicidio de una persona de estatus social bajo ya que los policías están menos motivados y no se esfuerzan tanto.

En relación a las características del evento, esta teoría dice que todos los homicidios tienen mucho impacto y harán que los policías estén motivados para su resolución pero que debido a otras circunstancias (testigos, ubicación, armas de fuego…) algunos se resuelven y otros no.

La devaluación de la policía tiene que ver con la percepción de la comunidad. La asociación negativa entre tasa de resolución y víctimas no blancas con bajo estatus social es más atribuible a la devaluación de la policía que a la de la víctima. En áreas donde la población no confía en la policía es más posible que no colaboren en la investigación de los homicidios.

La perspectiva de estilo de vida de la víctima viene a decir que es más complicado resolver el homicidio con víctimas que tengan un estilo de vida desviado. Esto viene a ser personas relacionadas con el tráfico de drogas, con las pandillas o tener antecedentes penales. Los casos que involucran a criminales conocidos son más difíciles de resolver porque los policías tienen dificultad en encontrar testigos creíbles u obtener evidencias físicas.

Una línea que ha recibido muy poca atención es justamente la que se centra en el proceso de investigación.  Después de que se reporte un homicidio y la policía comience con su investigación, hay que ver si el detenido puede ser determinado por las acciones que lleven o no a cabo los investigadores.

El objetivo de la investigación de un homicidio es resolver el caso con el arresto del autor del mismo. El proceso de investigación puede dividirse en dos etapas: la preliminar y la complementaria. La primera de ellas se inicia cuando el primer policía llega a la escena del crimen. Las primeras acciones que se llevan a cabo es proteger la escena para preservar las evidencias físicas dejadas y si es posible detener al autor del crimen. También fotografían la escena para que quede constancia del estado en el que estaba cuando se personaron y recogen los hechos más importantes para realizar una línea de tiempo. La investigación complementaria es la que realiza el investigador asignado al caso, que incluye acciones como examinar la escena del crimen, realizar entrevistas y examinar las evidencias del caso. Este proceso es complicado y en su mayoría cognitivo, ya que es necesario recopilar información, evaluarla, interpretarla y tomar decisiones en base a las conclusiones que realicen.

La mayor parte de los estudios que se centran en el proceso de investigación como la variable principal para la resolución de un homicidio comparan los departamentos de policía con altos y bajos índices de resolución. Estos estudios sugieren que las técnicas de investigación tienen como mucho un efecto marginal en la resolución del caso. Los arrestos están influidos por la investigación preliminar que ha llevado a cabo la patrulla que se persona en primer lugar, la información que ha facilitado los testigos y por el procedimiento administrativo rutinario. Otros investigadores encontraron que el esclarecimiento del homicidio está completamente fuera del control de los investigadores y que depende de las características del homicidio.

Otros estudios determinaron que ni la experiencia del investigador ni la cantidad de oficiales y los gastos económicos del departamento eran variables significativas para la resolución de un homicidio. También se han analizado la carga de trabajo, el número de casos abiertos, el tiempo que ha pasado el último caso del investigador y parece ser que está última variable es la única que tiene relevancia, pudiendo ser debido al efecto de oxidarse.

Por el contrario, otros estudios han demostrado que sí que son importantes las tácticas de investigación. Un estudio que se realizó en el Departamento de Policía de Boston demostró se mejoraba un 18% el índice de resolución de homicidios con un aumento de investigadores, una capacitación extensa en prácticas de investigación y análisis forenses, desarrollar protocolos estándares de investigación y reuniones mensuales para revisar los casos abiertos.

Uno de los factores más importantes para la resolución de un homicidio es la cooperación de los testigos. También se asocia un mayor éxito con la velocidad a la que se notifica a los investigadores de homicidios y al equipo forense y el tiempo que estos tardan en llegar a la escena. La investigación que se lleve a cabo durante las primeras 48 horas es vital para el esclarecimiento del homicidio. Los departamentos que consiguen asegurar pruebas y testigos, así como a los delincuentes tienen índices de resolución más altos.

Otros factores claves son la supervisión de la administración, la capacitación de los investigadores y la disponibilidad de las técnicas forenses más actuales también ayudan a mejorar el índice de resolución de los casos. Aunque parece ser que los investigadores solo recurren a las técnicas forenses más innovadoras cuando el resto de recursos han fallado. Además, éstas marcan una diferencia importante en casos especialmente complicados, pero no es así en los más rutinarios. El personal del que se dispone también es importante. Una investigación sugiere que el nivel más óptimo es un sargento y cuatro investigadores por equipo, con los investigadores rotando en el puesto de líderes en cada investigación no siendo en más de tres homicidios por año. La forma en que se lleva a cabo la investigación también es importante, una buena autopsia y la toma de notas limpia ayuda a mejorar el índice de resolución de casos.

La semana que viene continuaremos con los resultados del estudio de Pizarro, Terrill y LoFaso.

 

Comparación entre dos técnicas de detección de huellas dactilares: deposición de metal único versus revelador físico. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Single metal deposition versus physical developer: A comparision between two advanced finergermark detection techniques” de Moret, Lee, de la Hunty, Spindler, Lennard y Roux; en él nos hablan de los resultados obtenidos de una comparativa realizada en más de 1.000 especímenes con los métodos de deposición de metal único y de un revelador físico.

La última década ha sido testigo de una mejora de la efectividad de diversas técnicas para detectar las huellas dactilares, por ejemplo, en sustratos porosos se utiliza cada vez más la 1,2-indandiona/zinc (IND-Zn), sustituyendo al 1,8-diazafluoren-9-ona (DFO), debido a la mayor sensibilidad y intensidad lumínica. Otras técnicas más avanzadas como el revelador físico (PD) y la deposición de metales al vacío (VMD) también son cada vez más utilizados. La deposición multimetal (MMD) y la deposición de un solo metal (SMD) han avanzado mucho en los últimos años. La versión más reciente del SMD II puede ser una buena alternativa al PD, ya que no se limita a los sustratos porosos como pasa con el PD, sino que también se aplica a sustratos no porosos o semiporosos. La SMD II es una técnica basada en un proceso en inmersión en dos pasos que primero involucra a nanopartículas de oro (oro coloidal), seguido de un baño de refuerzo que aumenta el contraste de la marca para mejorar su visibilidad. El protocolo más reciente ha mejorado la robustez y su facilidad de implementación, el rendimiento del SMD II es menos dependiente del pH, además, la síntesis del oro es sencilla y no hay que controlar la temperatura. Esto ayuda a que la técnica se pueda implementar en el uso diario. A pesar de ello, la implementación sigue siendo más compleja que los reactivos de aminoácidos, siendo comparable a los PD. En apariencia también es similar, ya que las crestas se presentan en color gris oscuro sobre un fondo claro. Pero a pesar de todo esto, la técnica SMD II nunca ha sido comparada con otras técnicas actuales, en este estudio se va a comparar la SMD II con el PD.

Se realizaron tres experimentos para comparar el rendimiento del SMD II con el de PD.  Primero se aplicaron cada una de ellas como métodos de detección independientes. Después fueron aplicadas posteriormente a dos reactivos de aminoácidos como son el IND-Zn y la ninhidrina. Por último, se compararon en sustratos que se habían sumergido en agua después de dejar las huellas, una situación donde los reactivos de aminoácidos no son aplicables.

Los donantes de las huellas fueron instruidos en que realizasen sus actividades cotidianas normalmente pero que no se lavasen las manos ni se pusiesen ningún cosmético una hora antes de la donación. Antes de tocar los sustratos se les pidió que se frotasen las manos. La presión para dejar la huella no fue controlada. Se recogieron huellas de cinco donantes (cuatro hombres y una mujer) en 12 sustratos diferentes (9 papeles convencionales, un papel térmico, un papel de cartón y un papel de una revista satinada). Las huellas tenían dos edades diferentes: una semana y cuatro meses. Se recogieron depósitos de dos dedos para cada condición, teniendo un total de 480 marcas de dedos. También se recogió muestras en sustrato no poroso (polipropileno transparente) para probar el SMD II.  Todas las huellas se guardaron en la oscuridad (un cajón de oficina) baja condiciones ambientales de 19ºC y una humedad relativa del 54,3%.

Para la comparación independiente y el experimento del sustrato humedecido las huellas se cortaron por la mitad, de esa manera cada huella era procesada por las dos técnicas. En el experimento en secuencia primero se aplico el IND-Zn y después la ninhidrina, y posteriormente fueron cortadas por la mitad, para procesar cada mitad con una técnica.

Cada resultado fue evaluado por tres evaluadores independientes, las imágenes se presentaban en orden aleatorio. Para comparar las técnicas, se calculó la puntuación media de cada marca de dedo.

En total se recolectaron 1080 muestras. De ellas, 480 se compararon con las técnicas de manera independiente, 480 para la forma secuencial y 120 en los sustratos humedecidos.

Las puntuaciones obtenidas fueron bajas para ambas técnicas, era esperable ya que la calidad variaba de una huella a otra, debido a que habían sido depositadas de manera natural no controlada. Los valores promedios fueron ligeramente para SMD II cuando fue aplicada por sí sola. Sin embargo, PD tuvo un desempeño mejor al ser aplicado después del IND-Zn y la ninhidrina, demostrando que la eficacia de esta técnica no varía, aunque se hayan aplicado otras técnicas con anterioridad. Estos resultados habría que interpretarlos con cautela puesto que pueden ser debidos a una mayor calidad de las muestras. SMD II tuvo peor desempeño cuando fue aplicado después de los aminoácidos que cuando se aplicó de manera independiente, esto puede significar que las técnicas anteriores son compuestos dirigidos también por el SMD II o que el disolvente portador del IND-Zn y la ninhidrina está eliminando los compuestos que analiza el SMD II. Todo parece indicar que los tratamientos con IND-Zn y ninhidrina pueden tener un efecto perjudicial para el rendimiento del SMD II. En relación con la edad de las huellas, se obtuvieron mejores resultados en las marcas más frescas en ambas técnicas. En promedio la PD dio mejores resultados en la mayoría de los sustratos. El SMD II tuvo su mejor resultado en el papel blanco y su peor en el papel satinado. En papeles verdes y naranjas obtuvo buena resolución, pero un mal contraste lo que impidió su visualización. El PD no fue efectivo sobre el polipropileno transparente, resultado ya esperado.

En lo relativo a los sustratos húmedos obtuvo mejores puntuaciones el PD que el SMD II, por tanto, parece que la inmersión tiene un efecto más negativo en la técnica del SMD II.

Por todo esto no se puede recomendar la SMD II como una alternativa válida para la detección de huellas en sustratos porosos. Los reactivos de aminoácidos afectaron negativamente al rendimiento de SMD II y su visualización se ve impedida por la falta de contraste. Aunque en algunos sustratos es superior el rendimiento de la SMD II al de PD. La aplicación secuencial de ambas técnicas no produce mejoras. Además, la aplicación de PD después de SMD II daña la muestra.

A pesar de estos resultados, la SMD II tiene ventajas, como que puede ser aplicada desde sustratos no porosos a los porosos y su aplicación es más sencilla que la de PD. También es menos perjudicial para el sustrato, siendo, además, más barata al requerir menos productos químicos. Aunque para ser más efectiva requiere una mejora del contraste.

Detección canina de la sangre humana en descomposición y sus compuestos orgánicos volátiles. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Decomposing Human Blood: Canine Detection Odor Signature and Volatile Organic Compoundsde Rendine, Fiore, Bertozzi, De Carlo, Filetti, Fortarezza y Riezzo; en él nos hablan de cómo afectan los compuestos orgánicos volátiles a la sangre humana durante su proceso de degradación y de cómo los perros pueden utilizarlos para detectar los restos mortales de una persona.

Los perros (Canis familiaris) pueden ayudar en las investigaciones forenses ya que poseen una alta sensibilidad y selectividad en su sistema olfativo. Casi un octavo de su cerebro está dedicado a ello, por esto un perro bien entrenado será capaz de identificar olores específicos. Los perros especialistas en descubrir cadáveres son entrenados para detectar restos humanos o fluidos. En la actualidad faltan procedimientos estandarizados para su entrenamiento y puede llegar a cuestionarse la admisibilidad ante un tribunal del “olor a muerte” humano.  Tampoco es comprendido en su totalidad su capacidad para detectar olores transitorios.

Después de la muerte los tejidos humanos empiezan a degradarse mediante reacciones como la autolisis, la acción de microorganismos eliminadores lo que da como resultado Compuestos Orgánicos Volátiles (VOCs). Estos compuestos son productos intermedios en la descomposición de las proteínas, los carbohidratos, los ácidos nucleicos y los lípidos. Hay muchas investigaciones previas que han identificado multitud de VOCs identificándolos como marcadores de la descomposición humana. Estas sustancias son liberadas al medio ambiente debido a sus propiedades fisicoquímicas como son el bajo peso molecular, la alta presión del vapor o el bajo punto de ebullición.  Si bien es cierto que hay muchos factores que influyen en la descomposición como son la temperatura, la humedad, la presión barométrica, la profundidad del enterramiento, las corrientes de aire, la composición del suelo, la humedad, la presencia o no de ropa, el porcentaje de grasa corporal, las enfermedades, el uso de productos químicos, la actividad de insectos, la vegetación y la propia ubicación del entrenamiento.

En el presente estudio se escogió la sangre ya que normalmente está presente en la mayor parte de escenarios del crimen y es una fuente de VOCs y de subproductos de la descomposición. Se recogió sangre de sujetos fallecidos por muertes traumáticas de sujetos no liberados y se excluyeron los casos de cribado toxicológico positivo. Finalmente fueron cuatro jóvenes muertos en accidentes de circulación: hombre negro de 22 años, hombre blanco de 22 años, mujer negra de 24 años y una mujer blanca de 20 años. Las muestras fueron recogidas entre cuatro y cinco horas después de la muerte desde la vena yugular interna hasta un vacutainer que con fluoruro de sodio y oxalato de potasio. Los tubos habían sido tratados previamente para eliminar posibles contaminaciones.

Las muestras fueron transferidas al laboratorio en huelo seco y almacenadas a -20ºC. Después se prepararon a temperatura ambiente (22ºC y 45% de humedad). La primera extracción fue evaluada como día 0 del experimento. Los viales se abrieron y mantuvieron a temperatura ambiente y humedad relativa durante 21 días. En los días, 3, 7, 14 y 21 se repitieron las extracciones.

Los perros utilizados fueron un Labrador Retriever macho de cinco años (perro A) y un Labrador Retriever macho de tres años (perro B). Los perros ya estaban entrenados y eran capaces de detectar sangre de cadáveres humanos en las diferentes etapas de descomposición.

Para el estudio se utilizó una habitación cerrada que no había sido previamente utilizada para el entrenamiento con perros. Se realizaron cinco pruebas, una por cada día de extracción de sangre. La sangre fue colocada en recipientes de vidrio no transparentes con un solo orificio pequeño en la tapa superior, para que de esta manera solo fuera accesible a través del olor. Después se colocaban en soportes de madera y se ponían en el suelo por azar. La habitación, además, tenía muestras en blanco en las mismas condiciones que las que contenían sangre.

El rendimiento de los perros se realizó mediante ocho pruebas por cada día. Los perros estaban entrenados y mostraban una señal pasiva (sentarse) en caso de detectar sangre de cadáver humano y no de otro tipo de animal. En cada sesión había dos observadores para controlar los resultados. Ni los observadores y no los controladores de los perros sabían donde estaban las muestras de sangre para no provocar posibles interferencias a los animales. Los observadores marcaban la ubicación que había señalado el perro y consultaban por vía telefónica al investigador sobre si era la correcta o no para que el entrenador pudiera recompensar al perro en caso de ser positivo. Se consideró como verdadero positivo cuando los perros lo detectaban y era una muestra de sangre de verdad, se considera falso positivo si los perros lo detectaban, pero no era sangre humana, era falso negativo cuando la sangre humana no fue detectada por los perros y un verdadero negativo cuando el objetivo no estaba presente y los perros no lo detectaron.

Los VOCs cambiaron a lo largo del tiempo, a pesar de que las condiciones fueron constantes. No había diferencias cualitativas entre los días 0 y 3. A medida que pasaba el tiempo fueron desapareciendo los ácidos, los ésteres, los compuestos heterocíclicos aromáticos y los hidrocarburos halogenados y aparecieron los hidrocarburos y los aldehídos. Posteriormente se detectaron sulfuros y el disulfuro de dimetilo y el disulfuro de carbono que están ambos asociados a la descomposición. Los alcoholes estaban más presentes en las fases frescas, al pasar el tiempo cambiaron, por ejemplo, el etanol no apareció hasta el día 14. No se apreciaron diferencias entre los cadáveres de raza blanca y los de raza negra.

Para cada sesión se calcularon el PPV (proporción de las respuestas caninas de objetivo- presente correctas) y el NPV (proporción de las respuestas caninas de objetivo-ausente correctas) que indican la predicción del perro cuando detecta las muestras o cuando no señala la presencia del objetivo. Los resultados fueron de PPV para el perro A entre 98.96% y el 100%, para el perro B entre el 99,47% y el 100%. El NPV para el perro A fue de entre el 75% al 100% y para el perro B de entre el 88.89% y el 100%.

El día 0 obtuvieron buenos índices de rendimiento, aunque los mejores fueron los días 14 y 21. Esto puede deberse a las diferencias de los VOCs, ya que los últimos días habían compuestos de azufre. Como es sabido el receptor olfativo de los mamíferos es la metaloproteína y que las nanopartículas de zinc metálicas podrían participar en la transducción de señales entre las proteínas receptoras y las proteínas heterotriméricas de unión a nucleótidos de guanina y las enzimas efectoras que están activas. Los compuestos de azufre que se encuentran en los días más avanzados se unen fuertemente al zinc lo cual puede explicar esta mejoría.

Si bien es cierto que mejora crecientemente desde el día 14 al 21 y en cambio los VOCs son iguales. Esto puede ser explicado ya no por sus diferencias cualitativas sino por las cuantitativas. Los compuestos de azufre estaban presentes en mayor cantidad el día 21 que el día 14. También puede explicarse porque los perros habían mejorado en su detección al haber sido expuestos más vece al olor en los días anteriores.

Estos hallazgos demuestran que la descomposición de la sangre humana es una buena fuente de VOCs y que es un buen objetivo para provocar la respuesta olfativa en perros bien entrenados.

 

Exploración forense del Windows 10 Timeline. Club de Ciencias Forenses.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A Forensic Exploration of the Microsoft Windows 10 Timeline” de Horsman, Caithness y Katsavounidis; en él nos hablan de las características que presenta la Línea de Tiempo de Windows 10 y su utilidad para la investigación forense.

Microsoft Windows sigue siendo el líder en sistemas operativos en la informática doméstica, se calcula que un 80% de los ordenadores utilizan esta plataforma a nivel mundial, siendo por tanto uno de los que se más se tiene que examinar en el curso de las diferentes investigaciones criminales. Desde el inicio del presente siglo Microsoft ha lanzado siete versiones: 2000, ME, XP, Vista, 7, 8 y 10, todas ellas pueden ser fácilmente encontradas por los profesionales forenses. En muchos casos los forenses tendrán que examinar los dispositivos buscando comportamientos de los usuarios, como pueden ser, destinos recientes, registros del sistema y búsquedas previas, para determinar el comportamiento y la culpabilidad del sospechoso.

En este caso se analizará la nueva característica de “Línea de Tiempo” (Timeline) de Windows 10, lanzada en la versión 1803 de Windows en abril de 2018, su principal función es representar gráficamente las acciones de los usuarios en el sistema operativo. Microsoft da la siguiente definición de esta nueva funcionalidad: “La Línea de tiempo se encuentra en la barra de tareas y mejora la Vista de tareas para mostrar las aplicaciones actuales y las actividades pasadas. De manera predeterminada, la Línea de tiempo muestra instantáneas de las cosas en las que estaba trabajando antes en el día o en una fecha pasada específica. Una barra de desplazamiento anotada le permite saber dónde se encuentra en su línea de tiempo y, si prefiere no desplazarse, puede buscar el elemento o actividad que te gustaría retomar”.

La Línea de tiempo graba la actividad del usuario durante 30 días. No hay un listado definitivo de todo lo que registra, pero entre ellos esta los eventos del navegador Edge, incluyendo las búsquedas en Bing, fotos, noticias, deportes, mapas del tiempo, información básica de Office y la información de apertura de archivos. Esta funcionalidad puede ser de gran ayuda para los investigadores forenses ya que ayudará a identificar con mayor facilidad las acciones que un sospechoso a llevado a cabo en su dispositivo. Cuando está operativo, ya que se puede desactivar, su recopilación pasiva de interacciones del usuario ofrece una fuente de operaciones grabadas que van desde el historial de internet, documentos e imágenes. Esto puede ser especialmente útil en el caso de la pornografía infantil ya que la utilización de estos registros junto con los metadatos es posible revelar toda la actividad del usuario.

Para probar la funcionalidad de la Línea de tiempo se crearon archivos de prueba únicos en un sistema de prueba con los que se interactúo anotando la fecha y la hora de cualquier interacción, pudiéndose identificar cualquier inclusión de estos datos en la investigación de la línea de tiempo posterior. La base de datos de la Línea de tiempo se puede extraer y consultar o acceder en vivo, lo que permite ver los cambios de inmediato.

Primero se tiene que hacer una diferenciación entre los dos tipos de mosaicos que registra la Línea de Tiempo. Por un lado, están los mosaicos de procesos (PT) y por otro, los mosaicos de actividad (AT). La Línea de Tiempo, aunque está comercializada como una herramienta de seguimiento de actividad también se comporta como administrador de tareas ya que puede cambiar entre procesos y terminarlos. Los PT son mosaicos activos que muestran un proceso que actualmente está en ejecución mientras que los AT son como accesos directos que facilitan la localización de archivos. Los usuarios tienen la opción de subir toda la actividad de su Línea a la nube de Microsoft lo que permite la sincronización con los diferentes dispositivos. Aunque está pensada principalmente para Windows 10 tanto Microsoft Launcher en Android como Edge en iOS son compatibles. Para controlar la actividad e iniciar su uso se debe hacer a través de Inicio> Configuración> Privacidad> Historial de Actividades. Una vez activa, la Línea de tiempo almacena la información dentro de la base de datos SQLite ActivitiesCache.db.

Las pruebas realizadas con el ActivitiesCache.db de la Línea de Tiempo a través de SQL y los archivos asociados han demostrado ser una fuente de información sobre el usuario de que se pueden extraer e interpretar mediante el SQL. Los eventos capturados por la Línea se podrían diferenciar entre información a AT y de PT interpretándola y vinculándola a acciones concretas del usuario. También se puede diferenciar entre una cuenta local de una asociada a través de un análisis de estructuras.

Dentro del ActivitiesCache.db hay dos tablas (Metadata y Manual Sequence) que contemplan todo lo relacionado con los metadatos, incluyendo la última hora y fecha en la que se creó la base de datos y otras tres tablas (Activity, ActivityOperation y Activity_PackargeId) que documentan toda la actividad de la Línea de Tiempo, que incluyen la última ETag registrada.

El análisis demuestra el valor potencial de un análisis de Timeline como fuente de evidencia para denotar la interacción entre usuario y sistema en el contexto de la investigación forense de Windows 10. Cuando los accesos a los archivos de evidencia clave se han producido en un sistema Windows 10 y esta activo la Línea de Tiempo puede capturar y registrar la información lo que proporciona un registro de la culpabilidad. Además, se han investigado las limitaciones de la Línea de Tiempo, que indica cuando se elimina los archivos, a los 30 días se purgan las tablas de Activity, ActivityOperation y Activity_PackargeId. Tampoco se almacenan el nombre de las carpetas si se entra desde el explorador de archivos al igual que ocurre con los archivos de la papelera. También, en el caso de los AT al funcionar como un acceso directo no podrá entrar en el archivo si ha sido movido después de haberse grabado en el base de datos.

Aplicación de la tecnología 3D al estudio de las huellas dactilares antiguas. Club de Ciencias Forenses

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Application of 3D imagining technology to latent fingermark aging studies” de De Alcaraz- Fossoul, Mancenido, Soignard y Silverman; en él nos hablan de las características que presenta el estudio de las huellas dactilares con la tecnología 3D y sus ventajas sobre otras técnicas.

Determinar el tiempo en que se deja una huella dactilar, sigue siendo uno de los retos sin resolver de las ciencias forenses. Uno de los beneficios de resolver este resto, es la posibilidad de incluir o excluir a sospechosos del crimen basada en consistencias temporales entre la fecha estimada en la que la huella fue dejada y la fecha de comisión del acto delictivo. Para poder determinar el tiempo de deposición primero es necesario descubrir la degradación, con modelos bajo control y monitorizarlos en un entorno controlado. En un futuro cercano, la información topográfica podría ayudar a predecir la edad de las huellas en la propia escena del crimen.

Muchos métodos pueden ser usados para detectar las huellas, en este artículo nos centraremos en el potencial que presenta el examen visual. Los beneficios de esta técnica son la correlación directa entre el aspecto físico de la huella y su edad, el bajo coste de equipamiento y que no tiene una naturaleza destructiva como puede ser el análisis químico.

Se ha estudiado que la huella dactilar con el paso del tiempo sufre alteraciones y degradación que provoca alteraciones en su composición química, pero también en su topografía. Uno de las más relevantes es la deriva de la cresta (ridge drifts). Este fenómeno todavía no es del tipo entendido y demuestra la naturaleza dinámica del mismo. Este dinamismo, descrito como movimiento de la cresta, va más allá de la típica distorsión. Es un hecho inesperado que tiene un impacto directo en la identificación de la huella porque hasta hace poco se asumía que la huella era una copia estática de la huella de la piel desde la que se originaron. Sin embargo, las modificaciones de las derivas de las crestas pueden producir cambios potenciales en la identificación.

Muchos estudios de envejecimiento visual han utilizado la tecnología 2D, como la captura de fotografías normales, para llegar a descubrir la edad y el proceso de degradación. Las huellas dactilares tienen características en tres dimensiones que podrían experimentar cambios a lo largo del tiempo, incluido variaciones en el ancho de la cresta o pérdida de contraste de color entre la cresta y los surcos.

Por ello se necesita una aproximación más comprensiva usada la tecnología 3D como herramienta para adquirir datos estadísticos sobre el proceso de envejecimiento e identificarlos posibles patrones de la edad incluyendo la deriva de las crestas.

En los últimos años se ha producido una mejora significativa, respecto a la tecnología óptica 3D sin contacto, permitiendo incrementa la captura de la imagen y su medida cuantitativa. El trabajo ha estado más enfocado en la adquisición y el por procesado de la huella en 3D o en el análisis químico de su composición, pero generalmente no se ha centrado en el proceso de envejecimiento. Los perfilómetros ópticos se usan para medir la rugosidad de la superficie de los materiales. Son muy útiles para detectar micro abrasiones y son usados en la fabricación y en el control de la calidad. En el presente estudio se utilizan para investigar la colección de características de la topografía de las huellas dactilares y sus cambios a lo largo del tiempo.

Para el estudio se utilizó un perfilómetro óptico con propiedades de interferometría de luz blanca para determinar la altura de las crestas en la superficie de muestra. A medida que el microscopio se mueve verticalmente se graba una imagen digital. El microscopio usa objetivos que dividen la luz en dos trayectorias, una reflejada por la muestra y la otra por un espejo de referencia. Cuando ambas longitudes son iguales, aparecen las franjas. El software utiliza está información para determinar la altura de cada punto de la imagen con reducción nanométricas. Se genera una nube de puntos, un conjunto de puntos que describen la ubicación (x, y) en la superficie y la altura (z) para crear el perfil 3D completo.

El objetivo que se busca es describir el potencial del perfilómetro óptico como una herramienta analítica dual que sirve para visualizar cualitativamente y medir cuantitativamente cualquier cambio en la topografía de la creta de las huellas dactilares.

Para el estudio se utilizará la huella de dos personas una mujer del sudoeste asiático y un hombre caucásico, en la treintena ambos. Sin enfermedades conocidas y sin tomar alcohol, café o drogas o utilizar maquillaje o crema las doce horas antes de la toma. Eran dos individuos sanos y con una dieta omnívoros.

La toma de huellas se llevo a cabo de la siguiente manera, primero se lavaron con agua y jabón, después se frotaron las manos contra el antebrazo, la frente y la nariz, luego se frotaron las manos entre sí y por último imprimieron las puntas de los dedos en el sustrato. Las huellas fuesen dejadas sobre un portaobjetos del microscopio de vidrio y sobre la cubierta transparente de plástico de los CD. Se tomaron las huellas de los dedos índices, medio y anular. Un ayudante de investigación controló la presión ejercida durante el proceso. La toma se realizó en una habitación controlada con temperatura de 22.6ºC y un 23% de humedad.

Las huellas fueron envejecidas en una cabina cerrada a oscuras. Solo se entraba para la toma de datos. Se conservaron durante un año con temperaturas entre los 21-24ºC y el 22-26% de humedad. Se tomaron datos las veinticuatro impresiones en once momentos diferentes en los días: 0,7,14,21,35,63,91,119,147,182,364. En total se obtuvieron 13 imágenes de cada donante.

La herramienta utilizada para la toma de imágenes y las mediciones topográficas fue el perfilómetro óptico ZeScape de Zygo, con un objetivo 5x combinado con un cambiador de aumento de 0.63x para maximizar el área de visualización para cada impresión.

Se realizó un análisis cualitativo y cuantitativo para detectar variaciones topográficas en las huellas dactilares. El primero de ellos consistió en un examen visual y la comparación de cada huella. El segundo de ellos era medir la altura de la cresta y comparaba a lo largo del tiempo. Se complementó con la evolución de los patrones de degradación de las crestas.

Los resultados revelaron diferencias en la calidad visual de las crestas entre las dos superficies estudiadas; pero sí que se compartían similitudes en los patrones de degradación. Después de su recogida electrónica se revelará las huellas usando un polvo de base de TiO2. Se demostró que el perfilómetro óptico es más sensible que el TiO2 detectando las diferencias visuales entre las huellas frescas y las antiguas. Sin embargo, el perfilómetro no pudo detectar algunas crestas antiguas cosa que sí que hizo el TiO2.

El perfilómetro óptico detectó huellas dactilares frescas y antiguas sobre substratos tanto de plástico como de cristal. La calidad de la imagen dependía de la altura de las crestas. La calidad en las huellas antiguas es menor. Sin embargo, las huellas no detectadas sí lo fueron con los polvos y su calidad visual fue similar en las frescas. Esto implica que hay una pérdida significativa en la altura de las crestas, pero no una pérdida en la finalidad del polvo con la capa delgada restante de los componentes del sudor de la cresta. El perfilómetro también distingue entre huellas nuevas y antiguas a través del examen de la imagen, especialmente en caso donde el TiO2 falló en detectar cambios a lo largo del tiempo. Pero no puedo detectar capas muy finas de componentes de sudor de menos de 0.02µm de espesor.

Los datos recogidos de medida muestran una disminución de la altura de la cresta en todos los casos, en ambos donantes y en los dos sustratos. Más específicamente, las pérdidas de altura son más notables en los primeros sesenta días después de la deposición. Se planteó la hipótesis de que la cresta no desaparezcan por completo, pero es difícil su detección un año después de la deposición. Aunque los patrones generales de degradación fueron similares, se presentaban diferencias entre las donantes y los substratos. Las diferencias entre los donantes pueden deberse a que eran de diferente género y diferentes etnias. Las diferencias entre los substratos pueden deberse a las diferentes propiedades fisicoquímicas de cada material. Las diferencias más sorprendentes fueron encontradas entre las huellas de los diferentes dedos del mismo donante. Se hipnotizó que pudo influir la presión durante la deposición, las diferencias en morfología de las crestas de cada dedo, pero se tiene que realizar un estudio más en profundidad.

El perfilómetro óptico es una herramienta de imagen de 3D no destructiva y sin contacto que permite captar y visualizar directamente las huellas dactilares sin ningún tratamiento previo, minimizando la manipulación y los posibles errores y permitiendo reevaluar en múltiples ocasiones. Otra ventaja sería los costes inexistentes para la visualización, el análisis simultaneo que realiza tanto de la altura de la cresta como de la anchura en el tiempo, la extensión mayor de análisis en comparación con otras herramientas, así como el breve tiempo de ejecución (3 mins). Algunas desventajas es la limitación del área en una docena de mm2, la baja velocidad si se recogen datos de alta resolución.

Características distintivas de la escritura robótica. Club de Ciencias Forenses.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Distinguishing Characteristics of Robotic Writing” de Dumitra, Guzowski, Jean, Shaw, Warmbier y Zippo; en él nos hablan de las características que presenta la escritura robótica que intenta imitar la humana y cómo identificarla de cara a un posible peritaje.

La escritura a mano es un rasgo distintivo de cada persona y sirve de identificación ya que no hay dos personas que escriban del mismo modo, siendo muy complicado el copiar el estilo y la fluidez individual de cada uno. En la época actual el recibir un mensaje escrito a mano subconscientemente lo asociamos con una mayor personalización del mismo.

La escritura robótica tiene sus inicios en el siglo XVIII cuando inventaron máquinas que simulaban la firma de personas importantes, como el presidente de EE.UU. La primera máquina fue creada por Friedrich von Knauss él cual adaptó el mecanismo de un reloj para que fuera capaz de escribir frases cortas. En la década de 1930 se desarrolló la primera versión del Auto Pen, llamada Robot Pen, que consistía en un instrumento de escritura automático con una unidad de almacenamiento que era capaz de grabar la firma de una persona.

La primera versión comercial fue desarrollada por Robert De Shazo en 1942. El Auto Pen podía usar cualquier instrumento de escritura, variaba la velocidad de ejecución y permitía variar la calidad dependiendo del operador. Desde la década de los 60 este invento fue usado, no sólo por gobiernos sino también por corporaciones empresariales.

En 2013, Sonny Cabernal fundó el startup Bond, especializada en robótica que tienen los derechos del software de escritura. Bond es capaz de crear documentos enteros que repliquen el patrón de escritura a mano de cualquier persona. Mecánica y software trabaja juntos para adaptar la posición del útil de escritura, la velocidad y la forma de las letras y que un robot lo ejecuta en papel. El robot puede simular los movimientos de un bolígrafo operado a través de tres ejes lineales que se mueven simultáneamente.

Actualmente la robótica ha avanzado mucho en el campo de la escritura a mano, pero, ¿son capaces de replicar las variaciones naturales que produce cada individuo al escribir?

Cada vez que una persona escribe está influida por unos factores condicionales como son la posición, el agarre del bolígrafo, factores físicos como el instrumento de escritura y factores psicológicos como el estrés o la emoción. Estos factores hacen que la escritura sea individualizada y varié de una vez para otra. Los programas robóticos son desarrollados en entornos controlados y tiene dificultades para incorporar estos condicionantes, siendo demasiado perfectas y poco naturales.

El avance de la tecnología también ha supuesto un potencial abuso de ella, lo que preocupa a los especialistas forense de cara a un potencial aumento de falsificaciones mejores y más difíciles de detectar. De ahí la importancia de conocer las características de este tipo de documentos para poder identificarlos.

Para realizar el estudio se utilizó una modificación del procedimiento ACE-V (Analizar, Comparar, Evaluar y Verificar). Es un método utilizado universalmente en diferentes disciplinas forenses. El procedimiento es el siguiente:

En la fase de Análisis, un experto examina los documentos tanto el dubitado como el indubitado buscando características identificables, como son las inconsistencias que forman parte del estilo de escritura personal de cada uno resultado de los movimientos impulsivos que se realizarían con el bolígrafo repetida y consistentemente en la misma localización contextual mientras se escribe. En la fase de Comparación, como su propio nombre indica se comparan las características antes extraídas de ambos documentos. En la fase de Evaluación, el experto forense evalúa las similitudes y las diferencias observadas durante la fase anterior y emite su opinión de experto. En la fase de Verificación, un segundo experto hace una valoración independiente sin tener en cuenta los comentarios del primer examinador. Aunque en el presente estudio la parte de verificación no se realizó.

Los documentos utilizados para realizar el estudio fueron ejemplares genuinos y no originales. Los originales eran de dos tipos dirigidos y recopilados, todos ellos escritos a mano por varios autores, en tinta y de manera libre y natural. Los ejemplares no originales era muestras de escrituras robóticas hechas por Bond.

En los documentos genuinos se utilizaron documentos dirigidos y documentos recolectados. Para los ejemplares dirigidos se utilizaron la Carta de Londres, el Formulario Postal de EE.UU. 582 y un pasaje. Estos ejemplos son comunes ya que ofrecen muestras de todas las letras minúsculas y mayúsculas del alfabeto latino, así como los signos de puntuación y símbolos. Las instrucciones dadas a los autores fueron que escribieran en el entorno en el que se sintieran más cómodos y no tuvieran límite de tiempo ni restricciones sobre el útil de escritura a utilizar. Los recolectados procedían de documentos preparados en el curso normal de los negocios y de cuyo autor no se tenían dudas. Estos documentos eran de dos tipos, muestras de notas personales manuscritas y de documentos de trabajo.

Las muestras del robot fueron documentos creados imitando a seis de los autores por parte del robot.

El proceso de creación de los documentos por el Bond es el siguiente: primero se escanea a través de la web la muestra de escritura. Después se diseña la fuente de la letra del autor. Se hacen algunos retoques como el oscurecimiento de los trazos, finalización de todas las letras, y corrección de la línea base. Aunque para que no hubiera interferencias con la finalidad del estudio se evitaron los retoques. A través de un operador se crea el “render” que consiste en una versión del estilo de escritura de la persona tanto para las letras como para los números y los símbolos. Este render se transforma en código y es lo que se le comunica al robot para que realice la copia de la escritura. El robot tiene un brazo mecánico que tiene el instrumento de escritura y una platina con la que estabiliza el medio en el que se va a escribir. El robot lee el código y se mueve a través de tres ejes lo que le permite imitar el movimiento humano al escribir.

Participaron cuatro expertos en el estudio cada uno recibió 37 documentos, donde había de todos los tipos de documentos antes descritos. Sus instrucciones eran; examinar cada documento, comparar todos los documentos y agruparlos según su posible autoría, y determinar si había sido elaborado de una manera natural.

Todos los expertos clasificaron los papeles por autores correctamente e identificaron aquellos realizados por el robot. Las características que usaron para identificar la escritura robótica fueron:

  • La apariencia general de los trazos era suave y parecía estar dibujada.
  • Los trazos tenían una presión del bolígrafo uniforme.
  • Sombreado antinatural dentro de los trazos de los caracteres.
  • Presencia de trazos contundentes y falta de trazos cónicos y de arrastre.
  • El espacio entre las palabras y las letras era consistente y equidistante.
  • Exhibe formas alternativas de letras repetidas para imitar la variación.
  • Los caracteres pueden ser superpuestos con precisión.

Los cuatro expertos fueron capaces de identificar la escritura robótica identificando indicadores de escritura no natural en la producida por el Bond gracias a su entrenamiento, experiencia y los principios de identificación de la escritura a mano. Uno de ellos es que no se puede escribir igual dos veces debido a la variación natural y a la gran dificultad que existe de repetir de la misma manera las diferentes variaciones de forma de una misma letra. En la escritura humana, la fluidez de movimiento de la mano produce que unos trazos sean más oscuros y otros más claros debido a las subidas y bajadas que produce el bolígrafo sobre el papel.

El robot no puede reproducir el movimiento humano al escribir, la configuración física del robot es la responsable de la presión del bolígrafo, de los trazos contundentes, de la falta de trazos cónicos y de marcas de arrastre, así como del sombreado en la escritura. La superposición de características o la precisión exacta del espaciado son atribuibles al software.

Los expertos forenses deberían ser conscientes de la existencia de la escritura robótica y ser capaces de reconocer los indicios característicos de la reproducción mecánica. Cuando deban dar su opinión se recomienda el siguiente formato: “La escritura a mano que aparece en la evidencia muestra una presión inusual y uniforme de la pluma, falta de ritmo, trazos contundentes y falta de trazos cónicos, lo que sugiere que la escritura ejecutada no fue escrita de forma libre y natural. La evidencia encarna una apariencia de ser ejecutadas lentamente. La forma de ejecución sugiere la simulación y, por tanto, la escritura cuestionada puede no haber sido escrita por el autor conocido”.

 

Antiguas entradas