Estudiar objetivamente la jurisprudencia
Lluc Font i Pomarol
Publicado en Diari de Tarragona, 14 de junio de 2020
Uno de los aspectos que ha caracterizado los últimos 20 años es la digitalización de gran parte de nuestra realidad cotidiana. Así, la mayoría de nuestras actividades diarias como son las relaciones sociales, las transacciones económicas o el ocio generan algún tipo de huella digital. Este hecho va ligado a la generación y almacenaje de grandes cantidades de datos. El ámbito judicial, no ajeno a esta tendencia, también es un buen ejemplo, ya que prácticamente todas las sentencias judiciales que se publican hoy en día en España pueden encontrarse, en formato digital, a través del Centro de Documentación Judicial (CENDOJ). Solo para dar una idea del volumen que contiene, en un solo día pueden aparecer en el portal más de mil sentencias nuevas de promedio.
Todo este material digital presenta una buena oportunidad para poder extraer conocimiento no solo desde un punto de vista puramente estadístico, sino también desde la investigación y el estudio de la jurisprudencia. Naturalmente, esto conlleva un cambio en los métodos tradicionales de investigación, ya que el tipo de análisis que se pueda hacer de un número reducido de sentencias no es replicable a decenas de miles de ellas. Es tarea de la ciencia de datos desarrollar y proveer las herramientas que permitan hacer factible estudiar la jurisprudencia masivamente y de manera exhaustiva.
Si bien un conjunto de textos no es precisamente lo que imaginamos cuando pensamos en una base de datos, obtener una base de datos que asocie una sentencia con varios campos como podrían ser la fecha de publicación, el nombre del magistrado ponente o el tribunal, es posible gracias a las técnicas de procesamiento del lenguaje existentes. De todas formas, centrarse en los datos descriptivos no es la única fuente a la que la ciencia de datos puede acudir. El análisis del texto y de la narrativa pueden ser también muy útiles.
Los recientes asistentes virtuales que reconocen nuestras órdenes o los teclados de nuestros móviles que predicen la siguiente palabra que vamos a escribir son ejemplos de aplicaciones del procesamiento del lenguaje. Algunas de estas técnicas, que se enmarcan en la inteligencia artificial, han ‘aprendido’ a caracterizar los textos con ciertas palabras clave o temáticas. De una manera esquemática, el algoritmo cuantifica el grado de pertenencia de un texto a diferentes temas a partir de las frecuencias con que aparecen ciertas palabras. Para poner un ejemplo, dado un conjunto de periódicos, el algoritmo atribuiría un determinado listado de temáticas a todos ellos (política, economía, deportes, etc.) pero balanceados de manera diferente según el periódico. Este tipo de algoritmos son especialmente útiles para el clasificado automático de textos. Pero se puede ir un paso más allá y aprovechar lo que ‘sabe’ el algoritmo sobre el contenido de los textos para medir cómo éste cambia a lo largo del tiempo.
De este modo, y volviendo a las sentencias, uno podría usar lo expuesto anteriormente para medir la irrupción de determinados conceptos relacionados con nuevas problemáticas o con el uso de nueva legislación, por ejemplo. Un caso que ejemplifica una situación como esta, podría ser la crisis financiera de 2007. Esta fue especialmente crítica en términos de la pérdida de vivienda, cosa que se vio reflejada en una respuesta por parte del sistema judicial. En un escenario como este, sería interesante medir los cambios en el contenido de las sentencias.
Es probable que muchas de las respuestas que este tipo de metodología pueda dar ya hayan sido obtenidas por expertos en Derecho. Aun así, el hecho de medir de manera exhaustiva y sobre todo cuantitativa permite hacer comparaciones de un modo más preciso y objetivo, avanzando de este modo en el estudio de la jurisprudencia.