Donde hay conversaciones sobre inteligencia artificial y derecho, surgen sistemáticamente debates sobre la posibilidad real de predecir el sentido de las resoluciones judiciales. En España ya existen varias herramientas a disposición de los abogados que ofrecen servicios relacionados con el análisis de tendencias en las sentencias y su predicción. Por ejemplo, Jurimetría desarrollado por Wolter Kluver o vLex Analytics.
Para saber qué hay de verdad sobre el uso y funcionamiento de estas herramientas y que ideas pertenecen al ámbito de la ciencia ficción, a continuación, desmontamos los tres mitos más comunes sobre los softwares de predicción de sentencias:
1. La utilización de softwares de predicción de sentencias y resoluciones judiciales nos conduce a un único resultado válido
La verdad es que los sistemas de predicción legal, como todos los demás sistemas de predicción impulsados por inteligencia artificial funcionaba mediante algoritmos. Cada herramienta está respaldada por algoritmos exclusivos, generalmente configurados como secretos de empresa. Esto significa que cada herramienta tomará en cuenta diferentes variables y circunstancias para elaborar sus predicciones. Además, el proceso de entrenamiento de estas herramientas con machine learning puede generar resultados significativamente distintos en función de los datos que se hayan utilizado para “alimentar” el aprendizaje.
En la práctica esto significa que frente a un mismo caso, cada parte puede disponer de herramientas de predicción que respalde su posición y arrojen resultados diametralmente opuestos. Imaginaos el escenario en un procedimiento judicial en el que cada una de las partes aporta como prueba el informe obtenido por la herramienta. ¿Deberá el juez entrar a valorar la construcción de cada uno de los algoritmos para determinar el valor probatorio de los resultados predictivos? ¿Serán estos softwares una herramienta meramente interna que sirva de ayuda para definir una estrategia procesal o de negociación?
2. La forma más precisa/adecuada de entrenar estas herramientas es “alimentándolas” con todas las resoluciones / sentencias disponibles
La obtención de paquetes de datos legales fiables y adecuados para entrenar a herramientas destinadas al mercado legal que funcionan con machine learning es uno de los grandes retos para la aplicación de la inteligencia artificial en el ámbito jurídico. Prueba de ello es la iniciativa que presentó hace pocas semanas la Universidad de Stanford Data Commons, que pretende crear una base de datos legales open source con el fin de facilitar esta tarea a todas aquellas empresas del universo Legal Tech.
Una de las posibilidades más sencillas sería utilizar, por ejemplo, todas las resoluciones que haya emitido el Tribunal Supremo español en los últimos 50 años. Sin embargo, esa estrategia podría llevarnos con facilidad a resultados equivocados. Es evidente que la jurisprudencia evoluciona a lo largo del tiempo (con más o menos variabilidad según la materia), los criterios de interpretación evolucionan, las leyes cambian, los valores sociales se transforman y las decisiones que eran aceptables en los años 60 difícilmente se considerarían aceptables en este momento. En consecuencia, los datos de calidad a nuestra disposición para entrenar a los algoritmos en su labor de predicción son más bien escasos y no están claro cuales son las fuentes alternativas. Este es un factor que es determinante para la fiabilidad de las predicciones.
3. Obtener información individualizada sobre el funcionamiento de cada juzgado va a mejorar la justicia en términos generales
Por un lado, poner a disposición pública información individualizada sobre el funcionamiento de cada juzgado plantea preguntas sobre el cumplimiento de la normativa de protección de datos y privacidad. En especial cuando se ponen a disposición de cualquier cliente que adquiera estas herramientas, estadísticas sobre jueces y magistrados identificados personalmente sobre el número de sentencias dictadas y su sentido. Estas herramientas están diseñadas para extraer, con la ayuda del big data, patrones que la mera observación no podría ser capaz de identificar. ¿El hecho de que se trate de sentencias públicas significa que pueden ofrecerse datos sin anonimizar sobre el comportamiento y desempeño del trabajo de jueves y magistrados?
Por otro lado, ¿qué va a pasar cuando se identifiquen comportamientos sesgados en ciertos juzgados? Por ejemplo, un retraso fuera de lo razonable a la hora de emitir sentencias; o un número especialmente elevado de resoluciones a favor cuando una de las partes del litigio es una determinada compañía o cuando está involucrado un determinado abogado o un despacho; o cuando se revelen patrones sistemáticos de discriminación contra un colectivo determinado.
¿Supondrá la obtención de esta información un mayor escrutinio del trabajo de jueces y magistrados? ¿Se sancionarán a los jueces y magistrados sobre quieres se revele que están actuando de forma discriminatoria? Si no es así, si no se toman acciones, el acceso a mayor información por sí mismo no será capaz de generar una mejora efectiva del acceso a la justicia.
Suscríbete a nuestro newsletter aquí.