Editorial

Preso de la tecnología

Por

Facebook Twitter Whatsapp Telegram

Por Juan Ceretta ///

El Poder Judicial de Estonia, comenzará a aplicar en 2019 el programa denominado “Jueces Robot”.

Se trata de robots que ejercerán función jurisdiccional (hasta ahora reservada a los humanos) para resolver en principio conflictos relativos al área de la responsabilidad contractual. Las partes subirán sus argumentos y documentación de respaldo al sistema, y el robot decidirá en función de juez.

Ni se trata de una excentricidad de Estonia, ni el problema son los robots.

Francia aborda en éstos momentos la posibilidad de utilizar mecanismos algorítmicos de resolución de conflictos para asuntos judiciales relativamente menores que podrían aplicarse a 2,7 millones de casos cada año.

En los Estados Unidos no constituye una experiencia nueva, ya que se viene utilizando en el sistema penal mediante la sustitución de la fianza como cautela para las prisiones preventivas (oportunamente criticada por permitir a los ricos esperar la sentencia en casa, mientras encarcela a los pobres) por un algoritmo que decide en base a una predicción que acusados muestran más riesgo de fuga, y/o peligrosidad.

Los defensores del sistema algorítmico de justicia manifiestan que el mismo resultó más preciso que los jueces a la hora de predecir qué harán los acusados después de ser liberados.

En definitiva nos enfrentamos a una realidad donde la tecnología mediante algoritmos toma decisiones judiciales, hasta hace poco privativas de los humanos.

Esta nueva realidad nos enfrenta a diversos cuestionamientos. En primer lugar, ¿cómo nos aseguramos que el software del juez robot no arribe a resultados injustos? ¿Qué variables se consideran para la elaboración del algoritmo? ¿Es admisible la justicia no humana?

El año pasado, una investigación realizada por ProPublica descubrió que el software comercial desarrollado para ayudar a determinar qué presos debían recibir la libertad condicional tenía muchas más probabilidades de clasificar incorrectamente a personas afrodescendientes como  de alto riesgo en comparación con los caucásicos; del mismo modo consideraba de forma diferenciada a las distintas zonas geográficas de origen del delito.

Aun algoritmos alimentados con datos obtenidos del propio sistema de justicia seguramente contengan sesgos que tienden a perjudicar a las personas en función de su raza, de su origen, o de su estatus socioeconómico.

No hay nada que convierta a un algoritmo, por el hecho de serlo, en algo intrínsecamente neutral: de hecho, los algoritmos construyen sus sesgos a partir de los datos con los que son alimentados, lo que incrementa el riesgo de perpetuar sesgos que, en muchos casos, ya existían anteriormente.

Una decisión tomada por ese algoritmo fue objeto de apelación en el caso Loomis V. Wisconsin, en el que el acusado alegó que el uso de dicho algoritmo en el cálculo de su sentencia, un veredicto de seis años de cárcel, violaba sus derechos porque evitaba que impugnase la validez científica y la precisión de la prueba al desconocer el funcionamiento del algoritmo, y porque éste tenía además en cuenta variables como el género y la raza del acusado.

Fuimos formados en un sistema judicial donde son las personas las juzgadas y también las que juzgan, se trate del asunto que se trate, hasta ahora, con aciertos y errores fue la justicia de los hombres.

Para los promotores de estas reformas será más importante saber si el ingeniero programador o diseñador de algoritmos resulta positivista, realista, o dworkiniano.

Los que aún nos resistimos a la conversión de la justicia en un mecanismo enteramente tecnológico, seguimos pensando que existe un problema ético cuando se trata de juzgar personas, por lo que juzgarlas por una máquina es poco digno y devalúa a quien está siendo juzgado.  

***

Emitido en el espacio Tiene la palabra de En Perspectiva, viernes 17.07.2019

Sobre el autor
Juan Ceretta nació en Montevideo, es doctor en Derecho y Ciencias Sociales, egresado de la Universidad de la República; docente del Consultorio Jurídico y de la Clínica de Litigio Estratégico en la Carrera de Abogacía; coordinador del Laboratorio de Casos Complejos en DDHH, y representante por el Orden Docente en el Consejo de Facultad de Derecho. Activista en Derechos Humanos. Hincha de Racing Club de Montevideo.

***

Podés seguirnos en las redes sociales de Radiomundo, en Facebook, en Twitter y en Instagram.