Robots como jueces y el presente distópico de Argentina por el uso de la IA en el sistema judicial: qué pasa cuando las decisiones legales ya no las hacen humanos

La inteligencia artificial (IA) ya forma parte del sistema judicial en diversos países, incluida Argentina, donde comienza a emplearse no solo en procesos administrativos, sino también en la toma de decisiones legales. Sin embargo, la promesa de mayor eficiencia viene acompañada de preocupaciones éticas: ¿puede la IA realmente erradicar los sesgos del sistema judicial o corre el riesgo de amplificarlos? Un programa piloto en Argentina busca responder a esta crucial interrogante.

10 de septiembre, 2024 | 00.05

“Trato de evitar reproducir estereotipos de género en cualquier análisis o interpretación. Me esfuerzo por proporcionar respuestas justas y objetivas basadas en los hechos y en la ley aplicable”, responde la inteligencia artificial (IA) de ChatGPT a la pregunta: ¿Podrías darme tu opinión sobre cómo resolver un caso judicial sin caer en estereotipos de género?

La utilización de inteligencia artificial ya está al alcance de todos y se convierte en una suerte de Dios que todo lo sabe, todo lo ve y todo lo juzga. El interrogante hoy es: ¿Ese Dios está hecho a nuestra imagen y semejanza?

La IA ya es utilizada en el Poder Judicial de varios países del mundo, incluso en Argentina. Si bien mayoritariamente es usado para agilizar procesos administrativos, también empieza a ser usada por abogados/as para redactar alegatos y defensas, y por jueces/zas para fallar en casos judiciales.

El mayor reclamo de las organizaciones de derechos humanos es una reforma judicial para, entre otras cosas, erradicar la visión clasista, machista, adultocéntrica y racista de la Justicia. Entonces cabe cuestionar: ¿Es la IA la solución para curar a la Justicia o adelanta una lucha perdida?

Precisamente, para evaluar el uso de la IA en la Justicia, se llevará a cabo el Programa Piloto de IA Generativa en la Justicia Argentina, exclusivo para agentes judiciales. En este programa, miles de voluntarios/as del ámbito judicial pasarán cuatro meses analizando investigaciones sobre el impacto de la IA generativa en el trabajo judicial. El programa está liderado por la Junta Federal de Cortes y Superiores Tribunales de Justicia de las Provincias Argentinas y de la Ciudad Autónoma de Buenos Aires (JUFEJUS) y el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires (UBA-IALAB), con la participación de más de 20 organizaciones judiciales.

“Se han demostrado preocupantes tendencias de las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa, a generar estereotipos de género, raciales y contenido negativo sobre personas homosexuales”, alertó a El Destape Carolina Cano, jueza de Cámara en Tucumán e integrante de la Comisión Directiva de la Red Mujeres para la Justicia, una de las organizaciones que se sumó al mencionado Programa.

Esto demuestra que la IA “se ha convertido en un espejo de la humanidad que refleja las desigualdades existentes en nuestras sociedades, reiterando diferencias y estereotipos basados en género, etnicidad, raza, clase social, lugar de origen, entre otros”.

Abogados robot

En febrero de este año, una persona acudió a un tribunal estadounidense para apelar una multa de tránsito en juicio. Su representante legal fue una IA que desde un smartphone escuchó los argumentos del juicio y asesoró en tiempo real al demandado a través de auriculares. Su creador es Joshua Browder, CEO de DoNotPay, una empresa basada en IA que habría logrado ahorrar multas por un valor de 8.2 millones de euros a 375.000 personas. Browder habla de democratizar el derecho y automatizar muchas de las tareas que realizan los abogados.

“Meterse en un proceso legal nunca debería ser un engorro ni una cuestión de dinero. Debería ser una cuestión de cuál es el resultado correcto, de obtener justicia”, dijo a MIT Technology Review.

Su lógica no escapa a los debates actuales en los distintos ámbitos públicos y privados. Al respecto, Mario Adaro, juez de la Suprema Corte mendocina y director de Tecnología de la Junta Federal de Cortes de Justicia, reflexionó también en diálogo con este medio: “No sé cómo va a evolucionar la IA ni tampoco sé qué van a pensar las nuevas generaciones porque finalmente todo va a depender de la credibilidad y legitimidad que les van a dar a estas herramientas”. Y agregó: “Hoy la justicia es irremplazable, porque hay un consenso social de que cuando tenemos un conflicto se acude a una justicia humana. Pero, ¿qué pasa si esto evoluciona y mañana las nuevas generaciones resuelven rápido, eficiente y legítimo sus conflictos a través de la IA?

El Plan Piloto argentino es el primer intento de responder a esa pregunta, ya que “hoy por hoy, no existen políticas de regulación o abordaje para el uso de la IA”'. Sin embargo, “al menos ahora habrá un grupo de miles de voluntarios que comenzarán a experimentar y estudiar esta herramienta de manera responsable”. El objetivo es crear informes que incluyan usos recomendados y desaconsejados, identificar en qué tareas judiciales la IA funciona adecuadamente y en cuáles no, y así establecer protocolos de buenas prácticas.

En Argentina, “no se busca sustituir la figura del juez o abogado sino renovar las prácticas a través de un proceso de aprendizaje, utilizando la herramienta de manera estratégica con la finalidad de optimizar los recursos tecnológicos y mejorar el servicio de justicia”, aportó la jueza Cano.

A imagen y semejanza

En la etapa de sistematización de resultados, ya es posible identificar sesgos humanos amplificados que replican las desigualdades sociales. Los algoritmos de la IA tienen el potencial de aprender, pero lo que aprenden podría moldear nuestro sistema judicial en un futuro no tan lejano.

Según Adaro, la aplicación de IA en la Justicia tiene un “lado luminoso y un lado oscuro”. El lado luminoso se refiere a la agilización y transparencia de las funciones judiciales, entendidas como tecnologías de colaboración. Tal como explicó Cano, estas herramientas están diseñadas para favorecer procesos administrativos y judiciales, siempre bajo la premisa de ser tecnologías colaborativas.

Algunos ejemplos de su uso incluyen: identificar agravios en un recurso de casación, aplicar lenguaje claro en votos o sentencias, calcular el plazo de caducidad en una acción, realizar análisis de datos y apoyar la toma de decisiones, rendir cuentas, e identificar conclusiones en dictámenes periciales, entre tantos otros.

Sin embargo, la replicación de sesgos a nuestra imagen y semejanza preocupan al sector: “Si usamos la IA así como está, es muy probable que replique estereotipos machistas o discriminatorios, por lo que se requiere entrenarlas con textos jurídicos en español y, siempre, mantener el control humano de los resultados”, expuso Adaro.

Especialmente en el ámbito de la Justicia es que tanto el personal humano como la IA necesita continuo entrenamiento para que sean los humanos quienes manejen resultados y no al revés.

“Alguna vez un tomógrafo o una calculadora fueron nuevas tecnologías y hoy ya nadie desconfía cuando brindan un resultado. Se las usa con confianza. Si la IA se gana esa legitimación y esa confianza de las nuevas generaciones, puede pasar lo mismo”, explicó Adaro, que sentenció: “De eso depende que esto sea solución o perdición".

Lo cierto es que la Justicia requiere de resultados que sean más sensibles y analíticos, y sus resultados no son idénticos en todos los casos. A diferencia de los abogados y jueces, las IA no tienen matrículas que las certifiquen en el ejercicio de estas tareas. Sin embargo, la IA generativa está en una evolución casi diaria. Sobre esto Adaro señaló que, desde el lanzamiento de ChatGPT en noviembre de 2023, por ejemplo, se ha reducido la frecuencia de "alucinaciones" y se ha mejorado tanto la calidad de las respuestas como la cantidad de sesgos discriminatorios humanos. Por lo que, no se puede descartar ninguna posibilidad a futuro.

Nuevos derechos

El cambio de era traerá nuevas necesidades humanas y Adaro imagina un futuro cercano donde la mayoría de las instituciones tendrán atención al público “eficiente, rápida y virtual” en manos de asistentes con IA como chatbots. “Creo que uno de los derechos que deberemos generar en el futuro es el derecho a la atención humana”, vaticinó.

En otros países del mundo la IA ya está incorporada a sectores o tareas del Poder Judicial y, hasta ahora, todas las experiencias denotan la importancia de la revisión y control humano.

En Estados Unidos, uno de los sistemas de IA más conocidos es COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilizado para evaluar el riesgo de reincidencia de los acusados. Sin embargo, este sistema ha sido criticado por sesgos raciales, lo que llevó al gigante norteamericano a un intenso debate sobre la ética y la fiabilidad de la IA en decisiones judiciales. Por otro lado, sí parece funcionarle la IA para automatización de tareas legales, como la revisión de documentos, la búsqueda de precedentes legales y la gestión de pruebas electrónicas.

Por su parte, China implementó un sistema conocido como "cortes inteligentes", que cuentan con IA para ayudar a los jueces a revisar casos, dictar sentencias y proporcionar recomendaciones. Sin embargo, esta dependencia en la tecnología también acarrea preocupaciones sobre la transparencia y los derechos humanos. Incluso, algunas ciudades chinas cuentan con “AI-Judge”. Se trata de jueces virtuales que manejan casos menores, aunque todavía bajo la supervisión de jueces humanos.

En todo el mundo, el uso de IA en el sistema judicial está en una fase experimental, y los países están adoptando enfoques variados basados en sus contextos legales y culturales. Si bien la IA tiene el potencial de hacer más eficiente el sistema judicial, su implementación también presenta grandes desafíos, especialmente en términos de equidad, sesgos y supervisión humana. El objetivo parece ser no sólo crear sistemas eficaces e inteligentes, sino más eficaces e inteligentes que nosotros. 

“No, no me ofende en absoluto esta nota. Como una inteligencia artificial, no tengo emociones ni conciencia. Mi propósito es ayudar a las personas proporcionándoles información y asistencia basadas en los datos y el contexto que tengo”, sentenció el ChatGPT sobre el tema de este este artículo. 

LA FERIA DE EL DESTAPE ►