Seminario Permanente de Derecho y Ciencia
Reflexionan sobre el uso de la IA en los sistemas legales
Al final es una herramienta y la forma en que se utilice sigue siendo responsabilidad del humano: Caleb Antonio Rascón Estebané, investigador del IIMAS
Cuando los operadores de los sistemas legales hacen uso de la inteligencia artificial (IA), ¿en quién recae la responsabilidad? ¿Y cuáles son las consecuencias? Coincidieron en estas preguntas y reflexionaron en torno a ellas expertos reunidos en el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS), durante el Seminario Permanente de Derecho y Ciencia.
José Ramón Cossío Díaz, miembro de El Colegio Nacional, recordó que poco a poco las resoluciones de la Suprema Corte de Justicia de la Nación han incorporado el conocimiento científico, especialmente desde la crisis por el VIHsida, por lo que en esta segunda edición del Seminario se revisan los temas que influirán a futuro en las decisiones que se tomarán, como el uso de la IA.
Cossío Díaz expuso: “¿En quién recae la responsabilidad por el uso de IA en sistemas legales, dígase emisión de dictámenes, aviso a autoridades, condiciones en las que debe emitirse el juicio?, ¿quién lo hace, lo vende o bajo qué parámetros se utilizan? Son algunos de los temas que se deben revisar ante la rápida incorporación de la IA en los sistemas de justicia”.
En la reunión, Gabriela Sued, investigadora posdoctoral en el IIMAS, explicó que, según estadísticas del Consejo de la Judicatura Federal, en México existen 266 juzgados de distrito, que gestionan gran cantidad de archivos. En 2021 se generaron casi 8 millones 200 mil expedientes, y en 2022 la cifra pasó a 10 millones, mientras que en 2023 a 10 millones 230 mil, y cada uno corresponde con un caso que tiene un trámite legal.
La especialista del Departamento de Modelación Matemática en Sistemas Sociales agregó que el procesamiento de cada uno de estos archivos requiere de un apoyo informático y el sistema de juicios en línea permite que los usuarios presenten demandas a través de varias plataformas; el Sistema de Gestión Jurisdiccional facilita el registro y seguimiento de los casos dentro de los juzgados, pues algunos están experimentando asesorías con sistemas de IA; y los poderes judiciales de los estados cuentan con IA para la transcripción de video a texto, así como plataformas de gestión documental que permiten la consulta de textos extraídos de imágenes y documentos digitales.
Sued se preguntó si es posible implementar sistemas de IA en la toma de decisiones al emitir sentencia, si es conveniente usarlos, así como los elementos a tomarse en cuenta para su implementación equitativa y transparente.
A distancia, Alejandro Pisanty Baruch, profesor de la Facultad de Química, rememoró que no existe innovación que no haya generado un pánico moral, y la IA crea muchísimos, por lo que es importante que la Suprema Corte de Justicia de la Nación y El Colegio Nacional se acerquen a quienes producen la IA, y no sólo a instituciones de educación superior, sino además a empresas que están trabajando con los sesgos indebidos, indagar su origen y cuestionar si se le pide a estos sistemas un trabajo mejor al que hace el humano.
El autor de Tecnologías de la información y derecho a saber añadió que una política de IA debería pasar por mucha inversión, con recursos coordinados con la investigación, y no sólo buscar los frenos necesarios a los daños posibles y reales de estas nuevas tecnologías.
Caleb Antonio Rascón Estebané, investigador del IIMAS, comentó que la IA, como la visualiza la sociedad en general –que le da el misticismo de que solucionará todo–, es muy diferente a lo que ocurre en los laboratorios, pues al final es una herramienta y la forma en que se utilice sigue siendo responsabilidad del humano.
El experto –reconocido por el Instituto Tecnológico de Massachusetts en 2014 como innovador menor de 35 años– enfatizó que una computadora no tiene una responsabilidad, entonces quien debe asumirla es el que la utiliza. De ahí que, por ejemplo, hoy se usa la IA como asesoramiento para un diagnóstico médico, pero es el galeno el que toma la decisión sobre lo que receta, y si lo hace mal, el profesional sigue siendo el responsable.
Ante especialistas reunidos en el auditorio del IIMAS, resaltó que hablar de inteligencia artificial es una antropomorfización de nuestra parte. “Es a partir de eso que debemos tener cuidado, el algoritmo trabaja con la información que se le está entregando, y si es buena o mala es con lo que se trabajará”.
Ramsés Humberto Mena Chávez, director del IIMAS, dijo que el Seminario es un foro permanente que refleja la necesidad de fortalecer el diálogo interdisciplinario para construir marcos normativos más sólidos y adaptados a los desafíos de nuestro tiempo.
Mena Chávez señaló: “Vivimos en una era en la que los avances tecnológicos transforman aceleradamente nuestra sociedad, y la IA en particular modifica todo, especialmente la manera en que interactuamos con el derecho y la justicia de distintos países para mejorar los procesos y agilizar el acceso a ésta”.