COLUMNA INVITADA

La Inteligencia Artificial y la impartición de justicia

Es importante reconocer que la IA no es una herramienta neutral ni ajena a los prejuicios, estereotipos y violencias presentes en las distintas sociedades

OPINIÓN

·
Magda Zulema Mosri Gutiérrez / Colaboradora / Opinión El Heraldo de MéxicoCréditos: El Heraldo de México

Es innegable que la inteligencia artificial (IA) ofrece valiosas oportunidades para facilitar la gestión de tareas y la sistematización de información, sobre todo cuando se trata de actividades repetitivas. En los órganos impartidores de justicia, la IA ha permitido crear bancos de sentencias con datos cuantitativos sobre quiénes y dónde se emiten las resoluciones, así como para medir la eficiencia de las instancias, identificar los criterios y hasta pronosticar el sentido en que cada juzgadora o juzgador va a resolver. El uso de la IA puede facilitar a los órganos jurisdiccionales vigilar la productividad, ya que permite determinar si al resolver se está observando la causa de pedir, si hubo omisiones durante el procedimiento o si se garantizaron los derechos humanos de las personas justiciables y, en su caso, cómo se está haciendo.

Estas nuevas posibilidades no deben pasar por alto que los sistemas de IA son diseñados por personas, las cuales en su proceso de socialización e historia de vida pueden privilegiar ciertos valores con respecto a otros y, por tanto, es importante reconocer que la IA no es una herramienta neutral ni ajena a los prejuicios, estereotipos y violencias presentes en las distintas sociedades, ya que considerarlo así representa un grave sesgo que puede reforzar dichas prácticas en perjuicio de las personas y de las instituciones cuyo objetivo es salvaguardar los derechos ciudadanos. No olvidemos que existe subrepresentación de las mujeres en las carreras de ciencia, tecnología, ingeniería, matemáticas y menos programadoras trabajando en ese sector, lo que implica, una vez más, un sesgo de género que tiene un impacto en la forma como se entrenan los modelos para procesar los datos.

Es por ello que, en la programación de los sistemas de IA de los órganos impartidores de justicia, es necesario asegurar que los principios y valores reconocidos por la Constitución, los tratados internacionales y otras fuentes del derecho que velan por la democracia y la diversidad, sean reconocidos para asegurar que sus resultados no vulneren el Estado de Derecho. La IA, en tanto herramienta, cumple los propósitos de los usuarios, así es como también se emplea para violentar a las mujeres, incluso por menores de edad, que se sirven de la IA para alterar la imagen de compañeras de escuela o vecinas para fines pornográficos, es decir, la violencia de género encuentra otro asidero en el espacio virtual y nuevos instrumentos para dificultar la identificación de quienes cometen dichas conductas.

Por supuesto que no todo es negativo, la IA también puede -por su gran capacidad para analizar datos y tomar decisiones a partir de algoritmos- ayudar a identificar los sesgos de género que persisten en diferentes ámbitos, especialmente en las sentencias y actos de autoridad. Por ello, la regulación en la materia debe considerar necesariamente estos aspectos, como ya lo hecho la Unión Europea, en su Ley de Inteligencia Artificial, en la que ha identificado los diferentes niveles de riesgo que esta tecnología podría suponer para la seguridad, la salud o los derechos fundamentales de las personas: riesgo inaceptable, alto riesgo y riesgo limitado.

Sin duda, uno los principales desafíos que entraña la IA para las personas juzgadoras, está en el análisis de las pruebas, ya que ésta puede crear documentos, videos, imágenes y audios cuya veracidad es difícil de identificar a simple vista. Un nuevo reto para el que todos los operadores jurídicos debemos prepararnos, no sólo en las universidades sino como parte de la actualización continua que como profesionistas y personas servidoras públicas debemos recibir. En estos casos, conviene reflexionar sobre qué otros elementos probatorios pueden apoyarnos a generar convicción sobre el origen y veracidad de las pruebas digitales o cómo podemos -quizá por medio de la misma tecnología- validar este tipo de pruebas.

El uso de esta herramienta dependerá, como en cualquier otro caso, de definir sus riesgos y establecer medidas para prevenirlos, así como de capacitar a las personas y sensibilizarlas respecto a la gran responsabilidad que entraña su utilización cuando ésta no se apega a un marco ético.

POR DRA. ZULEMA MOSRI GUTIÉRREZ

MAGISTRADA DE LA SALA SUPERIOR Y PRESIDENTA DE LA COMISIÓN PARA LA

IGUALDAD DE GÉNERO DEL TRIBUNAL FEDERAL DE JUSTICIA ADMINISTRATIVA

@Z_MOSRI