COLUMNA INVITADA

La Regulación China y Europea en Materia de Inteligencia Artificial (IA)

Las obligaciones para los operadores de dichos sistemas en la UE se advierten para aquellos que representan un alto riesgo, particularmente los que puedan dañar la salud, el medio ambiente, la seguridad, la migración, la administración de la justicia, la democracia, los derechos humanos, entre otros

OPINIÓN

·
Hilda Nucci / Columna Invitada / Opinión El Heraldo de México Créditos: Especial

El 15 de agosto de 2023, China publicó las “Medidas Generativas de IA” que se integran por 24 directrices diseñadas para normar a este tipo de IA (ChatGPT). En estas Medidas, se obliga a las plataformas que brindan dichos servicios a someterse a una supervisión de seguridad antes de lanzarse al público y se contempla la posibilidad de regular los contenidos, así como el bloqueo y el filtrado de aquellos creados por la IA. Lo anterior, para evitar la distorsión, el abuso de la información y el sesgo algorítmico.

En suma, las citadas directrices buscan evitar la discriminacón, respetar los derechos de propiedad intelectual de terceros, asegurar la autenticidad de la información generada, y establecer el alcance de los derechos de los usuarios (evitar proporcionar información falsa). Igualmente, suspender o cesar los servicios si se viola la ética comercial o social, o si se realizan conductas delictivas. Es así, que China se vislumbra como un país pionero y comprometido en crear un entorno favorable para el desarrollo de la IA, salvo por lo que respecta a la regulación de contenidos.

En este sentido, la Unión Europea (UE) recién aprobó el pasado 13 de marzo el “Reglamento Europeo de IA”, mismo que entrará en vigor plenamente entre el segundo y tercer año posterior a su publicación. En esta normativa se establecen cuatro niveles de riesgo en el manejo de los sistemas de IA (inaceptable, alto, limitado y mínimo) y algunas de las prohibiciones que se señalan para la IA son: los sistemas de categorización biométrica (RBI), la puntuación social y los sistemas que manipulan el comportamiento humano o destaquen las debilidades de las personas.

Las obligaciones para los operadores de dichos sistemas en la UE se advierten para aquellos que representan un alto riesgo, particularmente los que puedan dañar la salud, el medio ambiente, la seguridad, la migración, la administración de la justicia, la democracia, los derechos humanos, entre otros. Dentro de los principales objetivos del Reglamento se encuentra mejorar el funcionamiento del mercado interior, promover una IA humanista y transparente para garantizar su debida protección. Las excepciones en su tratamiento se han señalado para cuando se necesite encontrar a un menor desaparecido, prevenir una amenaza terrorista concreta e inmediata, o bien para hallar, identificar, o enjuiciar a un ciudadano sospechoso de un delito grave.

Como se observa, ambos países se proponen contar con ordenamientos jurídicos que mitiguen las amenazas y los efectos en el uso de la IA, a través de supuestos normativos que regulen su manejo ético, responsable y eficaz. Sin embargo, esto no será fácil pues requerirá de sistemas de calidad y una debida gestión de riesgos por parte de los proveedores, además de considerar el conflicto de extraterritorialidad y una adecuada supervisión que realice quién designe el Consejo de Estado Chino y la Oficina Europea de IA.

POR HILDA NUCCI
COLABORADORA
@HILNUCCI

PAL