COLUMNA INVITADA

¿Cómo regular la Inteligencia Artificial (IA)?

Es inminente que nuestro país garantice la protección de nuestros datos personales y otros derechos frente al uso de estas nuevas tecnologías

OPINIÓN

·
Hilda Nucci / Columna Invitada / Opinión El Heraldo de México Créditos: Especial

La IA es un sistema basado en la combinación de algoritmos planteados con el fin de crear maquinas que tengan las mismas capacidades que el ser humano. Los cuatro campos en donde se desarrolla este tipo de tecnología son: la inteligencia automatizada (Chatbots); la inteligencia asistida (robótica o software); la inteligencia aumentada (ChatGPT o google maps); y la inteligencia autónoma (vehículo autónomo).

Hoy día, 27 países han manifestado la urgencia de regular y definir la IA a partir de estándares internacionales. Algunos ejemplos supranacionales son: la Artificial Intelligence Act de Europa; la Declaración de Bletchley, firmada por EUA y China; la Orden Ejecutiva Sobre el Desarrollo y el Uso Seguro y Confiable de la IA de EUA; la Recomendación sobre  la  Ética  de  la  IA  de  la  UNESCO; el Digital  Economy  Agreement  (DEA); y el Digital Economy Partnership Agreement (DEPA).

Es inminente que nuestro país garantice la protección de nuestros datos personales y otros derechos frente al uso de estas nuevas tecnologías. Hasta ahora, a nivel federal existen alrededor de 31 iniciativas en materia de IA, pero la mayoría se concentra en modificaciones al Código Penal Federal y no en una ley que regule su uso.

A nivel local, el Estado de Sinaloa ha sido el primero en la aprobación de reformas a su Código Penal (artículo 185 bis), para sancionar el delito de acoso sexual a quién manipule imágenes, audios o videos con contenido sexual por medio de la IA. Estableciendo sanciones que van de de 500 a mil días de multa y penas de 3 a 6 años de prisión a los responsables. No obstante, la definición que da el Congreso de Sinaloa respecto a la IA resulta incompleta y solo se tipifica a uno de los tantos delitos que se pueden cometer con su uso.

Encima, el riesgo de regular a la IA bajo ordenamientos locales es que éstos no contemplen los principios internacionales comúnes que se deben aplicar para la protección de los datos, la privacidad, la no discriminación, la seguridad de los productos, la protección de los consumidores y la responsabilidad civil.

Entonces, es recomendable tener una legislación federal que considere a los acuerdos internacionales que tengan fuerza vinculante (hard law), pero también a los que carecen de esa característica (soft law). Además, de la jurisprudencia, la autorregulación, la auditoría a los algoritmos, la creación de seguros para su uso y el fomento de la transparencia, para brindar la certeza jurídica de una estrategia regulatoria que mitigue los riesgos y garantice los derechos.

De la regulación que resulte, se podría impactar el futuro de la IA ya sea impulsando o restringiendo la innovación tecnológica. De modo que, los modelos regulatorios deben ser ágiles, colaborativos, interactivos y multidisciplinarios para adaptarse al desarrollo y desafíos de esta nueva era, pero sin dejar de considerar a la persona como el centro entre el equilibrio de la innovación y el uso de la IA.

POR HILDA NUCCI
COLABORADORA
@HILNUCCI

PAL