RETOS GLOBALES

La carrera global para regular la IA

La Inteligencia Artificial tiene el potencial de transformar positivamente nuestras sociedades o de llevarnos a un futuro de inconmensurables riesgos

OPINIÓN

·
Carlos de Icaza / Retos Globales / Opinión El Heraldo de MéxicoCréditos: Especial

Desde que la mayoría de los líderes mundiales expresaron sus preocupaciones en la Asamblea General de las Naciones Unidas,  por la falta de regulación en torno a la Inteligencia Artificial (IA), se observa una suerte de carrera mundial de iniciativas para controlar y administrar este novedoso e inquietante desarrollo tecnológico. No cabe duda que la IA tiene el potencial de transformar positivamente nuestras sociedades o de llevarnos a un futuro de grandes e inconmensurables riesgos.


Hace una semana, el presidente Joe Biden firmó una orden ejecutiva que exige a las empresas de tecnología presentar los resultados de las pruebas de sus sistemas de IA antes de que se hagan públicos. Además, la Casa Blanca anunció la creación de un Instituto de Seguridad de la Inteligencia Artificial que evaluará los modelos avanzados y será responsable de crear estándares relacionados con su seguridad.


Sobre la base de una propuesta de la OCDE  para el uso de una IA innovadora y confiable, que respete los derechos humanos y los valores democráticos, la semana pasada, los mandatarios del G7 adoptaron una declaración de 11 principios rectores sobre la inteligencia artificial, y un código de conducta voluntario para los desarrolladores de esta tecnología.


Por su parte, la Administración del Ciberespacio de China también lanzó una iniciativa global de gobernanza, que exige "igualdad de derechos para desarrollar la Inteligencia Artificial independientemente del tamaño, fuerza o sistema social" de un país.
En la misma semana, el evento de mayor trascendencia fue la Cumbre de Seguridad de la IA convocada por el gobierno británico en Bletchley Park, que contó con la asistencia de delegados gubernamentales de Estados Unidos, China, la Unión Europea y 28 países más, así como representantes de las principales empresas tecnológicas y reconocidos expertos. El objetivo fue evaluar los riesgos de la IA, especialmente sobre la denominada "IA de Frontera", es decir modelos que pueden realizar una amplia variedad de tareas e igualar o superar las más avanzadas capacidades actuales.


En la declaración final, los signatarios señalaron que, por el bien de todos, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, que sea confiable y responsable, y centrada en el ser humano. En lo que podría considerarse como un logro potencialmente histórico, por primera vez los principales desarrolladores de IA acordaron trabajar conjuntamente con los gobiernos para probar los nuevos modelos de IA de Frontera antes de su lanzamiento al público. De esta manera, ayudarían a gestionar los riesgos de la tecnología en rápido desarrollo.


Si bien la sucesión de iniciativas para controlar y regular la IA es alentadora, es urgente que estas propuestas no queden sólo en buenas intenciones: estamos en una carrera contra reloj para contar con normas vinculantes y de aplicación universal. De otro modo, será muy difícil evitar que se haga mal uso de estas tecnologías en detrimento de su potencial para el bienestar de la humanidad.

POR CARLOS DE ICAZA
EMBAJADOR EMÉRITO DE MÉXICO Y EXSUBSECETARIO DE RELACIONES EXTERIORES

EEZ