RETOS GLOBALES

La inteligencia artificial, sin control

Se predice que la IA perderá o degradará inicialmente 300 millones de puestos de trabajo. Pero apuntan que el auge de la automatización presenta oportunidades

OPINIÓN

·
Carlos de Icaza / Retos Globales / Opinión El Heraldo de MéxicoCréditos: Especial

En los últimos días, se han multiplicado las advertencias sobre los riesgos que entraña el desarrollo sin control de la inteligencia artificial generativa –derivada de lo que en inglés se denomina machine learning- y que utiliza algoritmos (como ChatGPT) enfocados a la creación de contenido o soluciones nuevas de forma autónoma, a partir de los patrones y relaciones aprendidos de un conjunto de datos. 

Elon Musk y otros expertos propusieron una moratoria de seis meses en el desarrollo de la Inteligencia Artificial (IA), a efecto de que la industria establezca medidas y estándares de seguridad que prevengan daños potenciales del uso de estas tecnologías, cuyos alcances son todavía desconocidos. Este pronunciamiento suscrito, entre otros, por el cofundador de Apple, Steve Wozniak, dice que "hemos llegado al punto en que estos sistemas son lo suficientemente inteligentes como para poder utilizarse de manera peligrosa para la sociedad". 

No obstante, se imponen dos preguntas: ¿serán seis meses suficientes para concebir e implementar medidas para que la IA sea segura y opere bajo estándares de observación general? Y, ¿acaso los gigantes tecnológicos como Google, Microsoft o Apple detendrán su carrera en pos de tecnologías que los vuelvan más competitivos?  

Por su parte, Goldman Sachs, en un reporte muy difundido, predice que la Inteligencia Artificial perderá o degradará inicialmente 300 millones de puestos de trabajo, aunque apunta que el auge de la automatización y las tecnologías digitales presentan simultáneamente oportunidades y desafíos. 

En este contexto, en un artículo de Henry Kissinger publicado hace unos días en el Wall Street Journal, destaca la importancia histórica de la IA como la mayor transformación en el proceso cognitivo humano desde la invención de la imprenta en 1455 que, sin embargo, plantea interrogantes sustanciales: "¿qué sucede si esta tecnología no se puede controlar por completo?" ¿Y si lo que consideramos errores son parte del diseño? "¿Qué pasa si surge un elemento de malicia en la IA?"

Si bien la revolución digital está transformando positivamente la economía global, es indispensable que las herramientas de Inteligencia Artificial generativa operen bajo un marco regulatorio que permita aprovechar plenamente su potencial y minimizar sus riesgos.  

El gran reto que ahora enfrentamos consiste en cómo aprovechar mejor las tecnologías digitales y los modelos de Inteligencia Artificial en beneficio de la humanidad y evitar que, por el contrario, estas tecnologías nos perjudiquen. 

Por último, y a reserva de ampliar el tema, hay más de 40 comités e instancias en el marco de las Naciones Unidas, discutiendo sobre la Inteligencia Artificial, pero faltan consensos que desemboquen en un marco jurídico de aplicación universal, con el fin de impedir que la IA continúe evolucionando sin control alguno por parte de los gobiernos nacionales y la comunidad global. No es aceptable que esta tecnología esté sujeta simplemente a las leyes del mercado sin importar las consecuencias. 

POR CARLOS DE ICAZA
EMBAJADOR EMÉRITO Y EXSUBSECRETARIO DE RELACIONES EXTERIORES

PAL