COLUMNA INVITADA

¿Qué se necesita para producir la Inteligencia Artificial en el mundo?

Una perspectiva desde la sustentabilidad

OPINIÓN

·
Créditos: El Heraldo de México

La industria de la inteligencia artificial (IA) se suele comparar con la del petróleo, ya que, al igual que el combustible fósil, cuando los datos se extraen y refinan, se convierten en un producto muy lucrativo. Se transforman en información procesada, útil para la toma de decisiones. Aunque en los meses recientes, pareciera que la metáfora podría extenderse aún más, ya que, al igual que el petróleo, el aprendizaje profundo tiene un enorme impacto ambiental.

En 2019, un estudio realizado por la Universidad de Massachusetts, titulado “Consideraciones energéticas y políticas para el aprendizaje profundo en PNL (Procesamiento de Lenguaje Natural)”, reveló que desarrollar un solo modelo de inteligencia artificial (IA) de última generación, puede emitir más de 284,000 libras de dióxido de carbono (128.8 toneladas) a la atmósfera, lo que equivale a la cantidad de emisiones de cinco automóviles durante toda su vida útil, incluida la fabricación del vehículo.

Esta cifra, que destaca el consumo energético desmesurado, asociado con el desarrollo de modelos de IA, ha generado una creciente preocupación sobre el impacto ambiental de esta tecnología que, hasta ahora, se presenta como una solución universal para el desarrollo de las cadenas de suministro y de servicios a nivel planetario.

Y es que, si se recapitulara con celeridad la breve historia de la inteligencia artificial se podría visualizar que esta tecnología, ha emergido como una de las más transformadoras del siglo XXI, con aplicaciones que abarcan desde la medicina y la educación, hasta el transporte y el entretenimiento. Empresas como Google, Amazon y Microsoft, invierten miles de millones de dólares en desarrollar sistemas de IA, que prometen cambiar la forma en que la humanidad vive y trabaja. Estos avances han permitido mejoras significativas en áreas como el diagnóstico médico, la eficiencia energética en edificios inteligentes y la gestión logística en cadenas de suministro.

El uso de IA está cada vez más integrado en la vida cotidiana de las personas. Desde los asistentes virtuales como Siri y Alexa, hasta los sistemas de recomendación en plataformas como Netflix y Spotify, esta tecnología ayuda a los usuarios a tomar decisiones más informadas y personalizadas.

Mientras que, en el sector industrial, la automatización impulsada por IA está optimizando procesos de manufactura, reduciendo costos y mejorando la calidad de los productos, todo en menor tiempo.

Sin embargo, este rápido avance no está exento de consecuencias o efectos colaterales.

El entrenamiento y despliegue de modelos de IA requieren enormes cantidades de energía, que a menudo provienen de fuentes no renovables. La creciente demanda de recursos computacionales ha llevado a la construcción de gigantescos centros de datos, que consumen una cantidad significativa de electricidad y generan una huella de carbono considerable. A medida que más sectores adoptan la IA, la presión sobre los recursos energéticos y el medio ambiente también, aumenta proporcionalmente.

Y es que, el proceso de desarrollo y entrenamiento de modelos de inteligencia artificial es intensivo en términos de recursos computacionales y, por ende, energético. Los modelos de IA, especialmente los de aprendizaje profundo, requieren vastas cantidades de datos para aprender y mejorar su precisión. Por lo tanto, el modelaje de esta tecnología implica la ejecución repetida de cálculos complejos en matrices de datos grandes, utilizando técnicas de optimización para ajustar los parámetros del modelo.

Un ejemplo claro, es el entrenamiento de redes neuronales profundas, que puede involucrar el procesamiento de terabytes de datos durante semanas o incluso meses. Los modelos más avanzados, como los transformadores utilizados en procesamiento de lenguaje natural (PLN), demandan aún más recursos.

Solo para dimensionar con precisión el modelo GPT-3 de OpenAI (una plataforma de impacto comercial), con 175 mil millones de parámetros, necesitó aproximadamente 355 años de tiempo de CPU y 450 años de tiempo de GPU para entrenarse, lo que evidencia el colosal consumo energético que se requiere para generar un intercambio de información tan alto en tan poco tiempo.

En suma, todas estas versiones han sido secundadas por otro estudio presentado a finales de 2023, titulado: “la creciente huella energética de la inteligencia artificial”, publicado en la revista Joule, el cual preveía incluso que la IA, utilice tanta electricidad como un país pequeño para 2027.

“Esta cifra es comparable al consumo anual de electricidad de países como los Países Bajos, Argentina y Suecia. Si bien esto representaría medio por ciento (0.5 por ciento) del consumo mundial de electricidad, también representaría un aumento potencial significativo en el consumo mundial de electricidad de los centros de datos (lugares de procesamiento de información). Se estima que este último aspecto representa el uno por ciento del consumo mundial de electricidad”

El mismo trabajo considera que añadir la IA a las respuestas de Google incrementaría tanto el consumo de electricidad como el que utiliza un país entero como Irlanda, por ejemplo. Pero, desde hace algunas semanas, al menos en Estados Unidos, Google ya usa una herramienta de IA para responder las preguntas que los usuarios suelen hacer en Google, con resultados desastrosos: en algunos casos tomó como cierta información falsa y no supo distinguir comentarios irónicos de comentarios serios. Lo que evidencia con claridad que aún le falta mucho por desarrollar a esta clase de herramientas tecnológicas.

Por su parte, la calificadora estadounidense, Goldman Sachs, confirmó parcialmente la información sobre el consumo de energía en mayo. “En promedio, una consulta en ChatGPT necesita casi 10 veces más electricidad para procesarse que una búsqueda en Google”, concluyó. Esto aumentará conforme se construyan y desplieguen más centros de datos de este tipo. Este tipo de instalaciones, son el sistema físico con el que la IA se sostiene en las computadoras y dispositivos móviles del mundo.

¿Entonces es la IA el verdadero camino hacia la reducción laboral por medio de la automatización de procesos y servicios, cuya puesta en marcha demanda más recursos energéticos que, los hasta ahora conocidos por la humanidad? ¿Es rentable y auto sustentable en el corto y mediano plazo este tipo de tecnología?

Los gobiernos de todo el mundo deberían meditar y conocer con mayor profundidad sobre los estudios relativos a los impactos energéticos y ambientales que el uso de más centros de información en el mundo demandarán, cada vez, con mayor intensidad para enriquecer la labor de la Inteligencia Artificial y la automatización de los procesos productivos y de servicios en el planeta.  

POR LUIS MIGUEL MARTÍNEZ ANZURES

PRESIDENTE DEL INAP