París organiza este 10 de febrero una inédita cumbre sobre lo que pretende ser la tecnología del futuro, la Inteligencia Artificial. Si la fascinación es lo que domina entre los creadores de la IA, las empresas y los gobiernos, hay un lado mucho más crítico de esta tecnología revolucionara: el impacto ambiental del consumo energético exponencial de los mega centros de datos necesarios para su funcionamiento. "Entrenar un modelo de IA puede generar cientos de toneladas de CO2" dice a RFI un experto que llama al sentido común de los usuarios.
Tan solo 4 días después de su llegada a la Casa Blanca, Donald Trump anunció la flexibilización de las leyes para la producción energética destinada a satisfacer la demanda de la Inteligencia Artificial (IA).
"El gran problema -explicó Trump- es que necesitamos el doble de la energía que tenemos actualmente en los Estados Unidos para que la IA sea realmente competitiva frente a China y otros. Así que vamos a actuar rápido para construir plantas de generación eléctrica, y para que puedan alimentarla con todo tipo de energía y que puedan tener carbón como respaldo."
En dos años, el sector de la IA y de las criptomonedas podría duplicar su consumo eléctrico, lo que equivaldría al consumo total de un país como Japón, según previsiones de la Agencia Internacional de la Energía (AIE) que pide detener esta curva ascendente.
Y mientras los científicos del mundo urgen a los gobiernos a reducir sus emisiones de CO2 y a moderar su consumo energético para luchar contra el cambio climático, el mandatario republicano ha decidido autorizar el uso de carbón, uno de los peores combustibles en materia de huella ambiental. Eric Schmidt, presidente de Google, aboga por su parte por la construcción de nuevos reactores nucleares para alimentar la voracidad de los centros de datos.
Por muy virtual que parezca, la AI funciona con microchips de metales críticos que componen centros de datos que necesitan combustible para funcionar.
Sobre la huella ambiental de la IA comenzamos por preguntarle a ChatGPT si es consciente de su impacto ecológico. Y nos respondió: "Se estima que entrenar un modelo de IA avanzada puede generar decenas o incluso cientos de toneladas de CO2, dependiendo del tamaño del modelo y el tiempo de entrenamiento. Un estudio de 2019 estimó que entrenar un modelo de IA similar a GPT3, podría generar alrededor de 284 toneladas de emisiones de CO2, lo cual equivale a las emisiones anuales de 5 automóviles."
Para una mirada más crítica conversamos con Alex Hernández, profesor en la Universidad de Montreal y en el Instituto de Inteligencia Artificial de Quebec y especialista en las emisiones de CO2.
"Los esfuerzos que hacen las empresas, pero también los gobiernos y por supuesto, a nivel individual, para medir el consumo energético de las aplicaciones de IA son más pequeños de los que deberían ser en un contexto de emergencia climática."
¿Ese sostenible el consumo energético de la IA a largo plazo?
"Va a depender mucho de cuál sea la evolución en los próximos años de aplicaciones, como ChatGPT, cuando se usen para tareas que hasta hace poco se hacían fácilmente sin utilizar la IA. Simples búsquedas que antes hacíamos por Internet, pues hoy hay mucha gente que está empezando a hacerlas con los chat Bots. Ciertos estudios dicen que una pregunta consume diez veces más energía que una búsqueda en un buscador clásico, de tipo Google. Eso es alarmante."
¿Pero por qué la IA necesita mucha energía eléctrica?
"Es importante distinguir dos etapas en la vida de un modelo de IA. Primero está la etapa de entrenamiento, en la cual quienes desarrollan estas herramientas, las entrenan con datos para que funcionen de la manera que se espera. Esto consume mucha energía porque hay que hacer funcionar muchas computadoras, o una muy grande, durante mucho tiempo, mientras va adaptando el algoritmo interno. Para hacernos una idea, algunos modelos que desarrollan empresas como OpenIA, Google o Facebook, necesita un ordenador a toda máquina durante varios meses, ejecutando un montón de operaciones."
¿Y la segunda etapa?
"Es la que comienza desde que estas herramientas llegaron al gran público. Antes no nos preocupaba mucho el consumo energético pero ahora sí puesto que tenemos muchísimas personas en el mundo haciendo preguntas y hablando con estos modelos de conversación. Y cada vez que hacemos una pregunta a un modelo de lenguaje, lo que va a hacer es enviar la pregunta a un servidor que a lo mejor está en la otra punta del planeta y se va a ejecuta una serie de operaciones complejas en computadoras que generan un gasto considerable de energía. Estos servidores necesitan refrigeración permanente, mantenimiento y todo tipo de intervenciones.que requieren electricidad y ya sabemos que en la mayor parte del mundo, esa energía no es limpia, viene de combustibles fósiles y por tanto implica emisiones de efecto invernadero.
¿Sabe qué cantidad de estos gases representa el funcionamiento de la IA, por ejemplo de ChatGPT?
"No sabemos prácticamente nada porque hay mucho secretismo, pero voy a poner el ejemplo del predecesor del primer ChatGPT, que se llamaba GPT3 y consumía, solamente la fase de entrenamiento, el equivalente a 450 vuelos aéreos entre Londres y Nueva York. Entonces, es muy razonable pensar que con los modelos actuales el consumo de energía está aumentando de manera exponencial, lo cual no se puede sostener en el tiempo. Esperamos que las regulaciones que se están desarrollando en algunos países sirva para establecer guías y restricciones al desarrollo desmesurado que hemos visto en los últimos años."
¿A qué usos debería limitarse la inteligencia artificial para el gran público?
"En primer lugar, diría que no debemos culpar a a las personas individuales por estos problemas. Creo que la responsabilidad principal recae en las grandes empresas tecnológicas, que hacen campañas de marketing muy agresivas para que todo el mundo use estas herramientas. Y por supuesto, la gente ve una tecnología nueva y la quiere usar. Sería necesario detenerse un momento y reflexionar sobre si realmente necesitamos esta tecnología o sobre cómo la utilizamos. Si le planteamos a un modelo de lenguaje cualquier pregunta o búsqueda que podríamos hacer en Internet, pues sería como usar un avión para desplazarse a una distancia muy corta."
Además de su alto impacto en materia climática, los centros de datos generan conflictos locales por la cantidad de agua que consumen para enfriar los sistemas. En un informe de 2023, investigadores de las universidades de Colorado y de Arlington, Texas, estimaron que hacer entre 20 y 50 preguntas a ChatGPT genera un consumo equivalente a una botella de agua de medio litro.
En Uruguay, en 2023, mientras el país atravesaba su peor crisis hídrica, Google anunció la creación de un centro de datos que consumiría 7 millones de litros de agua diarios, lo que equivale al uso doméstico de 55.000 personas. Tras una movilización popular, Google optó finalmente por un sistema de refrigeración por aire. Pero conflictos similares ocurren actualmente en España, México y Estados Unidos. En este último país, un senador quiere exigir a los gigantes tecnológicos a revelar el impacto ambiental de la inteligencia artificial.