La carrera por la Inteligencia Artificial y su huella de carbono

Compartí esta noticia !

Los investigadores de Google sostienen que el 10 y el 15% del consumo energético en su empresa, tuvo que ver con la IA:

La nueva carrera tecnológica está orientada hoy a la inteligencia artificial, que se espera transforme sectores que manejan miles de millones de dólares, desde la venta al por menor hasta la salud. Pero, la elaboración de cada nuevo chatbot y generador de imagen necesita mucha energía eléctrica, lo que acarrea que la tecnología podría ser la causante de una enorme y cada vez mayor cantidad de emisiones de carbono que calientan la Tierra.

Las grandes empresas Microsoft, Google y OpenAI, creador de ChatGPT, utilizan sistemas de computación en la nube que emplean miles de chips alojados en servidores de gigantescos en centros de datos distribuidos por todo el mundo para adiestrar algoritmos de inteligencia artificial llamados modelos, que analizan información con el fin de facilitarles el “aprendizaje” de tareas. Gracias al éxito de ChatGPT, otras compañías se precipitan a sacar al mercado sus propios sistemas de inteligencia artificial y chatbots rivales, o a desarrollar nuevos productos que usen extensos modelos de inteligencia artificial para ofrecer funcionalidades a todo el mundo.

La inteligencia artificial utiliza más energía que otros tipos de herramientas, y el proceso de entrenamiento de un solo modelo puede requerir más energía eléctrica de la que emplean 100 familias estadounidenses durante un año. El desarrollo del sector es tan acelerado y la transparencia tan escasa que no se conoce con precisión el consumo total de energía eléctrica y la cantidad de emisiones de carbono que pueden atribuírsele.

Además, las emisiones también podrían diferir considerablemente en función de la electricidad que utilicen: por ejemplo, un centro de datos alimentado por una central de carbón o gas natural generará muchas más emisiones de carbón que uno que funcione con energía solar o eólica.

Aunque los especialistas han inventariado las emisiones derivadas de la elaboración de un solo modelo y ciertas compañías han facilitado información sobre su consumo energético, no disponen de estimaciones globales sobre el volumen energético total que utiliza esta tecnología.

La investigadora Sasha Luccioni, de la empresa de IA Hugging Face Inc, elaboró un documento en el que calculaba el impacto en las emisiones de carbono de BLOOM, el competidor de GPT-3 creado por OpenAI. Asimismo, ha tratado de calcular lo mismo para el éxito viral de OpenAI, ChatGPT, partiendo de un volumen limitado de datos a disposición del público. “Estamos hablando de ChatGPT y no sabemos nada al respecto”, dijo.

Transparencia de las herramientas de IA

Investigadores como Luccioni dicen que necesitamos transparencia sobre el uso de energía y las emisiones para los modelos de IA. Con esa información, los gobiernos y las empresas pueden decidir si usar GPT-3 u otros modelos grandes para investigar curas contra el cáncer o preservar las lenguas indígenas, valen la pena por el costo la electricidad y las emisiones.

Te puede Interesar  El ENRE retoma planes para instalar medidores inteligentes y crea un comité para avanzar

Una mayor transparencia también podría traer más consciencia; la industria cripto podría proporcionar una historia de advertencia. Bitcoin ha sido criticado por su enorme consumo de energía, utilizando tanto anualmente como Argentina, según el Índice de Consumo de Electricidad de Cambridge Bitcoin. Ese apetito voraz por la electricidad llevó a China a prohibir la minería y a Nueva York a aprobar una moratoria de dos años sobre nuevos permisos para criptominería impulsada por combustibles fósiles.

El entrenamiento de GPT-3, que es un único programa de inteligencia artificial de propósito general que puede generar lenguaje y tiene muchos usos diferentes, tomó 1.287 gigavatios hora, según un artículo de investigación publicado en 2021, o casi tanta electricidad como consumirían 120 hogares estadounidenses en un año. Ese entrenamiento generó 502 toneladas de emisiones de carbono, según el mismo documento, o aproximadamente lo que emiten 110 automóviles estadounidenses en un año. Eso es solo para un programa o “modelo”.

El entrenamiento de un modelo tiene un enorme costo inicial de energía, pero a pesar de ello los investigadores encontraron, en algunos casos, que es solo alrededor del 40% de la energía consumida por el uso real del modelo, con miles de millones de solicitudes de programas populares. Además, los modelos son cada vez más grandes.

GPT-3 de OpenAI utiliza 175.000 millones de parámetros, o variables, que el sistema de IA ha aprendido a través de su entrenamiento y reentrenamiento. Su predecesor usó solo 1.500 millones. OpenAI ya está trabajando en GPT-4, además, los modelos deben volver a capacitarse regularmente para mantenerse al tanto de los eventos actuales.

Otro dato relativo proviene de Google, donde los investigadores encontraron que la inteligencia artificial representó del 10 al 15% del consumo total de electricidad de la empresa, que fue de 18,3 teravatios hora en 2021. Eso significaría que la IA de Google quema alrededor de 2,3 teravatios hora al año, casi la misma cantidad electricidad cada año que todos los hogares en una ciudad del tamaño de Atlanta.

Emisiones GPU: “Una locura”

La mayoría de los centros de datos usan unidades de procesamiento de gráficos (GPU) para entrenar modelos de IA y esos componentes se encuentran entre los que más consumen energía en la industria de chips. Los modelos grandes requieren decenas de miles de GPU, y el programa de capacitación dura de semanas a meses, según un informe publicado por analistas de Morgan Stanley a principios de este mes.

Según Luccioni, uno de los misterios de las IA son las emisiones totales de carbono asociadas con las GPU. Nvidia, el mayor fabricante de GPU, dijo que cuando se trata de tareas de IA, pueden completar la tarea más rápidamente, haciéndolas más eficientes en general.

Te puede Interesar  Colapso energético y cambio climático ¿Cuál es la solución?

“El uso de GPU para acelerar la IA es mucho más rápido y eficiente que los CPU: por lo general, 20 veces más eficiente energéticamente para ciertas cargas de trabajo de IA y hasta 300 veces más eficiente para los modelos de lenguaje grande que son esenciales para la IA generativa”, sostuvo la empresa.

Si bien Nvidia ha revelado sus emisiones directas e indirectas relacionadas con la energía, no ha revelado todas las emisiones a las que responde indirectamente, dijo Luccioni, quien solicitó esos datos para su investigación.

Cuando Nvidia comparta esa información, Luccioni cree que las GPU quemarán tanto como las emisiones totales de un país pequeño. Ella dijo: “Va a ser una locura”

Compromisos netos cero

Las empresas de IA también trabajan constantemente en mejoras que los hagan funcionar de manera más eficiente. Microsoft, Google y Amazon, las compañías de nube más grandes de EE.UU., tienen compromisos de carbono negativo o neutral. 

Google afirmó en un comunicado que está buscando emisiones netas cero en todas sus operaciones para 2030, con el objetivo de operar su oficina y centros de datos completamente con energía libre de carbono. La compañía también ha utilizado IA para mejorar la eficiencia energética en sus centros de datos, con la tecnología controlando directamente el enfriamiento en las instalaciones.

OpenAI citó el trabajo que ha realizado para hacer que la interfaz de programación de aplicaciones para ChatGPT sea más eficiente, reduciendo el uso de electricidad y los precios para los clientes. “Nos tomamos muy en serio nuestra responsabilidad de detener y revertir el cambio climático, y pensamos mucho en cómo hacer el mejor uso de nuestra potencia informática”, dijo un portavoz de OpenAI.

Y continuó, “OpenAI se ejecuta en Azure y trabajamos en estrecha colaboración con el equipo de Microsoft para mejorar la eficiencia y nuestra huella para ejecutar modelos de lenguaje grandes”.

Microsoft señaló que está comprando energía renovable y tomando otras medidas para cumplir con su objetivo previamente anunciado de ser carbono negativo para 2030. “Como parte de nuestro compromiso de crear un futuro más sostenible, Microsoft está invirtiendo en investigación para medir el uso de energía y el impacto del carbono de la inteligencia artificial mientras trabaja en formas de hacer que los sistemas grandes sean más eficientes, tanto en capacitación como en aplicación”, sostuvieron de la empresa.

“Obviamente, a estas empresas no les gusta revelar qué modelo están usando y cuánto carbono emite”, dijo Roy Schwartz, profesor de la Universidad Hebrea de Jerusalén, quien se asoció con un grupo de Microsoft para medir la huella de carbono de una gran modelo de IA.

About The Author

Compartí esta noticia !

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Categorías

Solverwp- WordPress Theme and Plugin