A medida que se multiplican los centros de datos, fundamentales para la vida digital, la huella de carbono del sector tecnológico aumenta, pero la inteligencia artificial (IA) podría reducirla, según sus promotores.
Hay mucho en juego: para 2025 se prevé que el sector consuma el 20% de la electricidad producida en todo el mundo y sea responsable del 5,5% de las emisiones totales de carbono.
Además, es probable que la proliferación de usos y aplicaciones cada vez más demandantes de energía acelere aún más este ritmo.
“La caja de Pandora está abierta”, reconoció Arun Iyengar, director ejecutivo de Untether AI, empresa que busca fabricar semiconductores de menor consumo energético para la IA.
“Podemos utilizar la IA para mejorar las aplicaciones y hacerlas compatibles con los requisitos climáticos, o no hacer nada y sufrir las consecuencias”, afirmó.
La transformación de los servidores de datos del mundo para que estén preparados para la IA está en marcha, un proceso que un ejecutivo de Google calificó como “un punto de inflexión en la informática que ocurre una vez en una generación”.
El desarrollo de herramientas de IA generativa, como el chatbot GPT-4, base del éxito de ChatGPT, o el Palm2 de Google, para Bard, implica dos etapas, ambas de gran consumo energético: la del “entrenamiento” y la de la ejecución.
Investigadores de la Universidad de Massachusetts que probaron estas herramientas en 2019 descubrieron que entrenar un solo modelo de IA puede representar una cantidad de emisiones similar a las de cinco automóviles a lo largo de su vida útil.
Un estudio más reciente de Google y la Universidad de California Berkeley estimó que el adiestramiento de GPT-3 supuso emisiones de 552 toneladas de carbono, tanto como conducir un automóvil por dos millones de kilómetros.
El modelo de última generación de OpenAI, GPT-4, está entrenado con alrededor de 570 veces más parámetros (o entradas) que su predecesor. La escala de estos sistemas no hará sino crecer a medida que la IA aumente de potencia y ubicuidad. En el centro de este desarrollo se encuentran los procesadores gráficos, o GPU, fabricados por Nvidia, que consumen mucha energía.
Una vez completado el entrenamiento, el uso de herramientas de IA generativa a través de la nube también requiere energía a través del consumo vinculado a las peticiones recibidas. Y este gasto supera con creces al del entrenamiento.
Fuente y fotos tynmagazine.com/
También puede leer
Artificial Intelligence: inversión en IA podría llegar hasta US$200 mil millones