La IA está revolucionando nuestro mundo, desde la forma en que interactuamos con la tecnología hasta la manera en que se desarrollan nuevas industrias. Sin embargo, este progreso tiene un coste oculto: el consumo de energía. Los grandes modelos de lenguaje como Gemini, Bard o Midjourney, que impulsan a muchos de los bots de IA más populares, necesitan de una gran cantidad de energía para funcionar.
El entrenamiento:
Uno de los aspectos que más energía consume es el entrenamiento de estos modelos. Este proceso implica procesar enormes cantidades de datos, lo que requiere de una gran infraestructura tecnológica. El Instituto de la Ingeniería de España (IIE), estima que OpenAI (creadora del ‘chatbot’ ChatGPT) necesitó hasta 78.437 kWh de electricidad para entrenar el modelo de lenguaje GPT-3,una cifra comparable al consumo de energía de un hogar medio en España 23
El funcionamiento:
Una vez puestos en marcha, estos modelos siguen consumiendo energía cuando se utilizan.
Cada vez que interactuamos con un chatbot o se solicita generar texto o imágenes, estás utilizando energía. Aunque la cantidad individual puede parecer pequeña, el impacto colectivo es significativo.
¿Qué podemos hacer para minimizar tal impacto?
– Utilizar la IA responsablemente: Acudir a ella solo cuando sea realmente necesario y evitar realizar solicitudes que se puedan solucionar con los buscadores «clásicos».
– Elegir modelos de IA más eficientes: Buscar sistemas que hayan sido diseñados para ser más eficientes energéticamente.
– Investigar, invertir y desarrollar tecnologías de IA que sean más eficientes energéticamente.
La IA es una herramienta poderosa que puede (y debe) usarse para el bien. Sin embargo, debemos asegurarnos de utilizarla de manera responsable. Al ser conscientes de su impacto energético, podemos tomar medidas para reducirlo, y así ayudar a crear un futuro más verde para la IA.