Probablemente no lo sabías o tal vez no lo habías pensado, pero la Inteligencia Artificial requiere agua y mucha para funcionar.
El dato lo arrojó el profesor de la PUC Dr. Ricardo Salazar González en una editorial para Diario Concepción. “Cada vez que haces cinco o más preguntas a ChatGPT, se consume al menos medio litro de agua”, afirmó el docente.
Esta afirmación gatilló nuestro interés por este tema y el descubrimiento fue increíble. Hay una preocupación creciente en el mundo entero por la curva de crecimiento de utilización de estos chats de IA, que de paso están elevando de manera preocupante el consumo de energía.
El Diario El País, publicó una nota donde las grandes empresas incluso ya están pensando construir sus propias centrales nucleares para poder abastecer de energía a estos sistemas.
¿Qué responde la Inteligencia Artificial a esta problemática?
Nos pareció interesante que fuera la propia IA quien respondiera este tema. Esta fue parte de nuestra conversación. Utilizamos el Chat más conocido GPT.
Esto nos respondió a la pregunta sobre si tenía información sobre los consumos de energía de la IA.
- ¡Qué interesante! El consumo de energía en inteligencia artificial es un tema crucial, especialmente con el crecimiento exponencial del uso de modelos de aprendizaje profundo. ¿Hay algún aspecto específico que te gustaría explorar o necesitas información general para tu artículo?
- Quisiera saber ¿Cuánta energía consumes tu para contestar esta pregunta?
- Responde Chat GPT: El entrenamiento de un modelo de IA a gran escala puede consumir miles de megavatios-hora. Por ejemplo, se estima que entrenar un modelo como GPT-3 requirió aproximadamente 1,287 MWh, lo que equivale al consumo anual de energía de unas 120 casas en Estados Unidos. Cada vez que se utiliza un modelo entrenado para realizar una tarea (como responder preguntas o generar texto), el consumo de energía varía según la complejidad de la tarea y el tamaño del modelo. En promedio, se estima que la inferencia puede consumir entre 0.1 y 1 kWh por 1000 inferencias, dependiendo del hardware utilizado y la optimización del modelo. Un modelo de IA que realiza cientos de miles de inferencias diariamente podría consumir una cantidad significativa de energía, en algunos casos comparable al consumo diario de energía de varias decenas de hogares. Para poner esto en perspectiva, el consumo de energía para generar una respuesta puede ser comparable al de encender una bombilla LED durante unos pocos segundos.