La contaminación que produce ChatGPT: por cada conversación la IA “consume” una botella de agua. (Foto: Archivo)
La contaminación que produce ChatGPT: por cada conversación la IA “consume” una botella de agua. (Foto: Archivo)
Redacción EC

Recientemente, un estudio reveló que necesitó 700.000 litros de agua para entrenar al anterior modelo lingüístico de . Estos resultados fueron un recordatorio de la otra cara —no tan beneficiosa— de las .

Según el medio Futurism, un equipo de investigadores de las universidades estadounidenses de Colorado y Texas han descubierto que la inteligencia artificial también necesita muchísima agua para refrigerar sus centros de datos.

La excesiva cantidad de recursos naturales que se necesitan para desarrollar estas tecnologías abren paso a un problema creciente en el cuidado del medio ambiente. OpenAI, por ejemplo, necesitó generar un consumo energético de 1.300.000 kWh para poder entrenar el modelo lingüístico con el que funciona su tecnología.

MIRA: Veinticinco avatares generados por IA “caminaron” en una ciudad virtual y esto fue lo que pasó

GPT-3, el anterior modelo del chatbot, consumió al rededor de unos 700.000 litros de agua. Según los investigadores, esta agua sería la suficiente para producir “370 coches BMW o 320 vehículos eléctricos Tesla”.

Otro dato preocupante que dieron a conocer los científicos es que, aparentemente, ChatGPT necesitaría “beber” una botella de medio litro de agua por cada conversación que tenga con cada usuario. Esto equivaldría a millones de litros consumidos por la IA, teniendo en cuenta su increíble popularidad en Internet.

Contenido sugerido

Contenido GEC