comscore
Tecnología

Decir “por favor” y “gracias” a ChatGPT tiene millonario costo, ¿por qué?

La amabilidad con ChatGPT no es gratis. El CEO de OpenAI reveló las razones, lee la nota y conócelas.

Decir “por favor” y “gracias” a ChatGPT tiene millonario costo, ¿por qué?

La amabilidad con ChatGPT no es gratis. // Foto: Colprensa

Compartir

ChatGPT es un chatbot de inteligencia artificial desarrollado por OpenAI que se basa en el modelo de lenguaje GPT (Generative Pre-trained Transformer), este permite que los usuarios interactúen con como si mantuvieran una conversación. ChatGPT puede responder a preguntas aclaratorias, admitir errores, cuestionar las premisas que considera incorrectas y rechazar solicitudes inapropiadas.

Muchos usuarios, por cortesía o simple amabilidad, suelen decir “por favor” y “gracias” cuando le piden algo a ChatGPT. Lo que muchos no saben es que esos gestos tan educados también tienen un costo, y no precisamente simbólico.

Cada vez que ChatGPT responde, se consume energía eléctrica. Y cuando las respuestas incluyen palabras adicionales por simple cortesía, el gasto también aumenta. De hecho, ese “pequeño detalle” le representa a OpenAI una suma millonaria en costos operativos. Le puede interesar: ¿Cuánta agua consume generar imágenes con IA? Este es el alto costo

ChatGPT de OpenAI. // Foto: EFE
ChatGPT de OpenAI. // Foto: EFE

Recientemente, un usuario en la red social X, antes Twitter, le hizo una curiosa pregunta al CEO de OpenAI, Sam Altman: “¿Me pregunto cuánto dinero ha perdido OpenAI en costos de electricidad porque la gente dice “por favor” y “gracias” a sus modelos?”

Altman respondió con humor, estimando que se han gastado “decenas de millones de dólares bien gastados”, aunque añadió con algo de ironía: “nunca se sabe”.

De acuerdo con el medio La Opinión Austral, cada palabra escrita e interpretada por ChatGPT tiene un costo energético asociado. Frases corteses, aunque breves, exigen que el modelo de lenguaje realice un proceso computacional para analizarlas, comprender su contexto y responder adecuadamente. Esto aumenta la carga de trabajo de los servidores, lo que se traduce en un mayor consumo de energía eléctrica.

¿Por qué usar IA consume tanta energía?

Le preguntamos a ChatGPT y respondió que, la inteligencia artificial consume mucha energía por:

1. Procesamiento intensivo

Los modelos de IA como ChatGPT requieren enormes cantidades de poder computacional para funcionar. Cada vez que haces una pregunta, se activan decenas o cientos de miles de operaciones matemáticas complejas en servidores potentes (llamados GPUs o TPUs), que trabajan intensamente para generar una respuesta coherente en tiempo real. Lea también: ¿Qué datos almacena ChatGPT y cómo proteger tu privacidad?

2. Centros de datos gigantes

Las respuestas que da la IA no se generan en tu dispositivo, sino en enormes centros de datos, llenos de servidores que funcionan las 24 horas del día. Estos servidores requieren electricidad no solo para funcionar, sino también para mantenerse refrigerados y evitar el sobrecalentamiento.

3. Entrenamiento inicial

Antes de que una IA como ChatGPT pueda hablar contigo, ha pasado por un proceso de entrenamiento que consume aún más energía. Ese entrenamiento implica procesar millones de textos, lo cual toma semanas o meses con miles de máquinas trabajando al mismo tiempo.

4. Uso masivo

ChatGPT no es una herramienta usada por unas pocas personas: millones de usuarios la consultan a diario. Aunque una sola conversación puede parecer liviana, sumadas todas las interacciones, el consumo energético se vuelve enorme.

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News