OpenAI pierde millones por culpa de los «por favor» y «gracias»: el insólito costo oculto de usar ChatGPT con modales, según Sam Altman

OpenAI pierde millones por culpa de los «por favor» y «gracias»: el insólito costo oculto de usar ChatGPT con modales, según Sam Altman

Hablar con educación al chatbot puede parecer inofensivo, pero cada palabra extra implica más consumo de energía, más procesamiento… y más gastos para la empresa detrás de la inteligencia artificial.

¿Eres de los que le escribe a ChatGPT con un “por favor” al inicio y un “gracias” al final? No estás solo. La mayoría de los usuarios cree que tratar bien a la inteligencia artificial no solo es una cuestión de buenos modales, sino también una forma de obtener mejores respuestas. Incluso hay quienes bromean diciendo que, si algún día las máquinas se rebelan, serán indulgentes con quienes las trataron bien.

¿Eres de los que le escribe a ChatGPT con un “por favor” al inicio y un “gracias” al final? No estás solo. La mayoría de los usuarios cree que tratar bien a la inteligencia artificial no solo es una cuestión de buenos modales, sino también una forma de obtener mejores respuestas. Incluso hay quienes bromean diciendo que, si algún día las máquinas se rebelan, serán indulgentes con quienes las trataron bien.

Pero lo que pocos saben es que esa cortesía tiene un precio. Y uno bastante alto. Según Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, cada “hola”, “por favor” y “gracias” que se añade a una consulta no solo extiende el mensaje, sino que encarece el proceso. “Decenas de millones de dólares bien gastados”, dijo con ironía al responder en X a un usuario que le preguntó por el impacto económico de la amabilidad.

¿La educación representa un gasto energético?
El motivo está en cómo funciona el modelo. ChatGPT no interpreta las frases como lo haría una persona, sino que las divide en pequeñas unidades llamadas tokens (palabras o fragmentos de palabras). Cuantos más tokens contiene un mensaje, mayor es el esfuerzo computacional que debe realizar el sistema. Eso se traduce en más uso de GPU, mayor carga sobre los servidores y, en consecuencia, más consumo eléctrico.

Por ejemplo, una instrucción como: “¿Podrías ayudarme a entender este texto, por favor? Te lo agradecería mucho”, exige mucho más procesamiento que una simple orden como: “Explícalo fácil”. En términos técnicos, la cortesía implica mayor gasto energético.

Según Epoch AI, cada consulta promedio a ChatGPT consume unos 0,3 vatios-hora de electricidad. Puede parecer poco, pero al multiplicarlo por los 365 mil millones de solicitudes anuales que, según OpenAI, recibe el sistema, el resultado es abrumador.

Un informe de BestBrokers calcula que el consumo energético total de ChatGPT podría superar los 1.000 gigavatios-hora al año, una cifra similar a la de algunos países pequeños. Y esto no es un caso aislado: la Agencia Internacional de la Energía advierte que este tipo de demanda, impulsada por la inteligencia artificial, podría duplicar las emisiones del sector en la próxima década si no se controla su impacto.

Por ahora, las máquinas no tienen sentimientos. Pero sí tienen un contador de energía en constante movimiento. Y cada palabra extra que se escribe por cortesía, aunque parezca inofensiva, se convierte en parte de una factura millonaria que alguien —en este caso, OpenAI— debe pagar.

Fuentes: Diario RPP.