
Una frase tan común como “gracias” puede parecer inofensiva en una conversación con un chatbot, pero detrás de esa cortesía se esconde una cadena de procesos que consume recursos a gran escala. Lejos de ser un simple gesto de amabilidad digital, ese agradecimiento representa parte de un sistema que requiere potentes infraestructuras tecnológicas y una cantidad considerable de energía.
La advertencia provino del propio Sam Altman, director ejecutivo de OpenAI, quien reconoció públicamente que los intercambios educados con ChatGPT implican costos millonarios en electricidad.
A través de una publicación en la red social X, Altman señaló que frases como “por favor” o “gracias”, aunque breves, activan respuestas automáticas que demandan energía computacional, acumulando gastos elevados a gran escala.

La razón de Sam Altman para pedir mesura con ChatGPT
Detrás del funcionamiento de ChatGPT operan modelos de lenguaje masivo que se sostienen en centros de datos con altísimo consumo eléctrico. Cada vez que un usuario escribe un mensaje, por más breve que sea, se encienden cientos o miles de unidades de procesamiento gráfico para procesar la respuesta.
Según estimaciones citadas por Futurism, una sola respuesta de un chatbot puede consumir hasta 0.14 kilovatios hora. Esto equivale a mantener encendidas 14 lámparas LED durante una hora. Aplicado a millones de usuarios semanales, el impacto energético deja de ser anecdótico y pasa a convertirse en una preocupación real.
La lógica es simple. Cada mensaje genera una carga de trabajo. Y si el usuario decide añadir una despedida cordial o un agradecimiento, el sistema responde. Esa respuesta, aunque parezca trivial, vuelve a activar la infraestructura y multiplica el consumo.

Qué recursos consume la IA
A esto se suma otro aspecto poco conocido. Los centros de datos no solo requieren electricidad. También consumen grandes volúmenes de agua para enfriar los sistemas que soportan estos modelos de lenguaje. Genbeta señala que entre 10 y 50 interacciones pueden representar el uso de aproximadamente dos litros de agua.
Con más de 300 millones de usuarios activos a la semana, según cifras recientes de OpenAI, el resultado es una huella ambiental acumulativa difícil de ignorar.
El uso de expresiones amables con una máquina no responde a una necesidad funcional. El sistema no mejora su rendimiento ni ajusta su respuesta en función del tono del usuario. Aun así, muchos lo hacen por hábito, por educación o por simple simpatía.
Una encuesta publicada por el New York Post reveló que el 67 por ciento de los usuarios estadounidenses utiliza expresiones como “por favor” y “gracias” cuando interactúa con asistentes virtuales. Un 12 por ciento incluso reconoció que lo hace de forma preventiva, por si algún día la inteligencia artificial se vuelve autónoma.

Aunque pueda parecer un gesto inocente, esa cortesía tiene efectos medibles. La creciente adopción de chatbots basados en modelos generativos está generando presión sobre los sistemas eléctricos globales.
Qué positivo hay en responderle “gracias” a la IA
Actualmente, los centros de datos representan cerca del 2 por ciento del consumo mundial de electricidad. Ese porcentaje podría aumentar de manera significativa en los próximos años si la tendencia continúa.
Kurtis Beavers, responsable del equipo Copilot en Microsoft, señaló en una entrevista que la amabilidad puede generar respuestas más respetuosas. Desde el punto de vista del diseño conversacional, ese tipo de lenguaje puede mejorar la experiencia de uso, aunque no optimiza el funcionamiento del sistema en términos energéticos.
El debate está abierto. Ser educado con una máquina puede resultar en respuestas más agradables, pero también contribuye a una cadena de consumo de energía y recursos difícil de justificar desde una perspectiva ambiental.
Cada palabra digitada en una conversación con inteligencia artificial activa una infraestructura compleja que consume electricidad, agua y potencia de cálculo. Por eso, si bien la cortesía digital no está prohibida, cada vez son más quienes se preguntan si tiene sentido seguir usándola cuando el costo de una simple frase puede medirse en dólares y emisiones.
Últimas Noticias
Cómo unirte a una red Wi-Fi sin saber la clave desde tu móvil
Una de las alternativas más prácticas es utilizar el código QR que incorporan muchos routers modernos

Meta pagará 140 millones de dólares a una startup para usar su IA de generación de imágenes
Black Forest Labs fue fundada apenas hace un año por especialistas que previamente participaron en la creación del generador de imágenes

Amazon Music lanza playlists semanales con IA
La función ‘Weekly Vibe’ está disponible para usuarios en Estados Unidos y se activa automáticamente dentro de la aplicación

Nvidia lanzará un nuevo chip de IA para generar video y software
El desarrollo de chips cada vez más avanzados ha posicionado a Nvidia como la empresa con mayor valor de mercado a nivel global

Nova Launcher cierra tras más de una década en Android
Desde su aparición en 2011, la aplicación se ha consolidado como una herramienta clave para quienes desean una experiencia personalizada en dispositivos móviles
