
El avance de la inteligencia artificial (IA) trajo consigo un crecimiento exponencial en su capacidad, pero también un gasto energético cada vez mayor. De acuerdo con diversas estimaciones, una consulta de máxima longitud en Chat GPT puede consumir aproximadamente el doble de energía que un hogar promedio de Estados Unidos en un minuto.
Al multiplicar este consumo por miles de millones de consultas diarias y sumar el intenso proceso de entrenamiento que requieren los modelos de IA, el impacto energético se vuelve considerable. Es por esto que, los investigadores buscan alternativas para que la IA sea más sostenible y reduzca su huella de carbono.
Un estudio reciente, liderado por Tianyi Chen, profesor asociado de ingeniería eléctrica e informática en Cornell Tech, junto a colaboradores de IBM y el Rensselaer Polytechnic Institute, explora una solución innovadora: la computación analógica en memoria (AIMC). Esta tecnología emplea chips analógicos para almacenar y procesar datos de manera eficiente. A diferencia de las arquitecturas tradicionales, que requieren transferir información de forma constante entre memoria y procesadores, la AIMC permite que los datos permanezcan en un solo lugar.
“Esto aprovecha la física para realizar cálculos matemáticos de manera instantánea, sin necesidad de mover los datos, y podría reducir el consumo energético hasta mil veces, haciendo sostenible la próxima generación de IA”, explicó Chen, quien también forma parte de Cornell Engineering.

Computación analógica en memoria: una alternativa prometedora
La computación analógica en memoria se presenta como una vía para disminuir drásticamente el gasto energético de la IA. Esta tecnología permite que los chips analógicos ejecuten modelos de IA con un consumo mucho menor, una vez que fueron entrenados.
Sin embargo, el proceso de entrenamiento fue una limitación importante. Chen indicó: “El hardware analógico funciona de manera imperfecta. Los pulsos eléctricos que actualizan los parámetros del modelo pueden ser desiguales o verse alterados por el ruido, lo que provoca gradientes inexactos y afecta el aprendizaje”.
Para superar este obstáculo, el equipo de Chen desarrolló una versión analógica de uno de los algoritmos más utilizados en el entrenamiento de IA: la “retropropagación”. El resultado es una variante llamada “Residual Learning”, que corrige de forma sistemática las imperfecciones del hardware y garantiza que el entrenamiento se mantenga en el camino correcto.

Residual Learning añade una capa extra que monitorea y corrige las imperfecciones en tiempo real. De esta manera, es posible entrenar modelos de IA con precisión similar a los sistemas digitales, pero con un consumo energético significativamente inferior.
Chen afirmó: “Compensamos dinámicamente las imperfecciones naturales del hardware para que el modelo se entrene con una precisión comparable a la del hardware digital, pero a una fracción del costo energético”.
Esta innovación fue presentada por el equipo en una exposición oral en diciembre durante la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural (NeurIPS) 2025. El método no solo aborda las fallas típicas del hardware analógico, sino que también introduce un enfoque sistemático para mantener la estabilidad y la imparcialidad durante el entrenamiento.

Hacia una inteligencia artificial más eficiente
El avance logrado por el equipo de Chen podría tener un impacto considerable en la forma en que se desarrolla y utiliza la IA. Permitiría entrenar y ajustar modelos de gran escala utilizando mucha menos energía y con costos reducidos.
Esto haría viables aplicaciones que actualmente resultan poco prácticas para sistemas con alto consumo, como dispositivos médicos, tecnología vestible, sensores industriales y robots autónomos. Además, la innovación podría allanar el camino para la creación de nuevas arquitecturas de modelos de IA específicamente diseñadas para hardware analógico.
Como próximos pasos, el equipo planea adaptar la metodología a modelos de código abierto y explorar colaboraciones con la industria para escalar la tecnología. Chen concluyó: “Esto abre la puerta a modelos mucho más eficientes energéticamente que los actuales. Nuestra investigación podría impulsar un cambio real en la construcción y utilización de la inteligencia artificial”.
Últimas Noticias
Meta, TikTok y Snapchat van a juicio por primera vez: son acusados de generar adicción en niños
Las apps niegan que sus productos sean adictivos y argumentan que no existen pruebas concluyentes sobre el impacto directo en la salud mental

Mozilla activa funciones con IA para todos, pero dejó un botón para apagar cualquier seguimiento del navegador
Firefox también incorpora funciones como traducción automática y generación automática de texto alternativo en archivos PDF

Netflix bloquea su app este febrero de 2026 en estos televisores
Modelos de Apple TV, Samsung, LG, Sony, además de varios teléfonos inteligentes perderán soporte para la aplicación, obligando a los usuarios a buscar alternativas o renovar sus dispositivos

¿Quieres invertir en criptomonedas? Conoce su valor y cómo ha fluctuado en las últimas horas
Así se han movido las monedas digitales en las últimas horas

Lady Gaga sorprendió en los Grammy con un robot de compañía: la grabó y fue todo un éxito
La noche también resultó triunfal para la artista en cuanto a reconocimientos. “Mayhem” obtuvo el premio a Mejor Álbum Pop Vocal, y “Abracadabra” fue distinguida como la Mejor Grabación Pop Dance


