Investigadores imitan la estructura del cerebro para mejorar el rendimiento de la IA

El centro del estudio radica en el desarrollo de técnicas que buscan reflejar la forma en que las neuronas establecen vínculos dentro del cerebro humano

Guardar
La investigación se publicó en
La investigación se publicó en la revista Neurocomputing. (Imagen Ilustrativa Infobae)

Un innovador proyecto llevado a cabo por expertos de la Universidad de Surrey ha demostrado que emular la manera en que el cerebro humano conecta sus neuronas puede ofrecer mejoras sustanciales en el rendimiento de la inteligencia artificial.

La investigación, publicada en la revista Neurocomputing, detalla cómo este nuevo enfoque permite optimizar redes neuronales artificiales, reduciendo la demanda de energía y potenciando la precisión, sin sacrificar la eficiencia ni la sostenibilidad.

Inteligencia artificial inspirada en conexiones cerebrales

El centro del estudio radica en el desarrollo de técnicas que buscan reflejar la forma en que las neuronas establecen vínculos dentro del cerebro humano. El método denominado “mapeo topográfico disperso” se caracteriza por organizar las conexiones de cada neurona únicamente con otras que se ubiquen cerca o resulten afines desde el punto de vista funcional, siguiendo un patrón similar al ordenamiento eficiente observado en el cerebro natural.

La investigación destaca el impacto
La investigación destaca el impacto ambiental y operativo de los modelos generativos actuales de IA. (Imagen Ilustrativa Infobae)

Este planteamiento difiere del modelo clásico en que prescinde de la multiplicidad excesiva de conexiones, característica habitual en las redes neuronales convencionales empleadas en IA.

El Dr. Roman Bauer, profesor titular y uno de los responsables del estudio, comunicó: “Nuestro trabajo demuestra que los sistemas inteligentes pueden construirse de forma mucho más eficiente, reduciendo la demanda energética sin sacrificar el rendimiento”.

De este modo, los investigadores no solo lograron disminuir la carga energética implicada en el funcionamiento y entrenamiento de grandes modelos de inteligencia artificial como ChatGPT, sino que también optimizaron la arquitectura interna de estas soluciones tecnológicas.

Mejoras en eficiencia y sostenibilidad para grandes modelos de IA

La investigación pone de relieve el impacto medioambiental y operacional inherente a los modelos generativos contemporáneos de IA. En ese sentido, el Dr. Bauer dijo lo siguiente: “El entrenamiento de muchos de los grandes modelos de IA populares de hoy en día puede consumir más de un millón de kilovatios-hora de electricidad. Eso simplemente no es sostenible al ritmo al que sigue creciendo la IA”.

La investigación detalla cómo este
La investigación detalla cómo este nuevo enfoque permite optimizar redes neuronales artificiales. (Imagen Ilustrativa Infobae)

El diseño basado en mapeo topográfico disperso, al suprimir conexiones innecesarias, genera avances notables en materia de eficiencia eléctrica para estas plataformas, aspecto crítico ante el crecimiento exponencial del sector.

El modelo propuesto se desmarca de los sistemas tradicionales, que suelen construir redes omnipresentes para maximizar la potencia de cálculo, sin prestar atención a la cantidad de energía requerida. Mediante la emulación de los principios de organización neuronal biológica, la IA desarrollada consigue mantener la precisión y reducir el consumo energético, hecho que la posiciona como una opción más sostenible.

El método de “poda” y la evolución hacia sistemas neuromórficos

La investigación no solo se limitó a replicar la organización cerebral. El equipo ideó una versión perfeccionada conocida como Enhanced Topographical Sparse Mapping o Mapeo Topográfico Disperso Mejorado, que introduce un proceso de “poda” inspirado en la biología. Esta fase elimina conexiones que resultan poco útiles durante el aprendizaje, imitando la manera en que el cerebro humano refina sus enlaces sinápticos conforme adquiere nuevas aptitudes y conocimientos.

El “mapeo topográfico disperso” organiza
El “mapeo topográfico disperso” organiza las conexiones neuronales solo con vecinas próximas. (Imagen Ilustrativa Infobae)

Este mecanismo actúa durante la etapa de entrenamiento del sistema de IA, incrementando aún más la especificidad de las conexiones y mejorando tanto la eficiencia como el rendimiento. La meta es dotar de flexibilidad y adaptación a las redes neuronales artificiales, otorgándoles la capacidad de evolucionar su arquitectura interna a medida que procesan nueva información.

Más allá de la inteligencia artificial generativa, los investigadores de la Universidad de Surrey exploran la aplicabilidad de este sistema en computadoras neuromórficas, dispositivos diseñados expresamente para simular tanto la arquitectura como la funcionalidad del cerebro humano.

Este enfoque, que parte de la observación de sistemas biológicos para resolver retos de la informática avanzada, adquiere relevancia ante los problemas de consumo de energía y escalabilidad en IA.