Investigadores de la USC Viterbi School of Engineering y la School of Advanced Computing desarrollaron neuronas artificiales que replican el comportamiento electroquímico complejo de células cerebrales biológicas. La innovación, documentada en Nature Electronics, representa un salto adelante en tecnología de computación neuromórfica. El desarrollo permitirá reducción del tamaño de chip por órdenes de magnitud, disminuirá su consumo energético por órdenes de magnitud, y podría avanzar la inteligencia artificial general. A diferencia de chips neuromórficos existentes que simulan digitalmente la actividad cerebral, las nuevas neuronas de USC utilizan procesos químicos y eléctricos reales para computar. En otras palabras, en lugar de simplemente imitar cómo funciona el cerebro, funcionan más como células cerebrales reales.
El trabajo fue liderado por el profesor Joshua Yang de Ingeniería Eléctrica y Computacional de USC, quien también lideró el trabajo en un artículo seminal sobre sinapsis artificiales hace más de una década. Yang es además Director del Centro de Excelencia en Computación Neuromórfica de USC. Yang y su equipo desarrollaron un nuevo tipo de neurona artificial basada en lo que llaman "memristor difusivo." En lugar de usar el movimiento de electrones como los chips de silicio tradicionales, estas neuronas dependen del movimiento de átomos para procesar información. El artículo de Nature Electronics explora cómo tales neuronas artificiales pueden habilitar una nueva clase de chips que complementen y aumenten las tecnologías basadas en silicio actuales, que alimentan casi toda la electrónica moderna y dependen del movimiento de electrones para computación.
Los dispositivos difusivos introducidos por Yang y colegas para construir las neuronas dependerían del movimiento de átomos. Tales neuronas pueden habilitar chips más nuevos que operarían más similarmente a cómo funciona el cerebro, serían más eficientes energéticamente y podrían prestarse para inaugurar lo que se conoce como inteligencia artificial general (AGI). En el proceso biológico, el cerebro usa señales tanto eléctricas como químicas para impulsar la acción en el cuerpo. Las neuronas o células nerviosas comienzan con señales eléctricas que cuando alcanzan el espacio o brecha al final de la neurona llamado sinapsis, las señales eléctricas se convierten en señales químicas para transmitir y procesar la información. Una vez que la información cruza a la siguiente neurona, algunas de esas señales se convierten nuevamente en señales eléctricas a través del cuerpo de la neurona. Este es el proceso físico que Yang y colegas han logrado emular con alta fidelidad en varios aspectos críticos.
❌ Neuronas Artificiales Convencionales
Diseño basado en transistores: Requieren decenas a cientos de transistores para emular una sola neurona biológica
Movimiento de electrones: Utilizan la lógica tradicional de silicio basada en flujo de electrones
Alto consumo energético: Gastan energía significativa incluso en operaciones básicas de activación neuronal
Simulación digital: Imitan el comportamiento cerebral mediante software sin replicar procesos físicos reales
Huella grande: Ocupan espacio considerable en el chip limitando densidad de neuronas por área
✓ Neuronas con Memristor Difusivo
Diseño 1M1T1R compacto: Un memristor difusivo, un transistor y un resistor - espacio de un solo transistor cuando se integran verticalmente
Movimiento de iones: Utilizan dinámicas iónicas como el cerebro real (plata en lugar de potasio/sodio/calcio)
Eficiencia extrema: Consumo energético alcanza nivel de picojoules por impulso, potencial de attojoules con escalamiento
Emulación física: Replican procesos electroquímicos reales del cerebro en lugar de simularlos digitalmente
Huella mínima: Región activa de ~4 μm² permite densidades neuronales órdenes de magnitud mayores
Arquitectura del memristor difusivo: iones de plata replicando dinámica cerebral
La gran ventaja de las neuronas artificiales basadas en memristor difusivo es que requieren solo el espacio de un solo transistor, en lugar de las decenas a cientos usadas en diseños convencionales. En particular, en el modelo biológico, los iones o partículas cargadas ayudan a generar las señales eléctricas para causar acción dentro de la neurona. En el cerebro humano, tales procesos dependen de químicos (por ejemplo, iones) como potasio, sodio o calcio para forzar esta acción. En el artículo actual, Yang, quien es Director del Centro de Excelencia en Computación Neuromórfica de USC, usa iones de plata en óxido para generar el pulso eléctrico y emular los procesos para realizar computación para actividades como movimiento, aprendizaje y planificación. "Aunque no son exactamente los mismos iones en nuestras sinapsis y neuronas artificiales, la física que gobierna el movimiento iónico y las dinámicas son muy similares," explica Yang.
Yang explica: "La plata es fácil de difundir y nos da las dinámicas que necesitamos para emular el biosistema de modo que podamos lograr la función de las neuronas, con una estructura muy simple." El nuevo dispositivo que puede habilitar un chip similar al cerebro se llama "memristor difusivo" debido al movimiento iónico y la difusión dinámica que ocurre con el uso de plata. Agrega que el equipo eligió utilizar dinámicas iónicas para construir sistemas inteligentes artificiales "porque eso es lo que sucede en el cerebro humano, por una buena razón y dado que el cerebro humano es el 'ganador en la evolución, el motor inteligente más eficiente.'" Este diseño, llamado "memristor difusivo," permite que cada neurona artificial ocupe el espacio de solo un transistor, en lugar de las docenas o cientos usadas en diseños convencionales.
Una neurona artificial de impulsos integrada, con funcionalidad neuronal rica, huella de un solo transistor y bajo consumo energético para sistemas de computación neuromórfica, puede crearse apilando un memristor difusivo y un resistor encima de un transistor. La región activa es de alrededor de 4 μm² para cada neurona. Los chips del arreglo de estas neuronas integradas se fabrican en la sala limpia de la universidad. La neurona 1M1T1R (un memristor, un transistor, un resistor) exhibe seis características neuronales clave: integración con fuga, disparo de umbral, conexión en cascada, plasticidad intrínseca, período refractario y estocasticidad. El consumo energético de la neurona 1M1T1R alcanza el nivel de picojoules por impulso y podría alcanzar niveles de attojoules por impulso con mayor escalamiento.
⚙️ Proceso de Funcionamiento: Emulación del Ciclo Neuronal Biológico
Seis características neuronales biológicas clave replicadas
La neurona artificial basada en un memristor difusivo, un transistor y un resistor puede exhibir seis características neuronales biológicas clave cuando se integran verticalmente. Estas características incluyen integración con fuga, disparo de umbral, conexión en cascada, plasticidad intrínseca, período refractario y estocasticidad. La integración con fuga se refiere a cómo las neuronas biológicas acumulan señales entrantes a lo largo del tiempo, pero las señales se "fugan" o decaen si no se alcanza un umbral lo suficientemente rápido. El disparo de umbral significa que la neurona solo produce un impulso de salida cuando la entrada acumulada excede un umbral específico. La conexión en cascada permite que múltiples neuronas se conecten en secuencia, donde la salida de una neurona se convierte en la entrada de la siguiente.
La plasticidad intrínseca se refiere a la capacidad de la neurona para ajustar sus propias propiedades de excitabilidad basándose en la actividad pasada, un mecanismo fundamental del aprendizaje biológico. El período refractario es el tiempo después del disparo durante el cual la neurona no puede disparar nuevamente, lo que previene activación excesiva y permite tiempo de recuperación. La estocasticidad introduce variabilidad aleatoria en el comportamiento neuronal, reflejando el ruido inherente en sistemas biológicos que en realidad puede mejorar ciertas capacidades computacionales. La combinación de estas seis características en un dispositivo de huella de un solo transistor representa una replicación sin precedentes de funcionalidad neuronal biológica en hardware artificial.
Yang dice que el problema principal con los sistemas computacionales actuales no es potencia, sino eficiencia. "No es que nuestros chips o computadoras no sean lo suficientemente potentes para lo que están haciendo. Es que no son lo suficientemente eficientes. Usan demasiada energía," explica. Las computadoras modernas están diseñadas para procesar cantidades masivas de datos, no para aprender de pequeños ejemplos de la manera en que lo hacen los humanos. "Una manera de impulsar tanto la eficiencia energética como de aprendizaje es construir sistemas artificiales que operen según principios observados en el cerebro," dice Yang. Ahora que los investigadores de USC han desarrollado neuronas artificiales compactas y capaces, su siguiente paso es integrar grandes números de ellas y probar qué tan cerca pueden coincidir con la capacidad de aprendizaje del cerebro.
🧠 Seis Características Neuronales Biológicas Replicadas
Eficiencia energética: de gigas a picos y atos
Esto es crítico, explica Yang: "No es que nuestros chips o computadoras no sean lo suficientemente potentes para lo que están haciendo. Es que no son lo suficientemente eficientes. Usan demasiada energía." Esto es particularmente relevante dado el nivel de energía necesario para ejecutar modelos de software grandes con una cantidad enorme de datos como aprendizaje automático para inteligencia artificial. La eficiencia de estos memristores difusivos incluye no solo la energía, sino el tamaño. Normalmente un teléfono inteligente tiene alrededor de 10 chips pero miles de millones de transistores o interruptores que controlan el encendido/apagado o los 0's y 1's que sustentan la computación. "En cambio [con esta innovación], solo usamos una huella de un transistor para cada neurona. Estamos diseñando los bloques de construcción que eventualmente nos llevan a reducir el tamaño del chip por órdenes de magnitud, reducir el consumo energético por órdenes de magnitud, para que pueda ser sostenible realizar IA en el futuro, con nivel similar de inteligencia sin quemar energía que no podemos sostener," dice Yang.
El consumo energético de la neurona 1M1T1R alcanza el nivel de picojoules por impulso y podría alcanzar niveles de attojoules por impulso con mayor escalamiento. Un picojoule es una billonésima de joule (10⁻¹² julios), mientras que un attojoule es una trillonésima de joule (10⁻¹⁸ julios). Para contexto, las computadoras tradicionales operan en la escala de milijoules a microjoules para operaciones equivalentes, lo que significa que estos memristores difusivos son potencialmente entre seis y doce órdenes de magnitud más eficientes. Esta diferencia dramática en eficiencia energética se debe fundamentalmente a que los memristores difusivos operan más similarmente a cómo funciona el cerebro humano, que es notoriamente eficiente energéticamente a pesar de su inmensa capacidad computacional.
El cerebro humano consume aproximadamente 20 vatios de potencia, aproximadamente lo mismo que una bombilla LED, mientras procesa información de manera extraordinariamente compleja incluyendo percepción sensorial, control motor, razonamiento abstracto y memoria. En contraste, los sistemas de inteligencia artificial actuales pueden requerir megavatios de potencia para tareas que un cerebro humano realiza sin esfuerzo. Esta brecha de eficiencia existe porque el silicio convencional usa arquitectura fundamentalmente diferente al cerebro: los chips de silicio separan memoria y procesamiento (arquitectura von Neumann), requiriendo movimiento constante de datos entre ubicaciones, mientras que el cerebro integra memoria y procesamiento en las mismas sinapsis y neuronas. Los memristores difusivos cierran esta brecha al emular la integración cerebral de memoria y procesamiento.
| Característica | Neuronas Convencionales (CMOS) | Neuronas con Memristor Difusivo (USC) |
|---|---|---|
| Componentes por neurona | 10-100+ transistores | 1 memristor + 1 transistor + 1 resistor (1M1T1R) |
| Huella física | ~100-1000 μm² | ~4 μm² (región activa) |
| Consumo energético | Nanojoules a microjoules por impulso | Picojoules actuales, attojoules potenciales |
| Principio de operación | Movimiento de electrones (lógica digital) | Movimiento de iones (dinámica electroquímica) |
| Emulación biológica | Simulación digital de comportamiento | Replicación física de procesos electroquímicos |
| Características neuronales | 2-3 características básicas | 6 características biológicas clave |
| Material iónico | N/A (basado en electrones) | Iones de plata en óxido |
| Integración vertical | Difícil con múltiples transistores | Posible, ocupa huella de 1 transistor |
Contexto histórico: de sinapsis artificiales (2012) a neuronas completas (2025)
Joshua Yang lideró el trabajo en un artículo seminal sobre sinapsis artificiales hace más de una década, estableciendo los fundamentos para el trabajo actual en neuronas artificiales completas. Las sinapsis artificiales fueron el primer componente crítico porque en el cerebro, las sinapsis son las conexiones entre neuronas donde ocurre el aprendizaje mediante fortalecimiento o debilitamiento de conexiones basándose en actividad. El trabajo original de Yang demostró que los memristores podían emular esta plasticidad sináptica, el cambio en la fuerza de conexión que sustenta el aprendizaje y la memoria. Sin embargo, las sinapsis solas no son suficientes para construir un sistema neuromorfico completo - también se necesitan neuronas que puedan integrar señales sinápticas múltiples, decidir cuándo disparar y generar impulsos de salida.
Los investigadores de USC han estado desarrollando tales dispositivos y arreglos para aplicaciones en computación futura. Podrían habilitar aceleradores de hardware novedosos para soportar aprendizaje automático con órdenes de magnitud mayor eficiencia energética y de área. Además, porque tales dispositivos comparten similitudes intrínsecas con sinapsis, neuronas y dendritas a nivel de física, tienen promesa de habilitar inteligencia artificial bio-realista con inteligencia mucho más avanzada. El equipo también examinó cómo defectos diminutos en memristores en realidad los hacen funcionar más eficientemente. El trabajo pasado en los dispositivos se había enfocado en hacerlos perfectos, pero "las imperfecciones ayudan a la función," dijo Yang en un artículo previo sobre materiales van der Waals para dispositivos memristivos.
La progresión de sinapsis artificiales a neuronas artificiales completas representa maduración del campo de computación neuromórfica. En 2018, Yang y colegas publicaron en Nature Electronics demostrando redes neuronales completamente memristivas para clasificación de patrones con aprendizaje no supervisado, integrando neuronas basadas en memristores difusivos con sinapsis memristivas no volátiles. Este trabajo anterior mostró neuronas artificiales de integración y disparo con fuga con dinámica estocástica y tiempo de integración ajustable, determinado por migración de plata sola o su interacción con capacitancia del circuito. El trabajo actual publicado en octubre 2025 representa refinamiento significativo, logrando las seis características neuronales biológicas clave en un dispositivo más compacto con consumo energético mucho menor.
⚡ Comparación de Eficiencia Energética por Operación
Procesadores Silicon Convencionales: Milijoules a microjoules (10⁻³ a 10⁻⁶ julios) por operación equivalente
Neuromorphic CMOS Tradicional: Nanojoules (10⁻⁹ julios) por impulso neuronal simulado
Memristor Difusivo USC (actual): Picojoules (10⁻¹² julios) por impulso - mejora de 1,000x sobre CMOS neuromorfico
Memristor Difusivo USC (escalado futuro): Attojoules (10⁻¹⁸ julios) por impulso - mejora adicional de 1,000,000x
Cerebro Humano (referencia): ~20 vatios totales para ~86 mil millones de neuronas ≈ 0.2 nanovatios por neurona en promedio
Implicación: Reducción de 6-12 órdenes de magnitud en energía hace posible IA sostenible a escala cerebral sin infraestructura energética insostenible
Camino hacia AGI: por qué la emulación física importa
Tales neuronas pueden habilitar chips más nuevos que operarían más similarmente a cómo funciona el cerebro, serían más eficientes energéticamente y podrían prestarse para inaugurar lo que se conoce como inteligencia artificial general (AGI). La distinción crucial entre simulación y emulación física es fundamental para entender por qué este avance importa para AGI. Los sistemas de IA actuales, incluyendo modelos de lenguaje grande como GPT y sistemas de aprendizaje profundo, simulan algunos aspectos del procesamiento neuronal usando matemáticas implementadas en silicio convencional. Esta simulación puede producir resultados impresionantes pero opera en principios fundamentalmente diferentes al cerebro. El cerebro integra memoria y procesamiento, opera con señales analógicas continuas, aprovecha ruido y estocasticidad constructivamente, y logra eficiencia energética extraordinaria.
Los memristores difusivos no simulan estos principios - los implementan físicamente. Cuando iones de plata se difunden a través del material memristivo, están realizando computación de la misma manera fundamental que los iones de potasio y sodio realizan computación en neuronas biológicas. Esta distinción podría ser crítica para lograr AGI porque muchos aspectos de la inteligencia pueden emerger de las propiedades físicas específicas del sustrato computacional. El aprendizaje biológico aprovecha timing preciso de impulsos (spike-timing-dependent plasticity), ruido estocástico para exploración, y dinámicas temporales ricas que son difíciles de capturar en simulación digital pero emergen naturalmente de la física de dispositivos memristivos. Si la inteligencia general requiere estas dinámicas físicas específicas en lugar de solo la función matemática abstracta que implementan, entonces la emulación física puede ser esencial.
Yang dice que en el proceso, tales sistemas también podrían ayudar a científicos a entender mejor cómo funciona el cerebro mismo. Ahora que la USC ha demostrado bloques de construcción capaces y compactos - sinapsis artificiales y neuronas artificiales - el siguiente paso es integrar grandes números de ellos y probar qué tan cerca pueden replicar la eficiencia y capacidades del cerebro. Este proceso de construcción y prueba de sistemas neuromórficos a gran escala podría revelar principios organizacionales del cerebro que permanecen ocultos en estudios neurobiológicos tradicionales. Por ejemplo, ¿qué topologías de red emergen como más eficientes? ¿Qué balances entre conexiones excitatorias e inhibitorias optimizan aprendizaje? ¿Cómo debería estructurarse la jerarquía de procesamiento? Responder estas preguntas mediante construcción de sistemas físicos podría avanzar tanto la neurociencia como la inteligencia artificial.
🚀 Implicaciones para Inteligencia Artificial General (AGI)
Escalamiento físicamente posible: Reducción de órdenes de magnitud en tamaño y energía hace físicamente factible construir sistemas con ~86 mil millones de neuronas artificiales (escala cerebro humano)
Emulación vs simulación: Replicación física de procesos electroquímicos puede capturar dinámicas que son difíciles o imposibles de simular en arquitectura von Neumann
Dinámicas temporales ricas: Spike-timing-dependent plasticity, períodos refractarios y estocasticidad emergen naturalmente de la física del dispositivo
Aprendizaje eficiente: Como el cerebro humano, estos sistemas pueden aprender de pequeños ejemplos en lugar de requerir datasets masivos
Integración memoria-procesamiento: Eliminación de cuello de botella von Neumann donde datos deben moverse constantemente entre memoria y procesador separados
Computación in-memory: Las sinapsis y neuronas memristivas realizan computación donde los datos residen, reduciendo dramáticamente movimiento de datos
Sostenibilidad energética: AGI a escala cerebral requeriría kilovatios en lugar de megavatios, haciendo la tecnología prácticamente desplegable
Desafíos y próximos pasos: de prototipos a sistemas integrados
Ahora que los investigadores de USC han desarrollado neuronas artificiales compactas y capaces, su siguiente paso es integrar grandes números de ellas y probar qué tan cerca pueden coincidir con la capacidad de aprendizaje del cerebro. Este paso de integración presenta desafíos técnicos significativos. Fabricar arreglos grandes de dispositivos memristivos con uniformidad consistente requiere control preciso de procesos de manufactura. Cada memristor difusivo debe tener propiedades similares para que la red funcione correctamente, pero las variaciones de fabricación son inevitables a escala nanométrica. Los investigadores deben desarrollar técnicas para compensar esta variabilidad o diseñar arquitecturas robustas que funcionen bien incluso con componentes no uniformes.
El interconectado de millones o miles de millones de neuronas artificiales también presenta desafíos. El cerebro usa cableado tridimensional denso con axones y dendritas extendiéndose en todas direcciones, permitiendo que cada neurona se conecte potencialmente con miles de otras. Replicar esta conectividad en hardware fabricado requiere integración tridimensional de dispositivos memristivos, lo cual es técnicamente complejo pero potencialmente factible mediante apilamiento vertical de múltiples capas de memristores. La fotografía de portada del artículo de Nature Electronics muestra un chip de un arreglo de estas neuronas integradas, que se fabrican en la sala limpia de la universidad. Escalar de estos arreglos de demostración a sistemas con millones de neuronas será un esfuerzo de ingeniería mayor pero no presenta barreras fundamentales.
Más allá de los desafíos técnicos de fabricación e integración, quedan preguntas científicas profundas sobre qué arquitecturas de red y algoritmos de aprendizaje funcionarán mejor con hardware neuromorfico físico. Los algoritmos de aprendizaje profundo actuales fueron diseñados para hardware von Neumann tradicional y pueden no ser óptimos para sistemas que integran memoria y procesamiento. Los investigadores necesitarán desarrollar nuevos paradigmas de aprendizaje que aprovechen las fortalezas únicas del hardware neuromorfico, como timing de impulsos precisos, dinámicas analógicas y computación estocástica. Este co-diseño de hardware y algoritmos será esencial para realizar el potencial completo de la computación neuromórfica para avanzar hacia AGI.
🎯 Importancia del Avance: Por Qué Este Trabajo Importa
Primera emulación física completa: A diferencia de trabajos previos que simulaban digitalmente neuronas, este dispositivo replica físicamente los procesos electroquímicos del cerebro
Compacidad sin precedentes: Reducción de decenas-cientos de transistores a efectivamente uno (1M1T1R con integración vertical) permite densidades neuronales antes imposibles
Seis características en un dispositivo: Primera demostración de todas las características neuronales clave (integración con fuga, disparo de umbral, conexión en cascada, plasticidad intrínseca, período refractario, estocasticidad) en single dispositivo compacto
Eficiencia energética transformativa: Picojoules actuales con potencial de attojoules representa mejora de 6-12 órdenes de magnitud sobre tecnología existente
Publicación en Nature Electronics: Prestigiosa publicación par-revisada valida importancia científica y rigor técnico del trabajo
Fundación para AGI sostenible: Hace físicamente factible construir sistemas a escala cerebral sin requerir plantas de energía dedicadas
Convergencia hardware-neurociencia: Herramienta experimental para investigación neurocientífica al permitir construcción de modelos cerebrales físicos escalables
Referencias
Ruoyu Zhao et al., "A spiking artificial neuron based on one diffusive memristor, one transistor and one resistor," Nature Electronics (2025). DOI: 10.1038/s41928-025-01488-x
USC Viterbi School of Engineering, "Artificial neurons developed by USC team replicate biological function for improved computer chips" (29 de octubre, 2025).
TechXplore, "Artificial neurons replicate biological function for improved computer chips" (29 de octubre, 2025).
EurekAlert!, "Artificial neurons developed by USC team replicate biological function for improved computer chips" (27 de octubre, 2025).
Interesting Engineering, "Ion-based artificial neurons mimic brain chemistry for AI computing" (29 de octubre, 2025).
BioEngineer.org, "USC Team Develops Artificial Neurons That Mimic Biological Functions to Enhance Computer Chip Performance" (27 de octubre, 2025).
Wang, T. et al., "Fully memristive neural networks for pattern classification with unsupervised learning," Nature Electronics (2018).
Zhao, R. et al., "Memristive ion dynamics to enable biorealistic computing," Chemical Reviews 125, 745–785 (2025).
USC Viterbi, "USC Review Touts Benefits of Newer Materials for Memristive Devices" (16 de mayo, 2024).
Pattnaik, D. et al., "Stress-induced artificial neuron spiking in diffusive memristors," Communications Engineering (9 de noviembre, 2024).



