NEWSLETTER

Avance hacia AGI: neuronas artificiales ocupan espacio de un transistor con seis funciones biológicas

Generated Image October 31, 2025 - sgrdf8PM

Avance hacia AGI: neuronas artificiales ocupan espacio de un transistor con seis funciones biológicas

USC desarrolla neuronas artificiales que replican química cerebral: memristores difusivos usan iones en lugar de electrones
Investigadores de USC Viterbi crean neuronas artificiales que emulan físicamente el comportamiento electroquímico de células cerebrales reales mediante memristores difusivos. Los dispositivos 1M1T1R ocupan el espacio de un solo transistor en lugar de decenas, reducen consumo energético a niveles de picojoules por impulso, y podrían alcanzar escala de attojoules. El avance representa salto histórico hacia computación neuromorfica real y potencial AGI

Investigadores de la USC Viterbi School of Engineering y la School of Advanced Computing desarrollaron neuronas artificiales que replican el comportamiento electroquímico complejo de células cerebrales biológicas. La innovación, documentada en Nature Electronics, representa un salto adelante en tecnología de computación neuromórfica. El desarrollo permitirá reducción del tamaño de chip por órdenes de magnitud, disminuirá su consumo energético por órdenes de magnitud, y podría avanzar la inteligencia artificial general. A diferencia de chips neuromórficos existentes que simulan digitalmente la actividad cerebral, las nuevas neuronas de USC utilizan procesos químicos y eléctricos reales para computar. En otras palabras, en lugar de simplemente imitar cómo funciona el cerebro, funcionan más como células cerebrales reales.

El trabajo fue liderado por el profesor Joshua Yang de Ingeniería Eléctrica y Computacional de USC, quien también lideró el trabajo en un artículo seminal sobre sinapsis artificiales hace más de una década. Yang es además Director del Centro de Excelencia en Computación Neuromórfica de USC. Yang y su equipo desarrollaron un nuevo tipo de neurona artificial basada en lo que llaman "memristor difusivo." En lugar de usar el movimiento de electrones como los chips de silicio tradicionales, estas neuronas dependen del movimiento de átomos para procesar información. El artículo de Nature Electronics explora cómo tales neuronas artificiales pueden habilitar una nueva clase de chips que complementen y aumenten las tecnologías basadas en silicio actuales, que alimentan casi toda la electrónica moderna y dependen del movimiento de electrones para computación.

Los dispositivos difusivos introducidos por Yang y colegas para construir las neuronas dependerían del movimiento de átomos. Tales neuronas pueden habilitar chips más nuevos que operarían más similarmente a cómo funciona el cerebro, serían más eficientes energéticamente y podrían prestarse para inaugurar lo que se conoce como inteligencia artificial general (AGI). En el proceso biológico, el cerebro usa señales tanto eléctricas como químicas para impulsar la acción en el cuerpo. Las neuronas o células nerviosas comienzan con señales eléctricas que cuando alcanzan el espacio o brecha al final de la neurona llamado sinapsis, las señales eléctricas se convierten en señales químicas para transmitir y procesar la información. Una vez que la información cruza a la siguiente neurona, algunas de esas señales se convierten nuevamente en señales eléctricas a través del cuerpo de la neurona. Este es el proceso físico que Yang y colegas han logrado emular con alta fidelidad en varios aspectos críticos.

❌ Neuronas Artificiales Convencionales

Diseño basado en transistores: Requieren decenas a cientos de transistores para emular una sola neurona biológica

Movimiento de electrones: Utilizan la lógica tradicional de silicio basada en flujo de electrones

Alto consumo energético: Gastan energía significativa incluso en operaciones básicas de activación neuronal

Simulación digital: Imitan el comportamiento cerebral mediante software sin replicar procesos físicos reales

Huella grande: Ocupan espacio considerable en el chip limitando densidad de neuronas por área

✓ Neuronas con Memristor Difusivo

Diseño 1M1T1R compacto: Un memristor difusivo, un transistor y un resistor - espacio de un solo transistor cuando se integran verticalmente

Movimiento de iones: Utilizan dinámicas iónicas como el cerebro real (plata en lugar de potasio/sodio/calcio)

Eficiencia extrema: Consumo energético alcanza nivel de picojoules por impulso, potencial de attojoules con escalamiento

Emulación física: Replican procesos electroquímicos reales del cerebro en lugar de simularlos digitalmente

Huella mínima: Región activa de ~4 μm² permite densidades neuronales órdenes de magnitud mayores

Arquitectura del memristor difusivo: iones de plata replicando dinámica cerebral

La gran ventaja de las neuronas artificiales basadas en memristor difusivo es que requieren solo el espacio de un solo transistor, en lugar de las decenas a cientos usadas en diseños convencionales. En particular, en el modelo biológico, los iones o partículas cargadas ayudan a generar las señales eléctricas para causar acción dentro de la neurona. En el cerebro humano, tales procesos dependen de químicos (por ejemplo, iones) como potasio, sodio o calcio para forzar esta acción. En el artículo actual, Yang, quien es Director del Centro de Excelencia en Computación Neuromórfica de USC, usa iones de plata en óxido para generar el pulso eléctrico y emular los procesos para realizar computación para actividades como movimiento, aprendizaje y planificación. "Aunque no son exactamente los mismos iones en nuestras sinapsis y neuronas artificiales, la física que gobierna el movimiento iónico y las dinámicas son muy similares," explica Yang.

Yang explica: "La plata es fácil de difundir y nos da las dinámicas que necesitamos para emular el biosistema de modo que podamos lograr la función de las neuronas, con una estructura muy simple." El nuevo dispositivo que puede habilitar un chip similar al cerebro se llama "memristor difusivo" debido al movimiento iónico y la difusión dinámica que ocurre con el uso de plata. Agrega que el equipo eligió utilizar dinámicas iónicas para construir sistemas inteligentes artificiales "porque eso es lo que sucede en el cerebro humano, por una buena razón y dado que el cerebro humano es el 'ganador en la evolución, el motor inteligente más eficiente.'" Este diseño, llamado "memristor difusivo," permite que cada neurona artificial ocupe el espacio de solo un transistor, en lugar de las docenas o cientos usadas en diseños convencionales.

Una neurona artificial de impulsos integrada, con funcionalidad neuronal rica, huella de un solo transistor y bajo consumo energético para sistemas de computación neuromórfica, puede crearse apilando un memristor difusivo y un resistor encima de un transistor. La región activa es de alrededor de 4 μm² para cada neurona. Los chips del arreglo de estas neuronas integradas se fabrican en la sala limpia de la universidad. La neurona 1M1T1R (un memristor, un transistor, un resistor) exhibe seis características neuronales clave: integración con fuga, disparo de umbral, conexión en cascada, plasticidad intrínseca, período refractario y estocasticidad. El consumo energético de la neurona 1M1T1R alcanza el nivel de picojoules por impulso y podría alcanzar niveles de attojoules por impulso con mayor escalamiento.

⚙️ Proceso de Funcionamiento: Emulación del Ciclo Neuronal Biológico

Paso 1: Señal Eléctrica Inicial
Las neuronas biológicas comienzan con señales eléctricas que viajan a lo largo del axón hacia la sinapsis
Paso 2: Conversión Electroquímica en la Sinapsis
Al llegar a la brecha sináptica, las señales eléctricas se convierten en señales químicas mediante liberación de neurotransmisores
Paso 3: Transmisión Química
Los neurotransmisores cruzan la brecha sináptica y se unen a receptores en la neurona postsináptica
Paso 4: Reconversión a Señal Eléctrica
La señal química se reconvierte en señal eléctrica en el cuerpo de la siguiente neurona para continuar la propagación
Emulación con Memristor Difusivo
El memristor difusivo replica este ciclo completo usando difusión de iones de plata en lugar de neurotransmisores biológicos, manteniendo la misma física fundamental de movimiento iónico y dinámica temporal

Seis características neuronales biológicas clave replicadas

La neurona artificial basada en un memristor difusivo, un transistor y un resistor puede exhibir seis características neuronales biológicas clave cuando se integran verticalmente. Estas características incluyen integración con fuga, disparo de umbral, conexión en cascada, plasticidad intrínseca, período refractario y estocasticidad. La integración con fuga se refiere a cómo las neuronas biológicas acumulan señales entrantes a lo largo del tiempo, pero las señales se "fugan" o decaen si no se alcanza un umbral lo suficientemente rápido. El disparo de umbral significa que la neurona solo produce un impulso de salida cuando la entrada acumulada excede un umbral específico. La conexión en cascada permite que múltiples neuronas se conecten en secuencia, donde la salida de una neurona se convierte en la entrada de la siguiente.

La plasticidad intrínseca se refiere a la capacidad de la neurona para ajustar sus propias propiedades de excitabilidad basándose en la actividad pasada, un mecanismo fundamental del aprendizaje biológico. El período refractario es el tiempo después del disparo durante el cual la neurona no puede disparar nuevamente, lo que previene activación excesiva y permite tiempo de recuperación. La estocasticidad introduce variabilidad aleatoria en el comportamiento neuronal, reflejando el ruido inherente en sistemas biológicos que en realidad puede mejorar ciertas capacidades computacionales. La combinación de estas seis características en un dispositivo de huella de un solo transistor representa una replicación sin precedentes de funcionalidad neuronal biológica en hardware artificial.

Yang dice que el problema principal con los sistemas computacionales actuales no es potencia, sino eficiencia. "No es que nuestros chips o computadoras no sean lo suficientemente potentes para lo que están haciendo. Es que no son lo suficientemente eficientes. Usan demasiada energía," explica. Las computadoras modernas están diseñadas para procesar cantidades masivas de datos, no para aprender de pequeños ejemplos de la manera en que lo hacen los humanos. "Una manera de impulsar tanto la eficiencia energética como de aprendizaje es construir sistemas artificiales que operen según principios observados en el cerebro," dice Yang. Ahora que los investigadores de USC han desarrollado neuronas artificiales compactas y capaces, su siguiente paso es integrar grandes números de ellas y probar qué tan cerca pueden coincidir con la capacidad de aprendizaje del cerebro.

🧠 Seis Características Neuronales Biológicas Replicadas

1. Integración con Fuga (Leaky Integration)
Acumulación temporal de señales entrantes con decaimiento progresivo si no se alcanza umbral - replica cómo neuronas biológicas integran inputs sinápticos múltiples a lo largo del tiempo
2. Disparo de Umbral (Threshold Firing)
Generación de impulso de salida solo cuando la entrada acumulada excede umbral específico - emula el potencial de acción todo-o-nada de neuronas reales
3. Conexión en Cascada (Cascaded Connection)
Capacidad de conectar múltiples neuronas secuencialmente donde salida de una se convierte en entrada de siguiente - fundamental para redes neuronales profundas
4. Plasticidad Intrínseca (Intrinsic Plasticity)
Ajuste de propiedades de excitabilidad de la neurona basado en actividad histórica - mecanismo de aprendizaje que complementa la plasticidad sináptica
5. Período Refractario (Refractory Period)
Intervalo temporal después del disparo durante el cual la neurona no puede disparar nuevamente - previene sobreexcitación y permite recuperación fisiológica
6. Estocasticidad (Stochasticity)
Variabilidad aleatoria en comportamiento neuronal que refleja ruido inherente en sistemas biológicos - puede mejorar capacidades computacionales en ciertos contextos

Eficiencia energética: de gigas a picos y atos

Esto es crítico, explica Yang: "No es que nuestros chips o computadoras no sean lo suficientemente potentes para lo que están haciendo. Es que no son lo suficientemente eficientes. Usan demasiada energía." Esto es particularmente relevante dado el nivel de energía necesario para ejecutar modelos de software grandes con una cantidad enorme de datos como aprendizaje automático para inteligencia artificial. La eficiencia de estos memristores difusivos incluye no solo la energía, sino el tamaño. Normalmente un teléfono inteligente tiene alrededor de 10 chips pero miles de millones de transistores o interruptores que controlan el encendido/apagado o los 0's y 1's que sustentan la computación. "En cambio [con esta innovación], solo usamos una huella de un transistor para cada neurona. Estamos diseñando los bloques de construcción que eventualmente nos llevan a reducir el tamaño del chip por órdenes de magnitud, reducir el consumo energético por órdenes de magnitud, para que pueda ser sostenible realizar IA en el futuro, con nivel similar de inteligencia sin quemar energía que no podemos sostener," dice Yang.

El consumo energético de la neurona 1M1T1R alcanza el nivel de picojoules por impulso y podría alcanzar niveles de attojoules por impulso con mayor escalamiento. Un picojoule es una billonésima de joule (10⁻¹² julios), mientras que un attojoule es una trillonésima de joule (10⁻¹⁸ julios). Para contexto, las computadoras tradicionales operan en la escala de milijoules a microjoules para operaciones equivalentes, lo que significa que estos memristores difusivos son potencialmente entre seis y doce órdenes de magnitud más eficientes. Esta diferencia dramática en eficiencia energética se debe fundamentalmente a que los memristores difusivos operan más similarmente a cómo funciona el cerebro humano, que es notoriamente eficiente energéticamente a pesar de su inmensa capacidad computacional.

El cerebro humano consume aproximadamente 20 vatios de potencia, aproximadamente lo mismo que una bombilla LED, mientras procesa información de manera extraordinariamente compleja incluyendo percepción sensorial, control motor, razonamiento abstracto y memoria. En contraste, los sistemas de inteligencia artificial actuales pueden requerir megavatios de potencia para tareas que un cerebro humano realiza sin esfuerzo. Esta brecha de eficiencia existe porque el silicio convencional usa arquitectura fundamentalmente diferente al cerebro: los chips de silicio separan memoria y procesamiento (arquitectura von Neumann), requiriendo movimiento constante de datos entre ubicaciones, mientras que el cerebro integra memoria y procesamiento en las mismas sinapsis y neuronas. Los memristores difusivos cierran esta brecha al emular la integración cerebral de memoria y procesamiento.

Característica Neuronas Convencionales (CMOS) Neuronas con Memristor Difusivo (USC)
Componentes por neurona 10-100+ transistores 1 memristor + 1 transistor + 1 resistor (1M1T1R)
Huella física ~100-1000 μm² ~4 μm² (región activa)
Consumo energético Nanojoules a microjoules por impulso Picojoules actuales, attojoules potenciales
Principio de operación Movimiento de electrones (lógica digital) Movimiento de iones (dinámica electroquímica)
Emulación biológica Simulación digital de comportamiento Replicación física de procesos electroquímicos
Características neuronales 2-3 características básicas 6 características biológicas clave
Material iónico N/A (basado en electrones) Iones de plata en óxido
Integración vertical Difícil con múltiples transistores Posible, ocupa huella de 1 transistor

Contexto histórico: de sinapsis artificiales (2012) a neuronas completas (2025)

Joshua Yang lideró el trabajo en un artículo seminal sobre sinapsis artificiales hace más de una década, estableciendo los fundamentos para el trabajo actual en neuronas artificiales completas. Las sinapsis artificiales fueron el primer componente crítico porque en el cerebro, las sinapsis son las conexiones entre neuronas donde ocurre el aprendizaje mediante fortalecimiento o debilitamiento de conexiones basándose en actividad. El trabajo original de Yang demostró que los memristores podían emular esta plasticidad sináptica, el cambio en la fuerza de conexión que sustenta el aprendizaje y la memoria. Sin embargo, las sinapsis solas no son suficientes para construir un sistema neuromorfico completo - también se necesitan neuronas que puedan integrar señales sinápticas múltiples, decidir cuándo disparar y generar impulsos de salida.

Los investigadores de USC han estado desarrollando tales dispositivos y arreglos para aplicaciones en computación futura. Podrían habilitar aceleradores de hardware novedosos para soportar aprendizaje automático con órdenes de magnitud mayor eficiencia energética y de área. Además, porque tales dispositivos comparten similitudes intrínsecas con sinapsis, neuronas y dendritas a nivel de física, tienen promesa de habilitar inteligencia artificial bio-realista con inteligencia mucho más avanzada. El equipo también examinó cómo defectos diminutos en memristores en realidad los hacen funcionar más eficientemente. El trabajo pasado en los dispositivos se había enfocado en hacerlos perfectos, pero "las imperfecciones ayudan a la función," dijo Yang en un artículo previo sobre materiales van der Waals para dispositivos memristivos.

La progresión de sinapsis artificiales a neuronas artificiales completas representa maduración del campo de computación neuromórfica. En 2018, Yang y colegas publicaron en Nature Electronics demostrando redes neuronales completamente memristivas para clasificación de patrones con aprendizaje no supervisado, integrando neuronas basadas en memristores difusivos con sinapsis memristivas no volátiles. Este trabajo anterior mostró neuronas artificiales de integración y disparo con fuga con dinámica estocástica y tiempo de integración ajustable, determinado por migración de plata sola o su interacción con capacitancia del circuito. El trabajo actual publicado en octubre 2025 representa refinamiento significativo, logrando las seis características neuronales biológicas clave en un dispositivo más compacto con consumo energético mucho menor.

⚡ Comparación de Eficiencia Energética por Operación

Procesadores Silicon Convencionales: Milijoules a microjoules (10⁻³ a 10⁻⁶ julios) por operación equivalente

Neuromorphic CMOS Tradicional: Nanojoules (10⁻⁹ julios) por impulso neuronal simulado

Memristor Difusivo USC (actual): Picojoules (10⁻¹² julios) por impulso - mejora de 1,000x sobre CMOS neuromorfico

Memristor Difusivo USC (escalado futuro): Attojoules (10⁻¹⁸ julios) por impulso - mejora adicional de 1,000,000x

Cerebro Humano (referencia): ~20 vatios totales para ~86 mil millones de neuronas ≈ 0.2 nanovatios por neurona en promedio

Implicación: Reducción de 6-12 órdenes de magnitud en energía hace posible IA sostenible a escala cerebral sin infraestructura energética insostenible

Camino hacia AGI: por qué la emulación física importa

Tales neuronas pueden habilitar chips más nuevos que operarían más similarmente a cómo funciona el cerebro, serían más eficientes energéticamente y podrían prestarse para inaugurar lo que se conoce como inteligencia artificial general (AGI). La distinción crucial entre simulación y emulación física es fundamental para entender por qué este avance importa para AGI. Los sistemas de IA actuales, incluyendo modelos de lenguaje grande como GPT y sistemas de aprendizaje profundo, simulan algunos aspectos del procesamiento neuronal usando matemáticas implementadas en silicio convencional. Esta simulación puede producir resultados impresionantes pero opera en principios fundamentalmente diferentes al cerebro. El cerebro integra memoria y procesamiento, opera con señales analógicas continuas, aprovecha ruido y estocasticidad constructivamente, y logra eficiencia energética extraordinaria.

Los memristores difusivos no simulan estos principios - los implementan físicamente. Cuando iones de plata se difunden a través del material memristivo, están realizando computación de la misma manera fundamental que los iones de potasio y sodio realizan computación en neuronas biológicas. Esta distinción podría ser crítica para lograr AGI porque muchos aspectos de la inteligencia pueden emerger de las propiedades físicas específicas del sustrato computacional. El aprendizaje biológico aprovecha timing preciso de impulsos (spike-timing-dependent plasticity), ruido estocástico para exploración, y dinámicas temporales ricas que son difíciles de capturar en simulación digital pero emergen naturalmente de la física de dispositivos memristivos. Si la inteligencia general requiere estas dinámicas físicas específicas en lugar de solo la función matemática abstracta que implementan, entonces la emulación física puede ser esencial.

Yang dice que en el proceso, tales sistemas también podrían ayudar a científicos a entender mejor cómo funciona el cerebro mismo. Ahora que la USC ha demostrado bloques de construcción capaces y compactos - sinapsis artificiales y neuronas artificiales - el siguiente paso es integrar grandes números de ellos y probar qué tan cerca pueden replicar la eficiencia y capacidades del cerebro. Este proceso de construcción y prueba de sistemas neuromórficos a gran escala podría revelar principios organizacionales del cerebro que permanecen ocultos en estudios neurobiológicos tradicionales. Por ejemplo, ¿qué topologías de red emergen como más eficientes? ¿Qué balances entre conexiones excitatorias e inhibitorias optimizan aprendizaje? ¿Cómo debería estructurarse la jerarquía de procesamiento? Responder estas preguntas mediante construcción de sistemas físicos podría avanzar tanto la neurociencia como la inteligencia artificial.

🚀 Implicaciones para Inteligencia Artificial General (AGI)

Escalamiento físicamente posible: Reducción de órdenes de magnitud en tamaño y energía hace físicamente factible construir sistemas con ~86 mil millones de neuronas artificiales (escala cerebro humano)

Emulación vs simulación: Replicación física de procesos electroquímicos puede capturar dinámicas que son difíciles o imposibles de simular en arquitectura von Neumann

Dinámicas temporales ricas: Spike-timing-dependent plasticity, períodos refractarios y estocasticidad emergen naturalmente de la física del dispositivo

Aprendizaje eficiente: Como el cerebro humano, estos sistemas pueden aprender de pequeños ejemplos en lugar de requerir datasets masivos

Integración memoria-procesamiento: Eliminación de cuello de botella von Neumann donde datos deben moverse constantemente entre memoria y procesador separados

Computación in-memory: Las sinapsis y neuronas memristivas realizan computación donde los datos residen, reduciendo dramáticamente movimiento de datos

Sostenibilidad energética: AGI a escala cerebral requeriría kilovatios en lugar de megavatios, haciendo la tecnología prácticamente desplegable

Desafíos y próximos pasos: de prototipos a sistemas integrados

Ahora que los investigadores de USC han desarrollado neuronas artificiales compactas y capaces, su siguiente paso es integrar grandes números de ellas y probar qué tan cerca pueden coincidir con la capacidad de aprendizaje del cerebro. Este paso de integración presenta desafíos técnicos significativos. Fabricar arreglos grandes de dispositivos memristivos con uniformidad consistente requiere control preciso de procesos de manufactura. Cada memristor difusivo debe tener propiedades similares para que la red funcione correctamente, pero las variaciones de fabricación son inevitables a escala nanométrica. Los investigadores deben desarrollar técnicas para compensar esta variabilidad o diseñar arquitecturas robustas que funcionen bien incluso con componentes no uniformes.

El interconectado de millones o miles de millones de neuronas artificiales también presenta desafíos. El cerebro usa cableado tridimensional denso con axones y dendritas extendiéndose en todas direcciones, permitiendo que cada neurona se conecte potencialmente con miles de otras. Replicar esta conectividad en hardware fabricado requiere integración tridimensional de dispositivos memristivos, lo cual es técnicamente complejo pero potencialmente factible mediante apilamiento vertical de múltiples capas de memristores. La fotografía de portada del artículo de Nature Electronics muestra un chip de un arreglo de estas neuronas integradas, que se fabrican en la sala limpia de la universidad. Escalar de estos arreglos de demostración a sistemas con millones de neuronas será un esfuerzo de ingeniería mayor pero no presenta barreras fundamentales.

Más allá de los desafíos técnicos de fabricación e integración, quedan preguntas científicas profundas sobre qué arquitecturas de red y algoritmos de aprendizaje funcionarán mejor con hardware neuromorfico físico. Los algoritmos de aprendizaje profundo actuales fueron diseñados para hardware von Neumann tradicional y pueden no ser óptimos para sistemas que integran memoria y procesamiento. Los investigadores necesitarán desarrollar nuevos paradigmas de aprendizaje que aprovechen las fortalezas únicas del hardware neuromorfico, como timing de impulsos precisos, dinámicas analógicas y computación estocástica. Este co-diseño de hardware y algoritmos será esencial para realizar el potencial completo de la computación neuromórfica para avanzar hacia AGI.

🎯 Importancia del Avance: Por Qué Este Trabajo Importa

Primera emulación física completa: A diferencia de trabajos previos que simulaban digitalmente neuronas, este dispositivo replica físicamente los procesos electroquímicos del cerebro

Compacidad sin precedentes: Reducción de decenas-cientos de transistores a efectivamente uno (1M1T1R con integración vertical) permite densidades neuronales antes imposibles

Seis características en un dispositivo: Primera demostración de todas las características neuronales clave (integración con fuga, disparo de umbral, conexión en cascada, plasticidad intrínseca, período refractario, estocasticidad) en single dispositivo compacto

Eficiencia energética transformativa: Picojoules actuales con potencial de attojoules representa mejora de 6-12 órdenes de magnitud sobre tecnología existente

Publicación en Nature Electronics: Prestigiosa publicación par-revisada valida importancia científica y rigor técnico del trabajo

Fundación para AGI sostenible: Hace físicamente factible construir sistemas a escala cerebral sin requerir plantas de energía dedicadas

Convergencia hardware-neurociencia: Herramienta experimental para investigación neurocientífica al permitir construcción de modelos cerebrales físicos escalables

Referencias

Ruoyu Zhao et al., "A spiking artificial neuron based on one diffusive memristor, one transistor and one resistor," Nature Electronics (2025). DOI: 10.1038/s41928-025-01488-x

USC Viterbi School of Engineering, "Artificial neurons developed by USC team replicate biological function for improved computer chips" (29 de octubre, 2025).

TechXplore, "Artificial neurons replicate biological function for improved computer chips" (29 de octubre, 2025).

EurekAlert!, "Artificial neurons developed by USC team replicate biological function for improved computer chips" (27 de octubre, 2025).

Interesting Engineering, "Ion-based artificial neurons mimic brain chemistry for AI computing" (29 de octubre, 2025).

BioEngineer.org, "USC Team Develops Artificial Neurons That Mimic Biological Functions to Enhance Computer Chip Performance" (27 de octubre, 2025).

Wang, T. et al., "Fully memristive neural networks for pattern classification with unsupervised learning," Nature Electronics (2018).

Zhao, R. et al., "Memristive ion dynamics to enable biorealistic computing," Chemical Reviews 125, 745–785 (2025).

USC Viterbi, "USC Review Touts Benefits of Newer Materials for Memristive Devices" (16 de mayo, 2024).

Pattnaik, D. et al., "Stress-induced artificial neuron spiking in diffusive memristors," Communications Engineering (9 de noviembre, 2024).

Publicaciones Recientes

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí