KZ:// / blog / neuronas-que-no-son-neuronas-ia-eeg-y-musica-con-electrodos
◆ 02 MAY 2026

Neuronas que no son neuronas: la IA, el cerebro y por qué quiero hacer música con electrodos

El otro día en un meetup tenía demasiadas birras arriba para argumentar esto de forma clara. Así que lo escribo para que la próxima lo tenga ordenado: la metáfora de la 'neurona artificial' es una caricatura del siglo XX que vendimos como ciencia, pero hay puentes reales entre IA y neurociencia que casi nadie nombra. Y al final, por qué un Ganglion de OpenBCI conectado a sintes modulares enseña más de lo que parece.

AUTORVictor
FECHA02 MAY 2026
SECCIÓNblog

Índice

  1. Disclaimer del meetup
  2. El pecado original: McCulloch y Pitts, 1943
  3. Lo que una neurona real hace (y la artificial no)
  4. Backpropagation no es biológico, y los premios Nobel lo saben
  5. Hopfield, Boltzmann y la física estadística disfrazada de cerebro
  6. Lo que sí converge: predictive coding, embeddings, columnas corticales
  7. Neuromorphic: la pista que casi nadie sigue
  8. EEG: la otra punta del cable
  9. Lo que los psicodélicos revelan sobre la conexión
  10. Mi proyecto: un Ganglion, cuatro canales, sintes open source
  11. La trampa del tiempo lineal
  12. Por qué la metáfora vende, quién la vende, y a qué precio
  13. Puentes posibles

1. Disclaimer del meetup

El otro día en un meetup terminé en una conversación sobre IA y cerebro con cuatro birras arriba. Argumenté como pude, mezclé cosas que no había que mezclar, y me fui caminando con esa sensación incómoda de tener algo que decir y no haberlo podido ordenar. No era una discusión que quisiera ganar. Era una discusión que quería enriquecer. Así que esto lo escribo sobrio, despacio, para tenerlo prolijo la próxima vez. No vengo a decir que la IA no funciona. Funciona. Vengo a decir que la palabra "neurona" en "red neuronal artificial" está haciendo un trabajo retórico enorme, y que la mayoría de la gente que la usa, incluso gente muy técnica, no se detuvo a mirar de cerca cuánto se parece esa cosa a una neurona de verdad. Y que cuando uno empieza a mirar de cerca, la pregunta se vuelve más interesante que la respuesta.

Esto no es un take anti-IA. Es un aporte a una conversación que me parece que corre el riesgo de quedarse en la superficie. Y al final hablo de mi proyecto de hacer música con la mente usando hardware abierto, porque ahí, cuando vos mismo enchufás los electrodos, la metáfora deja de ser cómoda muy rápido.


2. El pecado original: McCulloch y Pitts, 1943

La historia empieza con un paper de Warren McCulloch (neurofisiólogo) y Walter Pitts (lógico autodidacta sin título), publicado en 1943: A Logical Calculus of the Ideas Immanent in Nervous Activity.[1] Su propuesta fue simple y elegante: modelar la neurona como una unidad lógica binaria. Recibe entradas, las suma con pesos, y si supera un umbral, dispara. Si no, no dispara. Cero o uno. Como un transistor con personalidad.

Era una abstracción increíblemente útil para la lógica formal. McCulloch y Pitts demostraron que redes de estas unidades podían computar cualquier función lógica. Era, en un sentido muy preciso, una "neurona suficiente" para construir computación. El problema vino después: lo que era una abstracción matemática para entender la lógica del sistema nervioso se transformó, en las décadas siguientes, en el modelo estándar de "neurona artificial" en ingeniería. Frank Rosenblatt agregó el perceptrón en 1958. Rumelhart, Hinton y Williams publicaron backpropagation con redes multicapa en 1986. Yann LeCun aplicó las convoluciones a reconocimiento de dígitos escritos en 1989. Cada paso fue ingeniería, no biología.

La neurona artificial estándar de hoy, la que usa GPT, Gemini, Claude, todas las redes profundas, sigue siendo en lo esencial una versión enriquecida del modelo de 1943: una suma ponderada de entradas, una función de activación no lineal (ReLU, GELU, sigmoid), y una salida. Le sumamos arquitecturas (transformers, attention, normalización por capas), pero la unidad básica es la misma caricatura de hace ochenta años.

Y la caricatura funciona. Eso es lo confuso. Funciona increíblemente bien para tareas que en 2010 parecían inalcanzables. Pero que funcione no significa que se parezca al cerebro.


3. Lo que una neurona real hace (y la artificial no)

Acá quiero ir despacio porque es donde más confusión hay. Una neurona biológica no es una suma ponderada con activación. Es un sistema dinámico no lineal, con muchas escalas de tiempo en paralelo, embebido en un tejido que también participa de la computación. Algunas cosas que ocurren en una neurona real y que la neurona artificial no contempla:

Dendritas que computan. El soma de la neurona no recibe una suma plana de entradas. Las dendritas, que son las ramificaciones por donde llegan las señales, hacen su propia computación local. Spikes dendríticos, integración no lineal, segmentación por compartimientos. Trabajos como los de Bartlett Mel y Jackie Schiller mostraron que una sola neurona piramidal del córtex puede comportarse como una red multicapa por sí sola.[2] Lo que la IA llama "una unidad" tiene, en biología, la complejidad de una red entera.

Sinapsis con química. En la red neuronal artificial, los pesos son números reales que se multiplican por las entradas. En la sinapsis real hay neurotransmisores (glutamato, GABA, dopamina, serotonina, acetilcolina, decenas más), receptores ionotrópicos y metabotrópicos, ventanas de tiempo, vesículas, recaptación. La transmisión sináptica no es un escalar: es un proceso bioquímico con dinámica propia.

Plasticidad dependiente del tiempo de los spikes. En IA, el aprendizaje se hace ajustando pesos por gradiente descendente. En el cerebro, la regla canónica es el STDP, spike-timing dependent plasticity: si la neurona presináptica dispara antes que la postsináptica, la conexión se fortalece; si dispara después, se debilita. Es una regla local, asimétrica, en el tiempo de los milisegundos.[3] No hay backprop. No hay función de pérdida global. No hay batch.

Glía que no es decoración. Los astrocitos, oligodendrocitos y microglía (las células gliales) son aproximadamente la mitad del volumen del cerebro humano. Durante décadas se las consideró soporte. Hoy sabemos que los astrocitos modulan la transmisión sináptica, regulan la plasticidad, sincronizan poblaciones neuronales y participan activamente en la computación.[4] La neurona artificial no tiene glía. Ni equivalente.

Neuromoduladores que reescriben la red. Dopamina, noradrenalina, serotonina, acetilcolina no son señales más entre neuronas. Son neuromoduladores difusos que cambian el estado computacional de regiones enteras: cuán plástica es una sinapsis ahora, cuán "atenta" está una corteza, qué patrón de conectividad efectiva está activo. Una red neuronal artificial no tiene neuromoduladores: sus pesos son fijos durante la inferencia.

Ritmos. Theta, alpha, beta, gamma. El cerebro vivo es un sistema oscilatorio en múltiples bandas, con sincronización entre regiones, fases que codifican información, ventanas temporales que se abren y cierran. Las redes neuronales artificiales son fundamentalmente atemporales: una vez entrenadas, computan en un paso forward sin reloj propio.

La lista sigue. La cuestión es: la palabra "neurona" en IA refiere a una abstracción matemática útil, no a un modelo de la neurona biológica. Decir "una red neuronal aprende como un cerebro" es como decir que un avión vuela como un pájaro. En un sentido muy laxo, sí. En cualquier sentido técnico, no.


4. Backpropagation no es biológico, y los premios Nobel lo saben

Esto vale la pena subrayarlo. El algoritmo que entrena prácticamente todas las redes profundas del mundo, backpropagation, no tiene un equivalente conocido en el cerebro. Lo dijo Francis Crick (sí, el del ADN) en un editorial breve en Nature en 1989, cuando empezaba el primer boom de redes neuronales: el cerebro no parece capaz de implementar el algoritmo de retropropagación porque requiere transmitir información hacia atrás por las mismas vías que la transmiten hacia adelante, con precisión perfecta, y eso no se observa.[5]

Hinton, premio Nobel de Física 2024 junto a Hopfield justamente por su trabajo en redes neuronales, ha sido público sobre esta tensión. En una entrevista de 2017 dijo que sospechaba que "el cerebro no hace backpropagation" y que probablemente había que repensar el aprendizaje desde cero si uno quería un modelo plausiblemente biológico.[6] Sin embargo, las redes que ganaron el ImageNet, las que escribieron este texto, las que estás usando para resumir esto, todas usan backprop. Funciona. Funciona tan bien que la cuestión de si se parece al cerebro pasó a ser una pregunta interesante sólo para neurocientíficos.

La maniobra histórica fue: empezamos llamando "neurona" a la unidad porque queríamos modelar al cerebro. Cuando descubrimos que el modelo no se parecía mucho al cerebro pero funcionaba para problemas de ingeniería, nos quedamos con el nombre y abandonamos la pretensión biológica en silencio. Es honesto cuando lo dicen los técnicos. Es marketing cuando aparece en una keynote.


5. Hopfield, Boltzmann y la física estadística disfrazada de cerebro

El Nobel 2024 a Hopfield y Hinton fue un evento curioso. Lo dieron en Física, no en Medicina ni en Ciencias de la Computación. La razón es genuina: lo que Hopfield introdujo en 1982, las "redes de Hopfield", y lo que Hinton extendió con las máquinas de Boltzmann, son sistemas de física estadística aplicada a la memoria y al aprendizaje.[7]

Una red de Hopfield es una colección de nodos binarios con conexiones simétricas, donde el estado del sistema evoluciona minimizando una función de energía análoga a la de un vidrio de spin. Patrones almacenados se vuelven mínimos locales de esa energía. La red recuerda relajando hacia el mínimo más cercano. Es una idea hermosa. Y es física, no biología. La inspiración fue el cerebro, sí, pero el aparato matemático viene de Ising, de Boltzmann, de Gibbs.

Esto no es una crítica. Es una observación. Algunas de las ideas más fértiles de la "neurociencia computacional" no vienen de la neurociencia: vienen de la mecánica estadística aplicada por analogía. Y producen modelos que aprenden y memorizan, pero que no están fundados en cómo el cerebro real implementa la memoria. Cuando un manual le explica al lector que "tu cerebro funciona como una red de Hopfield", está tomando una abstracción inversa: usa una analogía física para explicar la biología, después de haber inventado la analogía física para resolver un problema de física.

Vale la pena notar, igual, que la red de Hopfield moderna (la "modern Hopfield network" de Ramsauer y otros, 2020) es matemáticamente equivalente al mecanismo de atención de los transformers.[8] Es decir: el motor de los modelos grandes de lenguaje hoy es, formalmente, una memoria asociativa de Hopfield generalizada. Eso es interesante. Y profundo. Y muy poco biológico.


6. Lo que sí converge: predictive coding, embeddings, columnas corticales

Dije que iba a hacer puentes, no sólo críticas. Hay tres convergencias reales entre la IA actual y la neurociencia que vale la pena tomar en serio.

Predictive coding. Karl Friston, neurocientífico inglés, lleva veinte años desarrollando el "principio de la energía libre": la idea de que el cerebro es esencialmente una máquina de predicción, que procesa principalmente errores entre lo que esperaba y lo que efectivamente llegó.[9] Cada nivel jerárquico del córtex predice la actividad del nivel inferior, y sólo los errores propagan hacia arriba. Es una idea que tiene evidencia experimental (estudios de fMRI, registros intracraneales en pacientes neurológicos) y un correlato matemático sofisticado. Y se parece, formalmente, a varios entrenamientos auto-supervisados modernos: los modelos que aprenden prediciendo la siguiente palabra (GPT), o el siguiente frame de video, o el patch enmascarado de una imagen, están haciendo algo análogo. La diferencia es que el cerebro lo hace en línea, jerárquicamente, con neuromoduladores que regulan la confianza de la predicción según contexto.

Representaciones distribuidas y embeddings. Una de las pocas cosas que la neurociencia y la IA hacen igual es representar conceptos como vectores en espacios de alta dimensión donde la similitud semántica corresponde a proximidad geométrica. El hipocampo y la corteza entorrinal codifican lugar y memoria episódica con poblaciones de neuronas que se comportan funcionalmente como embeddings.[10] Lo que un transformer hace cuando ubica "rey" cerca de "reina" en su espacio latente tiene un análogo conceptual real en cómo un cerebro de mamífero representa categorías. No es la misma implementación. Es la misma estrategia computacional emergente.

Columnas corticales. Jeff Hawkins, fundador de Numenta y autor de On Intelligence (2004) y A Thousand Brains (2021), ha sostenido que la corteza cerebral está construida por la repetición de un mismo módulo, la columna cortical, cada una capaz de aprender modelos del mundo. Su tesis es que la inteligencia emerge de la integración masiva de miles de modelos paralelos, no de un único proceso jerárquico.[11] Es una idea que la IA dominante todavía no ha tomado en serio, pero que tiene paralelos sugerentes con arquitecturas modulares y mixture of experts. Numenta es un grupo pequeño y heterodoxo, pero su crítica al deep learning convencional es articulada y vale la pena leer.

Estos tres ejemplos muestran que el puente IA-neurociencia es posible cuando uno deja la metáfora floja y trabaja con análogos formales. La metáfora "neurona artificial" no es ese puente: es un nombre heredado.


7. Neuromorphic: la pista que casi nadie sigue

Existe una rama minoritaria de la computación que se toma en serio la pregunta "¿qué pasaría si construyéramos hardware que se pareciera al cerebro?". Se llama neuromorphic computing, el término lo acuñó Carver Mead en los años 80. La idea: en lugar de simular neuronas en GPUs Von Neumann (memoria separada del cómputo, sincronizada por reloj global), construir chips donde cada "neurona" es una pequeña unidad analógica o digital que dispara spikes asincrónicos, con plasticidad local en silicio.

IBM construyó el TrueNorth en 2014, un chip con un millón de neuronas digitales y 256 millones de sinapsis, consumiendo 65 milivatios.[12] Intel construyó Loihi en 2018 y Loihi 2 en 2021, con plasticidad on-chip y soporte para STDP.[13] La universidad de Manchester construyó SpiNNaker, una arquitectura masivamente paralela diseñada para simulación neuronal en tiempo real.[14]

Estos chips consumen una fracción de la energía de una GPU equivalente para tareas de procesamiento de señales, reconocimiento de patrones temporales y aprendizaje no supervisado. Son, en términos termodinámicos, mucho más cerebro que cualquier H100. Y sin embargo, están en los márgenes. La comunidad de IA mainstream no los toma en serio porque el ecosistema (frameworks, datasets, métodos de entrenamiento) está construido alrededor del paradigma diferenciable y sincrónico. Los neuromorphic chips son spike-based, asincrónicos, no diferenciables, y eso los hace incompatibles con backprop.

Es una pista enorme escondida a plena vista. Si alguien quiere construir IA realmente parecida al cerebro, ahí hay una línea de investigación que lleva cuarenta años acumulando saber, y que casi nadie nombra cuando habla de "redes neuronales".


8. EEG: la otra punta del cable

Cambiamos de lado. Si la IA es la metáfora del cerebro proyectada sobre matrices, el EEG es el cerebro real proyectado sobre electrodos. Y ahí también hay confusiones útiles para desarmar.

Un electroencefalograma mide diferencias de potencial eléctrico entre puntos del cuero cabelludo. Lo que se registra no es la actividad de neuronas individuales. Es la suma masiva, filtrada por hueso y piel, de los campos eléctricos generados por poblaciones de neuronas piramidales del córtex disparando en conjunto. La señal típica es del orden de los microvolts, dominada por oscilaciones en bandas con nombres griegos: delta (0.5 a 4 Hz), theta (4 a 8 Hz), alpha (8 a 13 Hz), beta (13 a 30 Hz), gamma (30 a 100 Hz y más).

Cada banda tiene asociaciones funcionales bien estudiadas. Alpha aumenta cuando cerrás los ojos y bajás la actividad visual. Beta correlaciona con vigilancia y procesamiento motor. Gamma, históricamente, con percepción consciente y atención focalizada, aunque la evidencia es más matizada de lo que sugiere la divulgación. Delta domina durante el sueño profundo.[15]

El detalle importante es que el EEG no es una imagen del pensamiento. Es un correlato eléctrico de baja resolución de procesos masivos. Si querés saber qué está pensando alguien en sentido específico, el EEG no te lo dice. Si querés saber si está concentrado, somnoliento, en alpha, en flow motor, eso sí lo podés inferir con relativa robustez. La frontera entre lo que el EEG sirve y lo que no, está poblada de prometeos y charlatanes.

Hay un parentesco semántico interesante con la crítica anterior. Igual que la "neurona artificial" oculta la complejidad de la neurona real, la "lectura del cerebro" en EEG comercial oculta cuánto se está perdiendo en el camino entre la actividad subyacente y el potencial registrado. La señal está ahí. Es real. Pero es a la actividad cerebral lo que la sombra de un edificio es al edificio.


9. Lo que los psicodélicos revelan sobre la conexión

Acá es donde la neurociencia se vuelve politica, aunque no quiera. Y donde el Ganglion que tengo en el escritorio se conecta con algo más grande que un proyecto de hobby.

En 2016, un equipo del Imperial College Londres liderado por Robin Carhart-Harris publicó en Current Biology un estudio que midió, por primera vez con neuroimagen moderna, lo que le pasaba al cerebro bajo los efectos del LSD.[16] El hallazgo central fue contundente: el LSD aumenta la conectividad global del cerebro. Regiones que normalmente no se hablan empiezan a comunicarse. La arquitectura modular, esa que mantiene la corteza visual separada de la corteza auditiva, la memoria episódica separada de la planificación, se vuelve más porosa. El cerebro bajo LSD es, literalmente, más conectado.

Pero hay más. Carhart-Harris había desarrollado antes lo que llama la "hipótesis del cerebro entrópico".[17] La idea es que la consciencia existe en un espectro de entropía: en un extremo, estados altamente ordenados y rígidos (coma, sueño profundo, estados obsesivos); en el otro, estados de alta entropía donde el sistema explora más posibilidades (experiencias psicodélicas). Nuestra consciencia normal de vigilia está en algún punto intermedio. No es el máximo de orden ni el máximo de caos: es un régimen que evolucionó para ser útil, no para ser fiel a cómo son las cosas.

¿Qué es lo que el LSD relaja, exactamente? La red neuronal por defecto, o default mode network (DMN). El DMN es un conjunto de regiones (córtex cingulado posterior, córtex prefrontal medial, la unión temporoparietal) que se activa cuando no estamos haciendo nada en particular: cuando divagamos, cuando pensamos en nosotros mismos, cuando construimos la narrativa de quién somos. Es, funcionalmente, donde vive el ego. El LSD desactiva el DMN. La experiencia subjetiva de "disolución del ego" correlaciona, en los datos de fMRI, con la desintegración de esa red.[18] No es metafísica. Es topología cerebral medida con resonancia magnética.

El mecanismo químico es conocido: los psicodélicos clásicos (LSD, psilocibina, DMT, mescalina) son agonistas parciales del receptor serotoninérgico 5-HT2A. Estos receptores están concentrados en las capas superficiales del córtex prefrontal y en la capa V de la corteza. Cuando se activan, reducen el filtrado que el cerebro hace normalmente sobre su propia actividad. Es como si el cerebro tuviera un sistema de cancelación de ruido —útil para la supervivencia— y los psicodélicos lo bajan un momento. Lo que queda no es "más consciente" ni "menos consciente": es menos filtrado. Es el cerebro sin el compresor puesto.

Y acá viene lo que me interesa, porque conecta directamente con el EEG del que hablaba antes. Cuando los psicodélicos relajan el DMN y aumentan la conectividad global, hay cambios medibles en el espectro de potencia electroencefalográfico. Los estudios de EEG con psicodélicos muestran tres hallazgos robustos:[19]

  • Reducción consistente de la potencia en banda alpha. La banda alpha (8-13 Hz), que domina el EEG en reposo de un adulto despierto con los ojos cerrados, cae significativamente bajo psilocibina y LSD. Es el marcador electrofisiológico más replicable del estado psicodélico.
  • Aumento de la complejidad de la señal. Medida con entropía de muestra, dimensionalidad fractal, diversidad de señales. El cerebro bajo psicodélicos produce señales más complejas, más impredecibles, más ricas en información.
  • Cambios en la conectividad funcional entre bandas. Las relaciones cruzadas entre bandas (acoplamiento theta-gamma, por ejemplo) se modifican, reflejando esa mayor comunicación interregional que el fMRI ya había mostrado.

¿Por qué esto importa para alguien con un Ganglion de cuatro canales? Porque la reducción de alpha y el aumento de complejidad son señales que se pueden detectar con equipos de consumo. No necesitás un escáner de tres millones de dólares. Un EEG de cuatro canales, bien colocado, con los electrodos sobre las regiones parietales y occipitales donde alpha es más fuerte, puede capturar esa caída. Significa que si alguien quisiera hacer un experimento riguroso —medir su propia banda alpha en reposo, bajo meditación, bajo condiciones alteradas— el hardware abierto ya está a la altura. El bottleneck no es la tecnología. Es el marco ético y legal para usarla.

Y acá es donde la neurociencia choca con la política, de frente.

El LSD fue sintetizado por Albert Hofmann en los laboratorios Sandoz en 1938. Entre 1950 y 1965, se publicaron más de mil papers clinicos sobre psicodélicos. Se usaron en terapia para alcoholismo, ansiedad existencial en pacientes terminales, depresión. Los resultados eran prometedores. Después, en 1970, Estados Unidos clasificó el LSD como Sustancia Controlada Schedule I: sin uso médico aceptado, alto potencial de abuso. La investigación se detuvo durante décadas. No por datos científicos. Por política.

En 2016, Dan Baum publicó en Harper's Magazine una cita de John Ehrlichman, asesor de Richard Nixon, que lo decía sin vueltas: "Sabíamos que mentíamos sobre las drogas. Lo hacíamos para atacar a los hippies y a los negros. ¿Y mentir sobre las drogas? Por supuesto que mentíamos."[20] La Guerra contra las Drogas no fue una política de salud pública. Fue una herramienta de control político. Y el costo en conocimiento fue enorme: cincuenta años de investigación sobre consciencia, plasticidad cerebral, neurotransmisión, interrumpidos porque la política decidió que ciertos estados de consciencia eran ilegales.

La ironía es que las culturas que usaban estas sustancias desde hace milenios —los huitotos y sionas del Amazonas con el yajé, los wirrarikas de México con el peyote, los Mazatecos con los hongos de psilocibina— nunca perdieron ese conocimiento. Simplemente fue criminalizado, junto con las personas que lo sostenían. Cuando la ciencia occidental "redescubre" la psilocibina para la depresión resistente a tratamiento y la publica en Nature Medicine,[21] no está descubriendo nada: está re-legitimando, con las herramientas del poder académico, lo que pueblos enteros ya sabían y por lo cual fueron perseguidos.

Hoy, mientras tanto, empresas como Compass Pathways patentan procesos de síntesis de psilocibina para uso terapéutico.[22] La sustancia que crece en los campos se convierte en propiedad intelectual. El conocimiento indígena que la rodea no recibe regalías. Es extractivismo cognitivo, el mismo patrón de siempre, con un subject line diferente.

Lo que los psicodélicos enseñan sobre el cerebro —que la conectividad es regulable, que el ego tiene un sustrato topológico, que la consciencia normal es un régimen entre otros posibles— no es un dato más. Es una ventana a algo que la metáfora de la "neurona artificial" cierra de entrada: la idea de que el cerebro no es una máquina de computar, sino un sistema dinámico con múltiples estados estables, y que el estado en el que opera normalmente no es el único, ni necesariamente el más rico.


10. Mi proyecto: un Ganglion, cuatro canales, sintes open source

Ahora la parte personal, que es la que motivó toda esta nota. Tengo desde hace meses un OpenBCI Ganglion: una placa abierta, basada en el chip ADS1299 de Texas Instruments, con cuatro canales bipolares, muestreo a 200 Hz, conectividad Bluetooth, alrededor de 300 dólares.[23] OpenBCI es un proyecto de hardware abierto, fundado en 2014 con un Kickstarter exitoso, que liberó esquemáticos, firmware y software para BCI. Es, en su nicho, lo que VCV Rack es a los sintetizadores modulares: una plataforma que democratiza un campo que durante décadas estuvo cerrado.

La idea, que muchos tuvieron antes que yo y que yo estoy reapropiando para mi gusto, es esta: usar la actividad EEG para controlar un sintetizador modular. No "leer" la mente para tocar Mozart, eso es magia. Algo más modesto y más interesante: tomar la potencia espectral en bandas concretas (alpha, beta, gamma) en tiempo real, mapearla a CV (control voltage) o MIDI, y dejar que la actividad cerebral module parámetros del sonido (cutoff de filtro, resonancia, ratio FM, decay del envelope).

Y ahora que leí la sección anterior, la conexión es directa. Si los psicodélicos reducen alpha y aumentan la complejidad de la señal, y si el Ganglion puede medir alpha y complejidad en tiempo real, entonces el sistema que estoy armando no es solo un instrumento musical: es un portal empírico para explorar estados de consciencia. No necesito escáner de resonancia. Necesito buenos electrodos, un script de Python, y curiosidad. La meditación profunda reduce alpha. El flow musical la redistribuye. Los estados hipnagógicos la alteran. Cada uno de esos estados tiene un perfil espectral, y el Ganglion lo captura. Es neurociencia amateur en el mejor sentido: ciencia hecha por curiosidad, no por grant.

Lo que descubrís cuando lo armás es que la metáfora "controlar con la mente" se desploma rápido. El operador se vuelve experto en producir estados que producen señales que mueven el filtro hacia donde el operador quiere. No es telepatía musical. Es biofeedback con mucho ruido. Aprendés a relajar los músculos faciales (el EEG capta artefactos de EMG facial muy fácil), a parpadear menos, a entrar en estados respiratorios que correlacionan con la banda que querés. Lo que parecía control mental directo es, en realidad, un loop de retroalimentación sensoriomotor donde el sujeto entrena al hardware tanto como el hardware "lee" al sujeto.

Y eso es interesantísimo. Porque enseña, sin necesidad de discurso, exactamente la lección que la metáfora "redes neuronales" oscurece: el cerebro no es un dispositivo que produce contenido legible. Es un sistema dinámico embebido en un cuerpo, en un loop con su entorno, donde la "señal" es siempre una proyección parcial de algo más rico. Cuando vos sos el experimentador y el sujeto, cuando ponés tus propios electrodos, cuando ves tu propia gamma subir en el osciloscopio, la idea de "leer el cerebro" se desinfla en pocas sesiones.

El stack que estoy usando, por si le sirve a alguien:

  • Hardware: OpenBCI Ganglion + electrodos Ag/AgCl con pasta conductora. Probé también dry electrodes pero la calidad de señal cae mucho.
  • Captura: BrainFlow (librería abierta, multi-lenguaje, soporta varios devices) en Python.
  • DSP: numpy/scipy para FFT y bandas. Welch para potencia espectral. Filtros notch a 50 Hz para línea (acá en Uruguay).
  • Mapeo a control: un script que toma potencia por banda y emite OSC (Open Sound Control) o MIDI.
  • Sintes: VCV Rack (modular open source) recibiendo el OSC, y eventualmente módulos hardware controlados por una interfaz CV/MIDI (Expert Sleepers ES-9 o similar).

El proyecto no termina nunca. Es de los proyectos donde el proceso enseña más que el resultado. Si querés arrancar con algo parecido, OpenBCI tiene comunidad activa, BrainFlow tiene ejemplos en Python, VCV Rack es gratis, y los electrodos cuestan poco. La barrera real es paciencia: la señal de EEG es ruidosa, los artefactos son brutales, y los primeros experimentos son frustrantes. Después se vuelve adictivo.


11. La trampa del tiempo lineal

Hay algo que recorre toda esta nota y que todavía no nombré. Es una trampa, y es nuestra mejor herramienta evolutiva al mismo tiempo: la percepción lineal del tiempo.

El cerebro humano procesa el tiempo en múltiples escalas simultáneamente. Oscilaciones theta anidan ciclos gamma dentro de sí. El hipocampo codifica secuencias espaciales mediante precesión de fase: una neurona de lugar dispara en fases cada vez más tempranas del ciclo theta a medida que el animal avanza por una pista.[24] Es un reloj biológico sofisticado, pero no es lineal. Es cíclico, jerárquico, con recursividad.

Sin embargo, nuestra experiencia consciente del tiempo es lineal. Antes → ahora → después. Causa → efecto. Narrativa. Y esta percepción lineal es probablemente nuestra herramienta evolutiva más poderosa. Lo que nos distingue (o nos distinguió, hasta que empezamos a cambiar las reglas) es la capacidad de planificar, de construir cadenas causales mentales, de proyectar futuros posibles y elegir entre ellos. El tiempo lineal es lo que permite la agricultura, la arquitectura, la política, la ciencia. Es el fundamento de la narrativa, y la narrativa es el fundamento de la cultura.

Pero es una trampa. Una trampa semiótica.

Porque el tiempo lineal nos obliga a pensar la consciencia, el cerebro, la inteligencia, como procesos que van de A a B. Entrada → procesamiento → salida. Pasado → presente → futuro. Y cuando encontramos sistemas que no funcionan así —el cerebro real, que es un sistema oscilatorio con retroalimentación constante; los estados psicodélicos, donde pasado, presente y futuro colapsan en una experiencia simultánea; los ritmos cerebrales, que son cíclicos y no secuenciales— nuestro primer impulso es forzarlos dentro de la narrativa lineal. Es lo que hacemos cuando describimos una oscilación theta como "una secuencia de fases". No es una secuencia. Es un ciclo. Pero nuestra lengua —sujeto, verbo, objeto; antes, ahora, después— no tiene una gramática para lo cíclico.

Henri Bergson lo vio hace más de un siglo. En Tiempo y duración libre (1889), distinguió entre el tiempo espacializado —el del reloj, el de la física, el de los intervalos medibles— y la durée, la duración vivida, que no se deja dividir en instantes discretos sin perder lo que la constituye.[25] Para Bergson, la inteligencia humana tiene una tendencia estructural a espacializar el tiempo: a tratarlo como una cuarta dimensión del espacio, a ponerlo en una línea. Es útil para la física. Es desastroso para entender la experiencia. El famoso debate Bergson-Einstein de 1922 fue exactamente sobre esto: Einstein diciendo que "el tiempo de los filósofos no existe", Bergson respondiendo que el tiempo de los físicos es una abstracción que elimina precisamente lo que importa de la experiencia temporal. La historia declaró ganador a Einstein. Medio siglo después, la neurociencia le está dando la razón a Bergson en lo esencial: el cerebro no procesa el tiempo como un reloj. Lo procesa como música.[26]

Y la música es un buen lugar para pensar esto, porque la música es temporal pero no lineal. Una escala ascendente va de A a B, sí, pero un acorde es simultáneo. Una fuga tiene voces que entran en diferente momento pero que existen en el mismo espacio sonoro. Un ritmo es cíclico por definición. Cuando el Ganglion traduce actividad EEG a sonido, lo que estás haciendo es tomar un sistema que procesa tiempo de forma no lineal (el cerebro) y representarlo en un medium que también procesa tiempo de forma no lineal (la música). Es una traducción entre dos sistemas que no caen en la trampa del tiempo lineal, y por eso la traducción funciona.

Los psicodélicos, de nuevo, son relevantes acá. Uno de los efectos más reportados es la alteración de la percepción temporal: el tiempo se ralentiza, se acelera, se vuelve irrelevante. Lo que está pasando, neurofisiológicamente, es que el filtrado temporal normal —ese que mantiene la experiencia en la narrativa antes-ahora-después— se relaja, igual que el DMN. El cerebro bajo psicodélicos procesa el tiempo de forma más distribuida, menos secuencial. No es que "el tiempo se detenga". Es que el compresor temporal se apaga y la experiencia se vuelve más densa, más simultánea, menos lineal.[27]

La inteligencia artificial, vale la pena notarlo, también está atrapada en la linealidad temporal. Los transformers procesan secuencias. La atención se aplica sobre tokens ordenados en el tiempo. Los modelos generativos producen un token después de otro. La arquitectura misma asume que el tiempo es una secuencia discreta y ordenada. Es la misma trampa. El mecanismo es diferente —matrices en vez de consciencia— pero el supuesto es el mismo: el tiempo va de A a B.

Entonces la pregunta no es si la percepción lineal del tiempo es correcta o incorrecta. Es una herramienta evolutiva brillante. La pregunta es: ¿qué vemos cuando aprendemos a notar que es una herramienta, y no una propiedad del mundo? Cuando entendemos que la linealidad temporal es un filtro, no una ventana. Que lo que filtra es tan real como lo que deja pasar. Que la trampa semiótica no es un error cognitivo sino una condición de la narrativa —y que la narrativa es lo que nos hace humanos, pero también lo que nos impide ver lo que hay fuera de ella.

El Ganglion, la música, los psicodélicos, la meditación: todas son formas de salir momentáneamente de la linealidad. No permanentemente. No queremos vivir sin antes y después. Queremos, de vez en cuando, notar que el antes y el después son una construcción, y que la construcción es útil pero no es todo lo que hay.


12. Por qué la metáfora vende, quién la vende, y a qué precio

Vale preguntarse por qué la palabra "neurona" sobrevivió en IA, por qué "red neuronal" se impuso sobre alternativas más exactas como "función paramétrica diferenciable optimizada por gradiente". La respuesta no es técnica. Es retórica y económica.

La metáfora cerebral hace tres cosas que ninguna descripción honesta puede:

Primero, conecta el campo con un misterio prestigioso. El cerebro humano es la cosa más compleja que conocemos. Decir que tu producto se parece al cerebro le presta gravedad de inmediato. Si decís "compré una matriz de transformaciones afines compuestas con no linealidades" no levantás capital. Si decís "construí una red neuronal" sí.

Segundo, naturaliza el resultado. Si la red "aprende como un cerebro", entonces lo que produce parece pensamiento, y el sistema parece inteligente en sentido fuerte. Esto es central para la actual ronda de hype sobre AGI: el lenguaje sugiere que estamos construyendo mentes, no programas estadísticos enormes. Cuando un director ejecutivo dice que su modelo "piensa", está cobrando un dividendo retórico que viene de la metáfora original de 1943.

Tercero, oscurece la responsabilidad. Si el modelo es como un cerebro, sus errores son "alucinaciones", como si fueran fenómenos involuntarios de una mente. La palabra "alucinación" para describir un error estadístico es síntoma puro de la metáfora cerebral. Una calculadora no "alucina" cuando se equivoca. Un compilador no "alucina" cuando crashea. El lenguaje del cerebro suaviza errores que en otra disciplina se llamarían simplemente fallas del modelo.

No estoy diciendo que la gente que trabaja en IA mienta. La mayoría sabe perfectamente que sus redes no son cerebros. La metáfora sobrevive porque sirve, porque está incrustada en los nombres de los algoritmos (perceptrón, neurona, sinapsis, plasticidad), y porque el costo de cambiarla sería enorme. Pero conviene entender quién se beneficia de que sobreviva, y qué se pierde cuando la metáfora reemplaza al conocimiento.

Pero hay una dimensión más, y es la que me interesa. La metáfora no es solo retórica: es una economía política del conocimiento.

Cuando OpenAI recauda miles de millones vendiendo la promesa de "inteligencia general artificial", está vendiendo la metáfora. No están vendiendo código diferenciable. Están vendiendo la idea de que ese código es una mente en crecimiento. La valuación de estas empresas depende de que inversores y público crean que "red neuronal" significa algo más cercano a "cerebro" que a "matemática de primer año". Si la metáfora se desmonta —si la gente entiende que una red neuronal artificial no es una red de neuronas sino una función paramétrica—, la narrativa de inversión se debilita.

Y esto tiene consecuencias distribuidas. El mismo sistema que financia campañas billonarias de "IA con propósito" es el que criminalizó el estudio empírico de la consciencia durante cincuenta años. La Guerra contra las Drogas no fue una política de salud. Fue una herramienta de control racial y político que, como efecto colateral, interrumpió una de las líneas de investigación más fructíferas sobre el cerebro humano. Ahora que la psilocibina es "redescubierta" por laboratorios de universidades prestigiosas y se convierte en un mercado farmacéutico emergente, las patentes van a empresas con sede en Delaware, no a las comunidades que preservaron ese conocimiento durante siglos.

DARPA, la agencia de investigación militar estadounidense, es uno de los mayores financiadores de investigación en interfaces cerebro-computadora. Su programa N3 (Next-Generation Nonsurgical Neurotechnology) busca explícitamente interfaces neuronales no invasivas para soldados en combate.[28] No es una exageración decir que la misma tecnología que permite a alguien controlar un sintetizador modular con su actividad EEG podría, en otro contexto, ser usada para optimizar el rendimiento de un soldado en el campo de batalla. La investigación no es neutral. El financiamiento la orienta.


13. Puentes posibles

Termino con lo que creo, no por buena onda sino porque es donde llevo años pensando. Y esta vez con más preguntas que certezas.

La IA actual y la neurociencia comparten preguntas profundas, pero compartirlas no es lo mismo que responderlas con los mismos modelos. Hay direcciones donde el puente puede volverse productivo:

Predictive coding como marco unificador. Si Friston tiene parte de razón, el cerebro y los grandes modelos auto-supervisados están haciendo cosas formalmente parecidas. Eso abre la puerta a que la neurociencia oriente arquitecturas (jerarquías, neuromodulación, predicción como pérdida primaria) y a que la IA, a su vez, ayude a entender mejor cómo el cerebro implementa esos cómputos.

Neuromorphic computing como pista termodinámica. El cerebro funciona con 20 vatios. Las redes que escriben textos como este consumen megavatios. La diferencia es absurda y va a tener que cerrarse en algún momento. Cuando se cierre, los chips no van a parecerse a una H100. Se van a parecer al Loihi 2.

BCI honesto como territorio compartido. Ni Neuralink Inc. resolviendo el alma con cables, ni "ondas cerebrales" comerciales que prometen leer mentes. Pero sí: hardware abierto (OpenBCI, BrainFlow, electrodos secos cuando mejoren), software libre (VCV Rack, Pure Data, SuperCollider), comunidades que conocen los límites reales de la señal y trabajan dentro de ellos. Eso ya existe. Es chico. Es bueno. Y es radicalmente más interesante que cualquier promesa de Silicon Valley.

El tiempo como pregunta abierta. Si la linealidad temporal es un filtro evolutivo y no una propiedad del mundo, entonces tanto la IA como la neurociencia están operando dentro de una limitación compartida. ¿Qué pasaría si diseñáramos sistemas —de computación, de música, de pensamiento— que no asumieran que el tiempo va de A a B? Los chips neuromórficos, que son asincrónicos, son un paso en esa dirección. Los estados psicodélicos son otro. La música, desde siempre, es otro.

La próxima vez que alguien diga que las redes neuronales aprenden como nuestros cerebros, sin contexto, sin matiz, levantá una ceja. No para discutir, sino para preguntar de qué neurona estamos hablando: la de McCulloch y Pitts de 1943, la de Crick que negaba el backprop, la del córtex de Hawkins, la del modelo matemático de Hopfield, o la que se está disparando en este momento bajo tu cuero cabelludo mientras leés esto. Son cinco cosas distintas. La palabra es la misma porque es cómoda. Pero las cinco no son lo mismo, y conviene ir aprendiendo a distinguirlas.

Y si después de leer todo esto, alguien en el meetup quiere seguir la conversación sobre el tiempo, sobre los psicodélicos, sobre quién financia la neurociencia y para qué —ahí sí, con birra o sin birra, ese es el debate que vale la pena tener. No para tener razón. Para que el mapa se acerque un poco más al territorio.


Notas y fuentes


  1. McCulloch, W. S., y Pitts, W. (1943). "A logical calculus of the ideas immanent in nervous activity". Bulletin of Mathematical Biophysics, 5, 115-133. El paper fundacional. Disponible en archivo. ↩︎

  2. Beniaguev, D., Segev, I., y London, M. (2021). "Single cortical neurons as deep artificial neural networks". Neuron, 109(17), 2727-2739. Un estudio que mostró que reproducir la actividad de una sola neurona piramidal de capa 5 requiere una red artificial profunda de varias capas. Línea de investigación iniciada por trabajos previos de Bartlett Mel. ↩︎

  3. Bi, G. Q., y Poo, M. M. (1998). "Synaptic modifications in cultured hippocampal neurons: dependence on spike timing, synaptic strength, and postsynaptic cell type". Journal of Neuroscience, 18(24), 10464-10472. Paper canónico sobre STDP. ↩︎

  4. Araque, A., et al. (2014). "Gliotransmitters travel in time and space". Neuron, 81(4), 728-739. Una revisión sobre la transmisión astrocítica y su rol en la plasticidad. ↩︎

  5. Crick, F. (1989). "The recent excitement about neural networks". Nature, 337(6203), 129-132. Editorial breve, muy citado, donde Crick señala que la implausibilidad biológica de backprop es un problema serio si uno quiere modelos del cerebro. ↩︎

  6. Hinton ha repetido esta posición en varios medios. Una buena cobertura: "Geoffrey Hinton: 'I don't think AI is conscious yet'", entrevistas en MIT Technology Review (2020) y luego del Nobel 2024 en The Guardian. La idea recurrente: backprop funciona en máquinas, pero el cerebro probablemente usa otra cosa. ↩︎

  7. Hopfield, J. J. (1982). "Neural networks and physical systems with emergent collective computational abilities". Proceedings of the National Academy of Sciences, 79(8), 2554-2558. El paper canónico de la red de Hopfield. La conexión con física estadística es explícita desde el título. ↩︎

  8. Ramsauer, H., et al. (2020). "Hopfield Networks is All You Need". arXiv:2008.02217. El paper que estableció la equivalencia formal entre redes de Hopfield modernas y el mecanismo de atención de transformers. ↩︎

  9. Friston, K. (2010). "The free-energy principle: a unified brain theory?". Nature Reviews Neuroscience, 11(2), 127-138. La formulación canónica del principio. Friston tiene literatura técnica densa, pero esta revisión es relativamente accesible. ↩︎

  10. Bottini, R., y Doeller, C. F. (2020). "Knowledge across reference frames: Cognitive maps and image spaces". Trends in Cognitive Sciences, 24(8), 606-619. Sobre representaciones espaciales y semánticas en hipocampo y corteza entorrinal, y su parentesco con embeddings. ↩︎

  11. Hawkins, J. (2021). A Thousand Brains: A New Theory of Intelligence. Basic Books. La exposición más reciente y accesible de la tesis de Numenta. Su libro previo, On Intelligence (2004), sigue siendo referencia. ↩︎

  12. Merolla, P. A., et al. (2014). "A million spiking-neuron integrated circuit with a scalable communication network and interface". Science, 345(6197), 668-673. El paper de TrueNorth. ↩︎

  13. Davies, M., et al. (2018). "Loihi: A Neuromorphic Manycore Processor with On-Chip Learning". IEEE Micro, 38(1), 82-99. La descripción técnica de Loihi. ↩︎

  14. Furber, S. B., et al. (2014). "The SpiNNaker Project". Proceedings of the IEEE, 102(5), 652-665. Manchester, ARM cores, simulación neuronal en tiempo real. ↩︎

  15. Buzsáki, G. (2006). Rhythms of the Brain. Oxford University Press. La referencia canónica sobre oscilaciones cerebrales. Buzsáki es uno de los grandes nombres del campo. ↩︎

  16. Tagliazucchi, E., et al. (2016). "Increased global functional connectivity correlates with LSD-induced ego dissolution". Current Biology, 26(8), 1043-1050. El estudio seminal del Imperial College Londres sobre LSD y conectividad cerebral. ↩︎

  17. Carhart-Harris, R. L., et al. (2014). "The entropic brain: a theory of conscious states informed by neuroimaging research with psychedelic drugs". Frontiers in Human Neuroscience, 8, 20. La hipótesis del cerebro entrópico. Revisada en Carhart-Harris (2018), "The entropic brain revisited", Neuropharmacology, 142, 167-178. ↩︎

  18. Carhart-Harris, R. L., et al. (2016). "Neural correlates of the LSD experience revealed by multimodal neuroimaging". Proceedings of the National Academy of Sciences, 113(17), 4853-4858. fMRI + MEG bajo LSD, mostrando desintegración del DMN. ↩︎

  19. Riba, J., et al. (2002). "Effects of ayahuasca on sensory and sensorimotor gating in humans as measured by P50 suppression and prepulse inhibition". Journal of Clinical Psychopharmacology; Schenberg, E. E., et al. (2015). "Acute biphasic effects of ayahuasca on EEG theta power". Journal of Psychopharmacology; Valle, M., et al. (2016). "Inhibition of alpha oscillations through serotonin-2A receptor activation contributes to the visual effects of psychedelics in humans". European Neuropsychopharmacology. Para una revisión reciente: "Actividad eléctrica del cerebro psicodélico: revisión sistemática sobre estudios clínicos con EEG en estado de reposo", Revista Chilena de Neuro-Psiquiatría, 2024. ↩︎

  20. Baum, D. (2016). "Legalize It All". Harper's Magazine, April 2016. La cita de Ehrlichman fue controversial pero consistente con la evidencia historica de la politica Nixoniana. Para contexto: EJI (Equal Justice Initiative), "Nixon Adviser Admits War on Drugs Was Designed to Criminalize Black People", 2016. ↩︎

  21. Goodwin, G. M., et al. (2022). "Single-dose psilocybin for a treatment-resistant episode of major depression". New England Journal of Medicine, 387(18), 1637-1648. El estudio clinico de fase 2 de Compass Pathways. ↩︎

  22. Compass Pathways patentó procesos de síntesis de psilocibina (patentes US 11.013.999 y relacionadas). Sobre las críticas a la biopiratería psicodélica: "Who owns psychedelics?" series en DoubleBlind Magazine; Bathje, N. J., et al. (2022). "Decolonizing the psychedelic science field". Journal of Psychedelic Studies. ↩︎

  23. Documentación oficial de OpenBCI: docs.openbci.com. Para BrainFlow, brainflow.org y su repo en GitHub. VCV Rack: vcvrack.com. Todos los proyectos mencionados son open source y tienen comunidades activas. ↩︎

  24. O'Keefe, J., y Recce, M. L. (1993). "Phase relationship between hippocampal place units and the EEG theta rhythm". Hippocampus, 3(3), 317-330. El paper original sobre precesión de fase. Para una revisión accesible: Buzsáki, G., y Moser, E. I. (2013). "Memory, navigation and theta rhythm in the hippocampal-entorhinal system". Nature Reviews Neuroscience, 14(7), 474-486. ↩︎

  25. Bergson, H. (1889). Essai sur les données immédiates de la conscience (Tiempo y duración libre). La distinción entre tiempo espacializado y duración vivida es el centro de toda su filosofía. Para la conexión con neurociencia moderna: Poppel, E. (1988). Mindworks: Time and Conscious Experience; y más recientemente, Northoff, G. (2016). "How does the brain's spontaneous activity generate our conscious experience?" en Neuroscience of Self. ↩︎

  26. El debate Bergson-Einstein de 1922 en la Société française de philosophie está documentado en Bergson, H. (1922). Durée et Simultaneité. Para una excelente revisión moderna: Canales, J. (2015). The Physicist and the Philosopher: Einstein, Bergson, and the Debate That Changed Our Understanding of Time. Princeton University Press. ↩︎

  27. Wittmann, M., et al. (2007). "Effects of psilocybin on time perception and temporal control of behaviour in humans". Journal of Psychopharmacology; Arsiwalla, X. D., et al. (2018). "Psychotics and psychedelics: A phenomenological comparison of time experience". Para una revisión reciente: "Psychedelics and time: Exploring altered temporal perception", Genomic Press, 2025. ↩︎

  28. DARPA N3 Program: "Next-Generation Nonsurgical Neurotechnology". Documentación pública en darpa.mil. Para contexto militar: Tate, A., et al. (2014). "DARPA-funded efforts in the development of novel brain-computer interface technologies". Journal of Neuroscience Methods, 244, 52-62. Y más recientemente: Robitaille, N., et al. (2025). "Soldier enhancement through brain-computer interfaces: the risks of changing the human condition". RUSI Journal, 170(1). ↩︎