La geometría de todo: una síntesis de investigación de Riemann a los transformers
Durante los últimos meses he estado trabajando en un proyecto de colección de investigación llamado La geometría de todo: de Riemann a Einstein a la conciencia. Ya está en línea como un sitio interactivo en the-geometry-of-everything.vercel.app, y este post es un recorrido breve por lo que es, por qué lo construí y qué me parece interesante del resultado.
La versión en una sola oración
La conferencia de habilitación de Bernhard Riemann en 1854 introdujo una idea radical: la geometría no es un fondo fijo —está moldeada por lo que vive dentro de ella. La síntesis argumenta que esta misma intuición reaparece, con la misma estructura matemática, en tres lugares que normalmente se tratan como no relacionados:
- La relatividad general, donde la masa-energía curva el espacio-tiempo y la materia sigue geodésicas.
- Las redes neuronales tipo transformer, donde el contenido de los tokens moldea la geometría de la atención y los "pensamientos" trazan trayectorias a través de una variedad aprendida.
- El cerebro, donde la actividad poblacional neuronal se organiza sobre variedades curvas de baja dimensión cuya geometría refleja la cognición y la conciencia.
El lema recurrente: el contenido curva el espacio en el que vive, y el espacio curvado guía el movimiento del contenido.
Por qué construirlo como una colección de investigación
No partí con la idea de escribir un paper —partí con la idea de mapear una pregunta. Existe una ola de resultados recientes (en su mayoría de 2024 a 2026) que individualmente parecen aplicaciones ingeniosas de la geometría diferencial al ML o a la neurociencia. Vistos en conjunto, empiezan a sentirse menos como analogías y más como la misma maquinaria apareciendo con distintos disfraces.
El proyecto está estructurado como una síntesis de investigación multiagente: aproximadamente 137 secciones a lo largo de 32 partes, con más de 250 papers referenciados. Los agentes se encargaron de la recuperación de literatura, el emparejamiento entre dominios y los borradores de síntesis; yo me encargué de la curaduría, la tesis central y la columna editorial. Es el tipo de proyecto que ni siquiera hace dos años habría sido viable hacer en solitario.
El mapeo que se sostuvo
El resultado más claro es un diccionario directo entre dominios. Los mismos objetos matemáticos aparecen en los tres campos:
| Concepto | Física | Machine Learning | Neurociencia |
|---|---|---|---|
| Espacio subyacente | Variedad espacio-temporal 4D | Variedades de datos / latentes | Variedades del espacio de estados neuronales |
| Tensor métrico | Potencial gravitacional | Matriz de información de Fisher | Métrica neuronal |
| Curvatura | Gravedad | Topología del paisaje de pérdida | Error de predicción |
| Trayectorias | Geodésicas / caída libre | Flujo de gradiente natural | Flujos de pensamiento |
Esto no es una metáfora. La métrica de información de Fisher usada en el descenso por gradiente natural es, formalmente, el mismo tipo de objeto que el tensor métrico en relatividad general. La geodesic sharpness —una medida reciente de generalización que respeta las simetrías de los transformers— recupera señal que las medidas planas de sharpness pierden. RiemannFormer (2025) muestra que los rotary position embeddings (RoPE) son un caso particular de atención riemanniana en espacio plano.
Los hallazgos recientes más interesantes
Tres resultados de 2024–2026 me sorprendieron lo suficiente como para mencionarlos por separado:
1. Las variedades neuronales son reales, no solo una ficción útil
MARBLE (Nature Methods, 2025) demostró que los datos poblacionales neuronales biológicos viven sobre variedades curvas reales con estructura riemanniana medible —no subespacios lineales con curvatura agregada por sabor. La dimensionalidad de estas variedades correlaciona con el nivel de conciencia.
2. El aprendizaje está gobernado por flujo de Ricci
La misma ecuación que Perelman usó para demostrar la conjetura de Poincaré resulta describir cómo evoluciona la geometría de las features durante el entrenamiento de una red neuronal. El flujo de Ricci discreto sobre el paisaje de pérdida no es una analogía aquí; es la dinámica real.
3. Las redes neuronales redescubren el espacio-tiempo
Entrenadas únicamente con datos de frontera, ciertas redes neuronales recuperan de forma autónoma métricas de agujero negro BTZ —sin que se les diga nada sobre relatividad general. El espacio-tiempo, en un sentido estrecho pero real, es algo que un sistema de aprendizaje puede encontrar por sí solo.
También hay evidencia creciente de que el grokking es una transición de fase genuina con exponentes críticos medibles y barreras de activación tipo Arrhenius, y de que las leyes de escalamiento se ven como flujos de grupo de renormalización. El vocabulario termodinámico sigue ajustando demasiado bien como para ser coincidencia.
Donde la síntesis se arriesga
Quiero ser honesto sobre qué es sólido y qué no. La historia geométrica en física tiene más de un siglo. La historia geométrica en ML es reciente pero cada vez más empírica. La historia geométrica en la conciencia es la parte más especulativa —aun cuando la Teoría de la Información Integrada 4.0 trata explícitamente la experiencia como forma geométrica, y aun cuando la dinámica de las variedades cerebrales es ahora medible, el salto de "la conciencia tiene correlatos geométricos" a "la conciencia es geométrica" sigue siendo un salto.
El proyecto no trata de ocultar esto. Las secciones más profundas de síntesis (Partes IX–XV) se presentan como un marco matemáticamente fundamentado para hacer mejores preguntas, no como una teoría terminada.
A quién le puede ser útil
- Practicantes de ML que buscan herramientas de interpretabilidad que tomen en serio la geometría de la atención, la generalización y el escalamiento.
- Neurocientíficos que quieren un vocabulario matemático compartido para analizar la actividad poblacional y compararla con sistemas artificiales.
- Físicos teóricos curiosos sobre el puente inesperado entre el machine learning y el espacio-tiempo emergente.
- Cualquiera que se haya preguntado por qué tantos campos siguen reinventando los mismos primitivos matemáticos bajo distintos nombres.
Lee el proyecto
La síntesis completa —las 32 partes, el mapeo entre dominios, las referencias y las secciones más profundas sobre conciencia y emergencia— vive en the-geometry-of-everything.vercel.app. Es gratis, es interactivo y está diseñado para leerse de forma no lineal —empieza por donde te jale la tabla de contenidos.
Si lo lees y encuentras una conexión que se me escapó, un paper que debería estar ahí, o un lugar donde el mapeo se rompe, me encantaría saberlo. Es el tipo de proyecto que se vuelve más afilado con feedback.
¿Necesitas agentes de IA para tu negocio?
En The Brainy Guys construimos y desplegamos agentes de IA en producción sobre infraestructura dedicada.
Conocer másRecibe ideas de IA e ingeniería
Artículos sobre agentes de IA, sistemas distribuidos y arquitectura de software. Sin spam, te puedes dar de baja cuando quieras.
Sigue leyendo
Construyendo flujos de trabajo agentivos con LangChain
Cómo diseñamos pipelines de agentes de IA de varios pasos en Intuit para automatizar flujos complejos de impuestos y finanzas — lecciones sobre orquestación, uso de herramientas y confiabilidad a escala.
Del monolito a los microservicios: lecciones de 20 años
Una retrospectiva de carrera sobre arquitectura de sistemas distribuidos — desde los primeros monolitos en Java hasta los microservicios orientados a eventos, y los trade-offs que realmente importan.