Dos Caras de la Misma Moneda: Cuando la IA Aprende Sola y Cuando Alguien Pregunta Quién Vigila
La inteligencia artificial acaba de dar dos pasos esta semana. Uno hacia adelante. Otro hacia los lados, para mirar a quién se lleva por delante. Y por primera vez en mucho tiempo, creo que los dos son igual de importantes.
¿Qué Ha Pasado Esta Semana?
Dos anuncios que, en la superficie, no tienen nada que ver entre sí.
El 7 de marzo, Andrej Karpathy —exdirector de IA en Tesla, cofundador de OpenAI, una de las mentes más influyentes del campo— publicó en abierto un proyecto llamado autoresearch. Un sistema donde agentes de inteligencia artificial ejecutan experimentos de investigación solos, en bucle, sin intervención humana. Te vas a dormir y te despiertas con 100 experimentos completados.
La misma semana, Anthropic —la empresa que creó Claude, la IA con la que trabajo cada día— lanzó The Anthropic Institute. Su misión: crear un espacio de diálogo real con trabajadores, industrias y comunidades afectadas por la IA.
Una noticia habla de velocidad. La otra habla de dirección. Y no se entiende la una sin la otra.
¿Qué Es Autoresearch y Por Qué Importa?
Karpathy condensó el núcleo de un sistema de entrenamiento de modelos de lenguaje (LLM) en 630 líneas de código Python. Un archivo. Una sola GPU. Sin infraestructura de millones de dólares.
El proyecto tiene tres piezas:
| Archivo | Quién lo toca | Qué hace |
|---|---|---|
prepare.py | Nadie (es fijo) | Descarga datos, prepara el tokenizador |
train.py | El agente IA | Modifica arquitectura, optimizador, hiperparámetros |
program.md | El humano | Define objetivos, límites y estrategia para el agente |
El flujo es simple y brutal:
- El agente modifica el código de entrenamiento
- Ejecuta un entrenamiento de exactamente 5 minutos
- Mide si el resultado mejoró (una métrica llamada validation bits-per-byte)
- Si mejoró → guarda el cambio como commit en Git. Si no → lo descarta
- Repite. Solo. Sin parar.
El ritmo: ~12 experimentos por hora. ~100 experimentos mientras duermes.
En el gráfico que Karpathy publicó en X, cada punto es un entrenamiento completo de un modelo de lenguaje. Cientos de puntos acumulados en una noche. El post acumuló 8,6 millones de visualizaciones en dos días.
La comunidad ya ha creado versiones para macOS y Windows. El proyecto tiene forks para GPUs más modestas. No necesitas un centro de datos. Necesitas una tarjeta gráfica y curiosidad.
¿Y Qué Es The Anthropic Institute?
Diana Szyperska, educadora de IA y pensadora crítica, resumió en LinkedIn lo que más le resonó del anuncio:
“Lo que más me llama la atención es el diseño bidireccional: feedback loops reales con trabajadores, industrias y comunidades que enfrentan disrupción real. No solo construir la tecnología, sino construir la arquitectura de responsabilidad alrededor de ella.”
El instituto no es un laboratorio técnico. Es un espacio para escuchar. Para que las personas que van a vivir las consecuencias de la IA tengan voz antes de que sea tarde, no después.
Anthropic lleva tiempo diferenciándose por su enfoque en seguridad. Pero un instituto dedicado a la rendición de cuentas (accountability) con comunidades reales es otra cosa. Es admitir, desde dentro de la industria, que construir la tecnología no es suficiente.
¿Por Qué Estas Dos Noticias Se Necesitan?
Aquí es donde quiero que nos detengamos un momento.
Autoresearch demuestra que los agentes autónomos ya no son un concepto. Son un repositorio de GitHub que puedes clonar hoy. Un agente que mejora solo, acumula conocimiento, y no necesita que nadie le diga cuándo parar.
Esto no se queda en laboratorios de Silicon Valley. Si un agente puede iterar sobre código de entrenamiento de IA, puede iterar sobre cualquier cosa que sea medible y mejorable: estrategias de marketing, configuraciones de red, cadenas de suministro, diagnósticos médicos.
Ahora pensemos: ¿quién define los límites?
En autoresearch, la respuesta es elegante: un archivo llamado program.md. Un documento escrito por un humano que establece qué puede hacer el agente, qué debe optimizar, y qué no debe tocar. Es, en esencia, gobernanza en miniatura. Un contrato entre el humano y la máquina, escrito en lenguaje natural.
Funciona porque el sistema es pequeño: un archivo, una GPU, un investigador. Pero ¿qué pasa cuando escalas eso a una industria entera? ¿A millones de trabajadores? ¿A comunidades que no escriben archivos .md?
Ahí es donde entra Anthropic Institute. Es el intento de crear el equivalente de program.md a escala social. No un archivo, sino una arquitectura. No instrucciones técnicas, sino conversaciones reales con personas reales.
¿Te está gustando? Compártelo
Lo Que Veo Desde Mi Trinchera
Tengo 72 años. Dirijo una agencia de viajes. Uso IA todos los días: para presupuestos, para contenido web, para gestionar expedientes, para escribir este blog. No soy ingeniero de machine learning. Soy un usuario intensivo que intenta entender a dónde va esto.
Y lo que veo es una bifurcación.
Por un lado, la velocidad a la que los agentes autónomos están madurando es difícil de procesar. Hace un año, un agente que iterara sobre código era ciencia ficción accesible solo a grandes laboratorios. Hoy es un proyecto de fin de semana con una sola GPU.
Por otro lado, la conversación sobre qué hacemos con esto sigue siendo demasiado lenta, demasiado abstracta, demasiado lejana de las personas que realmente van a vivir las consecuencias.
Mi industria —el turismo— no aparece en ningún whitepaper sobre IA responsable. Pero cuando un agente pueda planificar un viaje completo sin intervención humana (y no estamos lejos), la pregunta no será técnica. Será: ¿quién responde cuando algo sale mal? ¿Quién escucha al viajero que tiene un problema a las 3 de la mañana en Tokio?
La tecnología ya sabe cómo acelerar. La pregunta pendiente es quién escribe el program.md de la sociedad.
Tres Ideas Para Llevarte
-
El archivo más importante de autoresearch no es el código. Es el prompt.
program.mdes donde el humano marca los límites. Sin ese archivo, el agente no tiene dirección. La gobernanza empieza por definir qué NO debe hacer la máquina. -
La velocidad sin dirección es solo ruido. 100 experimentos por noche impresionan. Pero la pregunta correcta no es cuántos, sino hacia dónde. Y eso requiere criterio humano.
-
Escuchar es una tecnología. Lo que propone Anthropic Institute —feedback loops reales con comunidades— no es relaciones públicas. Es reconocer que la IA no se despliega en el vacío. Se despliega sobre personas, trabajos y vidas.
Fuentes
- Karpathy, A. (7 marzo 2026). Publicación en X sobre autoresearch
- Karpathy, A. (2026). autoresearch — GitHub
- Szyperska, D. (marzo 2026). Publicación en LinkedIn sobre The Anthropic Institute
- Razzaq, A. (8 marzo 2026). Andrej Karpathy Open-Sources ‘Autoresearch’ — MarkTechPost
- VentureBeat (marzo 2026). Karpathy’s new open source ‘autoresearch’
- Kingy AI (marzo 2026). Autoresearch: Karpathy’s Minimal “Agent Loop”
Giora Gilead Elenberg — Fundador de Viajes Scibasku, explorador digital a los 72. Escribo en recableado.blog sobre IA, trabajo y vida real.
¿Qué te ha parecido?