Hace una década, DeepMind cambió la forma de entender el progreso en Inteligencia Artificial con una idea tan simple como potente: si se elige bien el “campo de juego”, el avance se acelera. En lugar de perseguir inteligencia general en abstracto, la compañía convirtió los juegos —con reglas claras, feedback inmediato y un marcador indiscutible— en un laboratorio perfecto para entrenar sistemas cada vez más capaces.
Nof1 Intelligence cree que el siguiente salto no está en otro videojuego, sino en un entorno más incómodo, más hostil y, sobre todo, más real: los mercados financieros. Su tesis es frontal: los mercados serían el mejor “motor de modelado del mundo” porque concentran información, expectativas y comportamiento humano en un sistema dinámico que reacciona a cada estímulo. Y, a diferencia de los tests tradicionales, este “benchmark” se volvería más difícil a medida que la Inteligencia Artificial se haga más lista, porque el mercado se adapta, castiga la ingenuidad y premia —siempre a su manera— la disciplina.
Esa ambición se resume en un mensaje que la firma repite como mantra: la asignación de capital es la disciplina donde la inteligencia converge con la verdad. La frase suena grandilocuente, pero encaja con el tipo de apuesta que plantea Nof1: no se trata solo de contestar preguntas o resolver puzles, sino de tomar decisiones bajo incertidumbre, gestionar riesgo y sostener un criterio cuando el ruido aprieta.
Mercados como “entorno de entrenamiento”: una idea con filo
En términos técnicos, Nof1 dice querer apoyarse en enfoques como el aprendizaje abierto (open-ended learning) y el aprendizaje por refuerzo (reinforcement learning o RL) a gran escala, técnicas que han demostrado su valor en entornos donde el agente aprende mediante prueba y error. La diferencia es que aquí el error cuesta dinero, reputación y, potencialmente, estabilidad.
La idea de “crear datos de entrenamiento de forma indefinida” también marca distancia con el paradigma de dataset cerrado: en mercados, cada sesión genera nuevas situaciones, nuevas correlaciones y nuevas trampas. Si el objetivo es entrenar modelos base más robustos —no simples “bots de trading” afinados para una esquina concreta—, el mercado ofrece un suministro inagotable de escenarios… pero también un nivel de caos que puede romper cualquier ilusión de control.
En otras palabras: si los juegos fueron un gimnasio con máquinas calibradas, los mercados son una pelea callejera. Ese es precisamente el atractivo para Nof1: ahí no basta con ser brillante, hay que sobrevivir.
Alpha Arena: el espectáculo de poner modelos a competir con dinero real
Para bajar esa filosofía a tierra, Nof1 ha impulsado Alpha Arena, un formato de competición pública en el que varios modelos de lenguaje se enfrentan operando en mercados reales y dejando rastro de sus decisiones. La propuesta tiene dos capas: por un lado, el “show” del ranking en tiempo real; por otro, un experimento que, si se analiza con rigor, podría arrojar pistas sobre cómo razonan los modelos cuando se les obliga a elegir, justificar y asumir consecuencias.
En una de sus primeras temporadas, descrita en medios financieros, seis modelos “de frontera” recibieron 10.000 dólares cada uno para operar durante un periodo de alrededor de dos semanas en perpetuos de criptomonedas dentro de Hyperliquid. El resultado fue menos épico de lo que sugiere cualquier tráiler: todos terminaron perdiendo dinero, con pérdidas que oscilaron aproximadamente entre 652 y 5.679 dólares, según el recuento publicado. Además, el experimento acumuló 628 operaciones, y una parte relevante del saldo final se fue en fricciones como comisiones y costes de ejecución. El detalle más llamativo: las estrategias no fueron precisamente conservadoras; en esa temporada, ninguno de los participantes habría usado menos de 10× de apalancamiento, un ingrediente que magnifica tanto la intuición acertada como el error banal.
Ese choque con la realidad conecta con una verdad incómoda que el propio sector repite desde hace décadas: ganar a un mercado líquido y competitivo es difícil incluso para profesionales; y hacerlo de forma consistente, aún más. Poner modelos generalistas a operar con reglas sencillas puede servir para observar estilos de razonamiento, pero no garantiza que el ranking esté midiendo “inteligencia” en el sentido fuerte del término.
Temporada 1.5: más dinero desplegado y salto a acciones estadounidenses
Lejos de enfriar el experimento, el proyecto ha anunciado una nueva fase con cambios relevantes. En un mensaje atribuido a la cuenta oficial, Alpha Arena Season 1.5 se lanzó con 320.000 dólares desplegados, prometiendo múltiples competiciones, “muchos datos nuevos” y un giro de guion: la atención pasa a acciones estadounidenses. La intención declarada es testar “juicio” más que “conocimiento”, y reforzar el componente estadístico del experimento a base de repetir pruebas bajo distintos temas y condiciones.
En la práctica, el formato apunta a un problema que sus críticos subrayan desde el inicio: si el mercado es un entorno ruidoso, la única forma de extraer señal es aumentar el número de ensayos, ampliar horizontes y controlar variables tanto como sea posible. La Season 1.5 parece reconocer esa necesidad: menos “una carrera” y más “un campeonato” con pruebas variadas.
¿Benchmark científico o entretenimiento con bata?
La discusión está servida. Una parte de la comunidad ve Alpha Arena como un paso interesante hacia métricas más cercanas al mundo real: en vez de medir respuestas correctas en tests estáticos, medir decisiones con consecuencias. Otra parte lo observa con escepticismo: un benchmark, argumentan, debe ser reproducible y aislar habilidad de suerte; y los mercados, por definición, son cambiantes, adversariales y susceptibles de que el azar domine en ventanas cortas.
Un análisis crítico publicado en octubre de 2.025 lo describía con dureza: más que un benchmark, “arte performativo” con estética de laboratorio. La crítica no niega que sea divertido ni que pueda ser útil como observatorio de razonamiento; lo que cuestiona es la idea de coronar “al más inteligente” a partir de un puñado de semanas y un entorno que puede invertir el ranking con un solo giro de volatilidad.
Nof1, sin embargo, parece cómoda en esa tensión. Si su hipótesis es que la próxima era de la Inteligencia Artificial necesitará sistemas que se entrenen en escenarios abiertos, competitivos y con recompensas reales, entonces el mercado cumple el papel de “jefe final”. Y si su mensaje para atraer talento es “construir un AlphaZero para el mundo real”, el proyecto funciona también como escaparate: quien quiera sumarse ya tiene un ring donde mirar.
La apuesta de fondo: cuando el dinero es señal… y también riesgo
Más allá del titular, el debate toca cuestiones delicadas. Si el objetivo es entrenar modelos que operen sobre asignación de capital, inevitablemente aparecen preguntas sobre seguridad, robustez, manipulación, alineamiento de objetivos y responsabilidad. Un sistema que aprende en mercados podría desarrollar hábitos no deseables si la única recompensa es el beneficio a corto plazo. Y, al mismo tiempo, un entorno real ofrece una brújula que los tests de laboratorio no tienen: el mercado no premia las excusas.
Por ahora, Nof1 se mueve entre dos mundos: el de la investigación ambiciosa y el de la plataforma pública que busca tracción. En su web invita a unirse a una lista de espera y lanza un mensaje directo de contratación: buscan ingenieros, investigadores y “pensadores originales”. En un sector donde muchas promesas se pierden en demos pulidas, su propuesta destaca por lo incómodo de su apuesta: medir inteligencia no por lo bien que habla, sino por cómo decide cuando cada decisión deja huella.
Preguntas frecuentes
¿Qué es Alpha Arena y por qué se considera un “benchmark” de inversión para modelos de lenguaje?
Alpha Arena es una competición pública donde varios modelos operan con dinero real en mercados, con ranking y trazabilidad de decisiones. Se presenta como un benchmark porque intenta medir rendimiento en condiciones reales, no en tests estáticos.
¿Por qué Nof1 defiende que los mercados financieros son mejores que los juegos para entrenar Inteligencia Artificial?
Porque los mercados son dinámicos, adversariales y cambian con el tiempo. Según su tesis, eso obliga a la Inteligencia Artificial a adaptarse continuamente y evita que “memorice” reglas fijas como en un juego cerrado.
¿Qué riesgos tiene evaluar modelos de Inteligencia Artificial con trading real y apalancamiento?
El apalancamiento puede distorsionar resultados, aumentar el peso del azar y castigar errores pequeños con pérdidas grandes. Además, comisiones, deslizamientos y ejecución influyen mucho en periodos cortos.
¿Puede un modelo de Inteligencia Artificial batir de forma consistente a los mercados y qué necesitaría para lograrlo?
Batir consistentemente a mercados líquidos es extremadamente difícil; harían falta horizontes largos, control de riesgo, costes bajos, estabilidad operativa y, sobre todo, que el rendimiento sea replicable en muchas condiciones, no solo en una “temporada”.
Fuentes:







