Presta atención porque esta movida es de las que al analista de banco grande le va a tomar tres semanas entender — y cuando la entienda, ya fue.

Amazon cerró un acuerdo con Cerebras Systems para chips de inferencia de inteligencia artificial. Sí, Cerebras. Esa empresa que fabrica el chip más grande del mundo — literalmente un wafer entero convertido en un único procesador. Mientras todo el mundo estaba ocupado rezando en la iglesia de Nvidia y repitiendo "Jensen Huang es un genio" como mantra de LinkedIn, Amazon fue e hizo lo que siempre hace: tiró el tablero al piso y armó uno nuevo.

Qué diablos es inferencia y por qué importa

Te lo voy a traducir del tecniqués al español de la calle.

En el mundo de la IA, existen dos momentos: el entrenamiento (cuando el modelo aprende) y la inferencia (cuando el modelo responde). Piénsalo así: entrenamiento es Rocky Balboa corriendo en la nieve de Rusia, recibiendo golpizas. Inferencia es Rocky en el ring, en la hora de la verdad, respondiendo cada golpe de Ivan Drago en tiempo real.

El mercado de entrenamiento lo domina Nvidia. Nadie lo discute. Pero el mercado de inferencia — que es donde la plata de verdad se va a derramar en los próximos años — todavía está en disputa abierta. Cada vez que le haces una pregunta a ChatGPT, cada vez que un auto autónomo decide no atropellarte, cada vez que un sistema de trading algorítmico ejecuta una orden... eso es inferencia. Es volumen. Es escala. Es donde la guerra de verdad sucede.

Y Amazon lo sabe.

Por qué Cerebras y no cualquier otra

Cerebras no es una startup cualquiera de garaje en Silicon Valley quemando plata de VC en ping-pong y kombucha. Construyeron una arquitectura radicalmente diferente. Mientras Nvidia apila GPUs como si fuera Lego, Cerebras agarró y dijo: "A la mierda, vamos a hacer el chip entero de una sola vez."

El WSL-3 de Cerebras es un monstruo. Un único chip a escala de wafer con trillones de transistores. La propuesta es simple y brutal: menos complejidad de sistema, más eficiencia por watt, menor costo en inferencia a escala.

Para Amazon, que opera AWS — la plataforma de nube más grande del planeta — esto es oro. Cada centavo ahorrado por inferencia multiplicado por miles de millones de solicitudes por día es una montaña de dinero. No es romanticismo tecnológico, es matemática fría.

El ajedrez detrás de la jugada

Aquí es donde la cosa se pone interesante para quien piensa como inversionista y no como hincha de una acción.

Amazon ya tiene sus chips propietarios — Trainium e Inferentia. Entonces, ¿por qué cerrar con Cerebras? Porque diversificación de supply chain no es debilidad, es inteligencia. Pregúntale a cualquiera que dependía 100% de Nvidia en 2023 cuando los tiempos de entrega se fueron a 9 meses.

Es la misma lógica de Nassim Taleb: no quieres ser frágil. Quieres ser antifrágil. Tener múltiples opciones de abastecimiento de chips de inferencia significa que, cuando la próxima crisis de semiconductores golpee — y va a golpear — Amazon no va a estar en la fila mendigando asignación.

Además, está el factor IPO. Cerebras viene intentando salir a bolsa hace rato. Un contrato jugoso con Amazon en el currículum es el tipo de validación que hace que el roadshow del IPO sea mucho más fácil. Es bueno para todos — menos para Nvidia, que ahora tiene un competidor más legitimado comiéndole terreno por los costados.

Qué cambia esto en el tablero

Para los que siguen a Nvidia como si fuera el partido de su equipo favorito: calma. Nvidia no se va a morir mañana. Pero el mercado de IA no es un monopolio eterno. Nunca lo es. Intel creía que era intocable en los 2000. Nokia creía que dominaría los celulares para siempre. El mercado es una máquina de humillar al que se pone arrogante.

Este acuerdo es una señal más de que la cadena de valor de la IA se está fragmentando. Google tiene sus TPUs. Amazon tiene Trainium, Inferentia y ahora Cerebras. Microsoft sigue abrazada a Nvidia pero ya hace ruido con chips personalizados. El oligopolio de Nvidia en entrenamiento no se traduce automáticamente en dominio en inferencia.

E inferencia, amigo mío, es donde está el flujo de caja recurrente. Entrenamiento es gasto de capex. Inferencia es ingreso operativo.

¿Quién crees que va a ganar esta guerra? ¿El tipo que vende la pala de oro más cara, o el tipo que encontró una pala que cava el doble por la mitad del precio?

Piénsalo antes de salir comprando Nvidia a 30x ingresos como si fuera boleto al cielo.