Nvidia 2025 no es Cisco 2000 (pero el riesgo está en otro sitio)
• publicEstos meses se ha puesto de moda una idea:
“Nvidia es el Cisco de esta burbuja; todo acabará igual que en el 2000.”
Cada vez que un activo se dispara, aparece el mismo reflejo: buscar en el pasado una burbuja a la que se parezca. Suena bien en un tuit, pero cuando rascas la comparación se desmonta bastante rápido.
Mi objetivo con este artículo no es hacer cheerleading de Nvidia ni decir “aquí nunca puede pasar nada malo”. Es entender la estructura del sistema para saber dónde pueden aparecer los problemas si la música deja de sonar. Intento desmontar los eslogan, mirar debajo y ver qué hay realmente. En este caso la conclusión es doble:
1. El líder actual de cómputo acelerado no se parece demasiado al gran fabricante de hardware de red del 2000.
2. El riesgo serio no está en los grandes compradores, sino en una capa intermedia de proveedores de “nube de GPU” que se han montado encima del ciclo de chips con estructuras financieras bastante frágiles.
Vamos por partes.
Por qué la comparación con el 2000 se queda corta
El fabricante de redes del 2000 vendía equipos físicos para mover datos: routers, switches, hierro para que los paquetes fueran del punto A al B. Era equipamiento complejo, con barreras de entrada, pero al final del día eran ladrillos de infraestructura. Caros, especializados, sí… pero sustituibles.
Si un operador quería cambiar de vendor, el coste de hacerlo era relevante pero manejable: nueva instalación, algo de formación, ajustes… no hacía falta reescribir el software del mundo.
El negocio del cómputo acelerado actual es otra cosa. No es sólo vender una tarjeta; es vender un ecosistema completo:
· Hardware
· Controladores
· Un entorno de programación propio
· Librerías y frameworks optimizados para IA
Todo eso se integra en la forma en la que los equipos de machine learning desarrollan, entrenan y despliegan modelos. Migrar de esa plataforma a otra no es “cambiar una pieza de rack”; es rehacer buena parte del stack: código, herramientas, tooling, optimizaciones.
Por eso me gusta la metáfora: en 2000 teníamos ladrillos relativamente homogéneos. Hoy tenemos un Lego gigante en el que cada pieza encaja con las demás. No puedes cambiar un bloque sin replantearte medio modelo.
Ese coste de salida tan alto genera un foso que Cisco nunca llegó a tener en la misma magnitud.
Quién paga la fiesta
Otro ángulo clave es quién está al otro lado del contrato.
En plena burbuja puntocom, el equipamiento de red de Cisco se vendía a:
· Operadoras endeudadas hasta las cejas.
· Startups sin beneficios, financiadas con capital casi gratuito.
· Proyectos que dejaban de existir en cuanto el mercado cerró el grifo.
Cuando desapareció la financiación, el capex se congeló y los pedidos se evaporaron. El castillo se había construido sobre clientes que dependían del crédito barato para seguir jugando.
Hoy, el comprador principal de cómputo acelerado son las grandes plataformas de software y cloud, empresas con:
· Flujos de caja libres gigantescos.
· Negocios reales y muy rentables.
· Un incentivo brutal para integrar IA y defender así sus posiciones de oligopolio.
Esa diferencia importa. No es lo mismo vender routers a una startup con eslogan que vender cómputo a una compañía que genera decenas de miles de millones de caja anual y ve la IA como cuestión de supervivencia estratégica.
Mover datos vs transformar datos
También cambia la naturaleza económica de lo que se vende.
La red se limita a transportar información. Es imprescindible, sí, pero su valor percibido es un coste más dentro del capex de telecomunicaciones.
El cómputo acelerado, en cambio, transforma datos en productos: modelos que mejoran la publicidad, asistentes que automatizan tareas, sistemas de recomendación que aumentan el ticket medio, herramientas que sustituyen trabajo humano de alto valor.
En otras palabras: la red es un peaje. El cómputo es una fábrica de margen. Por eso la disposición a pagar por parte del cliente es distinta. La inversión en GPUs puede verse como capex defensivo: si no lo haces tú, lo hará el de al lado y te quedas atrás.
¿Significa todo esto que el fabricante de GPUs está fuera de peligro? Para nada. Lo que significa es que el riesgo no se manifiesta de la misma forma que en 2000, ni por los mismos canales.
El eslabón débil: neoclouds de GPU
Si el problema no está tanto en el proveedor dominante ni en los gigantes que le compran, ¿dónde miramos?
Empieza a dibujarse un eslabón frágil en medio de la cadena: podemos llamarlos neoclouds de GPU. No son los hyperscalers clásicos de cloud generalista, sino empresas cuyo modelo es casi exclusivamente:
“Compro GPUs de última generación, las meto en racks y las alquilo.”
Sobre el papel suena muy bien. El mundo quiere IA, la demanda explota, las GPUs son oro. ¿Qué puede salir mal? Básicamente, dos cosas: depreciación y falta de elasticidad.
Cuando tu balance vive y muere con el ciclo del chip
Imagina montar un negocio así:
1. Adquieres un lote enorme de GPUs punteras financiado con deuda o leasing.
2. Las sacas al mercado a una tarifa de alquiler muy alta, acorde con la novedad del producto.
3. Proyectas tus retornos futuros suponiendo que esa tarifa será más o menos estable durante varios años.
Mientras la nueva generación no llega, todo bien. El problema es que, en cómputo, los ciclos se están volviendo más cortos, no más largos.
En cuanto aparece una arquitectura claramente superior, el mercado empieza a valorar tu hardware anterior como “segunda división”. Los clientes más exigentes migran hacia la nueva gama, y el precio que están dispuestos a pagar por la anterior empieza a caer. Y tú sigues teniendo las mismas cuotas de deuda mensuales.
Si, simplificando mucho, pasas de alquilar una GPU a 120 unidades de precio al mes a poder cobrar sólo 40–50 porque ya no es “la buena”, tienes un margen que se ha evaporado. Y eso con el activo aún fresco en tu balance.
Las grandes plataformas pueden convivir con esto porque reciclan ese hardware:
· Lo usan para inferencia de modelos ya entrenados.
· Lo destinan a tareas internas menos sensibles al tiempo de cómputo.
· Ajustan sus ciclos de inversión con colchones de caja enormes.
Una neocloud que depende de tener siempre “lo último” para seguir alquilando caro no tiene esa flexibilidad. Su balance está atado al calendario de lanzamientos del fabricante, y eso es un lugar incómodo en el que vivir.
Elasticidad: vender minutos vs vender ladrillos de rack
El segundo problema es de arquitectura de producto.
Las grandes clouds han construido un sistema extremadamente flexible: una misma GPU física puede servir a muchos clientes distintos, facturada por hora, minuto o segundo. Es lo que les permite:
· Llenar al máximo cada máquina.
· Jugar con precios dinámicos.
· Recolocar capacidad ociosa rápidamente.
Muchas neoclouds de GPU no tienen esa sofisticación. Venden nodos enteros o clusters dedicados, con contratos poco flexibles. Si un cliente grande reduce uso o cancela, es posible que no haya suficientes clientes pequeños para rellenar esos huecos. El resultado es un activo de cómputo infrautilizado que ya no cubre su coste.
Poner todo esto junto: hardware de altísima depreciación + pasivos relativamente rígidos + baja elasticidad comercial... es crear una estructura muy sensible a cualquier cambio de ciclo.
En la gran narrativa “IA para todo el mundo”, este es el subcapítulo donde pueden aparecer los sustos.
El papel del fabricante: de vender cajas a gestionar liquidez de cómputo
Hay un matiz interesante aquí: parte de este riesgo está, en realidad, en manos del propio fabricante de GPUs.
Cuanto más agresivo sea su roadmap de producto (y todo indica que lo es), más presión metes en los balances de quien financia tus chips. Si quieres que el ecosistema aguante más de una vuelta de la rueda, tienes que ayudarle a gestionar la transición entre generaciones.
Eso significa que el proveedor de hardware tiene la oportunidad (y casi la obligación) de evolucionar de:
“Te vendo chips y ya te apañas”
a algo más cercano a:
“Te ayudo a gestionar la liquidez de tu cómputo.”
¿Cómo se traduce eso en la práctica?
· Movilidad de cargas de trabajo mucho más sencilla: si mover un modelo de un cluster a otro o de una generación de GPU a otra es casi transparente, las nubes pueden reordenar capacidad ociosa sin romper servicio.
· Herramientas de orquestación más potentes para exprimir hardware antiguo en tareas menos críticas, en lugar de dejarlo “muerto” en el rack.
· Posibles mercados secundarios de cómputo, donde la capacidad infrautilizada pueda revenderse de forma flexible a terceros.
Cuanto más líquido sea el mercado de computación acelerada, menos traumático será para el sistema que aparezcan nuevas generaciones de chips a ritmo elevado. Y, por extensión, menos riesgo habrá de que una oleada de quiebras en neoclouds acabe contaminando la percepción del sector entero.
Qué implica todo esto si estoy construyendo cartera
Desde mi óptica, esto no va de escoger héroes y villanos, sino de entender dónde quieres estar en la cadena de valor.
El proveedor dominante de cómputo acelerado se sienta en la parte alta: tiene el foso de su ecosistema software, clientes con balance fuerte y cierta capacidad de fijar el paso de la industria. Eso no le hace inmune a ciclos, pero su posición se parece más a la de quien vende picos y palas en la fiebre del oro que a la del buscador hipotecado hasta las cejas.
Los grandes compradores (las plataformas que integran IA en sus productos) no están comprando chips por hobby... están intentando mantener y ampliar oligopolios extremadamente rentables.
Van a cometer excesos, por supuesto, pero su problema no es de solvencia, sino de disciplina de capital.
El tramo más frágil, el que yo miraría con más sospecha, es ese universo de proveedores de “nube de GPU pura” que han decidido jugar a banqueros del cómputo con balances pequeños y mucha deuda. Si el calendario de lanzamientos se les cruza con una bajada de tarifas o un frenazo temporal en la demanda, es decir si la música se para o se frena, pueden quedarse literalmente sin silla donde sentarse.
Conclusiones
Si me obligo a condensar todo esto en tres ideas para no caer en la simplificación fácil, serían estas:
1. El fabricante dominante de GPUs no es el calco del fabricante de redes del 2000. Vende algo más pegado al valor añadido del software, con un ecosistema mucho más difícil de sustituir y con una base de clientes radicalmente distinta.
2. El riesgo relevante hoy no es tanto “no hay demanda de IA” como “hay modelos de negocio montados encima del ciclo de GPU que no soportan una depreciación más rápida de lo esperado”. Es un riesgo de estructura de balance, no de narrativa tecnológica.
3. Como inversor, prefiero analizar desde esa lente: menos titulares sobre “burbuja o no burbuja” y más preguntas concretas sobre quién financia qué activo, con qué pasivo y con qué grado de elasticidad comercial.