
¿Estamos construyendo tecnología o simplemente arrendando cómputo?
Mientras el mundo sigue maravillado por lo que ChatGPT puede escribir o por los videos que Sora puede generar, detrás de escena ocurre algo más importante (y menos visible):
una carrera silenciosa por construir la infraestructura que lo hace posible.
Esta semana, Nvidia anunció planes para invertir hasta 100.000 millones de dólares en centros de datos que alimentarán modelos de inteligencia artificial como los de OpenAI.
Y aunque la cifra parezca de ciencia ficción, la lógica es simple:
si controlar el software ya era poder, controlar el hardware es dominio absoluto.
Desde hace una década, la inteligencia artificial está limitada por tres cosas: datos, modelos y cómputo.
Y en 2025, la más escasa de todas… es la última.
Entrenar modelos como GPT-4 o Gemini requiere millones de dólares en GPUs de altísimo rendimiento, interconectadas, refrigeradas, energizadas y optimizadas al límite.
No cualquier empresa puede hacerlo.
No cualquier país, tampoco.
Y ahí entra Nvidia.
Con este anuncio, se consolida como el proveedor crítico de infraestructura de esta era, no solo vendiendo chips, sino invirtiendo directamente en los data centers donde se entrenarán y ejecutarán los modelos más avanzados del planeta.
1. IA como servicio… con dueño fijo
Hoy usamos IA desde APIs como si fueran magia. Pero esa magia ocurre en un puñado de centros de datos, controlados por muy pocas manos.
El riesgo: una nueva concentración de poder, esta vez no en la información, sino en el procesamiento.
2. La barrera de entrada ya no es técnica, es económica
Para entrenar un modelo competitivo, ya no basta con talento ni datos.
Se necesita capacidad de cómputo que solo las big tech (o quienes las rentan) pueden costear.
Esto puede generar una brecha aún mayor entre quienes crean IA… y quienes solo la consumen.
3. La innovación se vuelve dependiente del acceso a infraestructura
¿Tu startup tiene una idea brillante para mejorar modelos de lenguaje, visión o voz?
Perfecto.
Ahora, pagá 5 millones de dólares en cómputo para entrenarla.
En nuestra región, donde muchas empresas aún luchan por digitalizar procesos básicos, esta discusión puede sonar lejana.
Pero no lo es.
Porque mientras el mundo define quién podrá construir modelos, algoritmos, soluciones…, también se define quién tendrá soberanía tecnológica en los próximos 10 años.
Y si solo consumimos lo que otros entrenan, decidimos poco y dependemos mucho.
Sí. Y es pensar en modelos más pequeños, entrenables localmente, optimizados para el edge, para tareas específicas y contextos regionales.
Es invertir en centros de datos propios, en asociaciones públicas-privadas, en soberanía digital.
Y sobre todo: entender que la infraestructura ya no es “back-end”. Es geopolítica digital.
La IA no es solo código. Es poder computacional.
Y el verdadero control no está en los prompts, sino en quién puede ejecutarlos a escala.
Mientras Nvidia y OpenAI se preparan para gobernar el futuro de la inteligencia artificial, el resto del mundo tiene que decidir:
¿vamos a entrenar nuestras propias soluciones o solo a rentar las de otros?