Una nueva ola de inteligencia artificial impulsada por modelos open-source desarrollados en China está revolucionando el ecosistema global.
Mientras EE. UU. restringe el acceso a sus modelos punteros como GPT-4 o Gemini, el resto del mundo —especialmente China— avanza con transparencia, compartiendo modelos, datos y métodos científicos. La comunidad estadounidense empieza a depender de esas bases extranjeras, lo que podría comprometer su liderazgo en innovación, ciencia y gobernanza democrática.
De líderes en apertura a guardianes del “black box”
Entre 2016 y 2020, Estados Unidos lideró el movimiento open-source en IA. Investigadores de Google, Stanford y OpenAI compartieron arquitecturas, pesos y marcos de evaluación como nunca antes. De esa cultura nacieron herramientas fundamentales como el Transformer (la “T” en ChatGPT) y plataformas como Hugging Face, que impulsaron la democratización del conocimiento.
Sin embargo, en 2025, la situación ha cambiado drásticamente: los modelos punteros estadounidenses están cada vez más cerrados. GPT-4, Claude y Gemini solo son accesibles a través de APIs o interfaces cerradas que no permiten entender, modificar ni reutilizar los modelos. Sus pesos y datos son estrictamente confidenciales.
La sorpresa de DeepSeek: cuando la IA estadounidense se construye sobre cimientos chinos
Todo cambió en cuestión de días. Tras el lanzamiento de DeepSeek, un modelo chino de código abierto, miles de desarrolladores lo adoptaron en tiempo récord, convirtiéndolo en el modelo más valorado de Hugging Face. Por primera vez, una inteligencia artificial norteamericana se construía sobre una base china.
Este fenómeno no fue aislado: docenas de grupos de investigación en China han comenzado a liberar modelos potentes, junto con sus datos, código y metodologías científicas. Mientras tanto, en EE. UU., la cultura open-source retrocede, y los avances quedan encerrados en sistemas opacos que inhiben la experimentación y la colaboración.
¿Qué está en juego? Innovación, autonomía y seguridad
El código abierto impulsa la innovación: permite experimentar, reduce barreras y multiplica las contribuciones. Pero además, es clave para la seguridad y el control democrático de la IA. Los modelos abiertos pueden ser auditados, adaptados a contextos locales y utilizados por gobiernos, instituciones educativas, centros médicos y pequeñas empresas, sin depender de corporaciones privadas.
La ironía es que incluso los sistemas más cerrados se apoyan en bases abiertas: desde las arquitecturas Transformer hasta las librerías de entrenamiento y evaluación. Si se interrumpe ese ecosistema abierto, todo el progreso corre el riesgo de desacelerarse.
¿Es posible revertir la tendencia?
Sí. Hay señales esperanzadoras:
- Meta ha lanzado su familia de modelos LLaMA con pesos abiertos, lo que ha dado lugar a miles de variantes.
- El Allen Institute for AI sigue publicando modelos completamente abiertos.
- Startups como Black Forest están creando sistemas multimodales de código libre.
- Incluso OpenAI ha insinuado que podría liberar sus pesos próximamente.
Además, con iniciativas como el U.S. AI Action Plan, se está empezando a reconocer el valor estratégico del open-source.
El código abierto no es un riesgo, es la solución
En lugar de continuar con la narrativa de que “el open-source no es seguro”, EE. UU. debería volver a sus raíces científicas. La apertura, la competencia y la investigación descentralizada fueron lo que construyeron su liderazgo en IA. Ignorarlas sería renunciar a principios democráticos y a su liderazgo tecnológico.
Si Estados Unidos quiere liderar la IA del futuro, debe liderar también la IA abierta.
Fuente: somoslibres