En el mundo de la inteligencia artificial, siempre ha existido una tensión entre modelos abiertos (open source) y modelos propietarios (cerrados). Hoy ese debate vuelve con fuerza. Se vislumbra que podría lanzarse un modelo abierto de alto nivel —posiblemente una versión revisada de Meta o Mistral— lo que encendería nuevamente la discusión sobre velocidad, seguridad, transparencia y control.
Mientras tanto, varios estados en EE. UU. ya están aplicando leyes de IA que imponen obligaciones sobre responsabilidad, auditoría y límites de funcionamiento pero, esta parece ser una cuestión central para determinar si las leyes nuevas podrían afectar también modelos abiertos, imponiendo controles salvo que estén expresamente exentos.
¿Por qué resurgen estas tensiones ahora?
Los modelos open source tienen una ventaja: quienes los utilizan pueden ver cómo están construidos, modificarlos y auditar posibles sesgos o fallos. Esa apertura fortalece la confianza. Pero ese poder también puede ser peligroso: con disponibilidad plena, actores malintencionados pueden estudiar vulnerabilidades y explotar el modelo para usos ilícitos. En cambio, los modelos cerrados ofrecen mayor control: su proveedor decide quien accede, cómo se usa y qué límites aplica, lo que ayuda a contener riesgos, aunque a costa de menor transparencia.
La balanza entre estas opciones es difícil. Varios expertos plantean que el debate no debe resolverse de forma binaria. Algunas propuestas sugieren gobernanza compartida: modelos cerrados con mecanismos de apertura controlada o enclaves seguros que permitan auditorías externas sin exponer todo el sistema.
Regulaciones y exportaciones: cuando la ley entra al juego
En enero de 2025, EE. UU. introdujo un marco regulatorio llamado AI Diffusion Policy, que establece controles sobre chips avanzados, acceso a la nube y pesos de modelos. El enfoque no se limita solo a modelos cerrados, sino que impone restricciones sobre tecnologías críticas, lo que afecta incluso a desarrolladores que trabajan con IA abierta. Hace algunos meses, esa política de difusión fue pausada, pero nuevas directrices levantaron riesgos de cumplimiento en exportaciones de IA. Dentro de este escenario, el dilema estratégico es claro: el control estricto de exportaciones podría frenar la innovación global, pero una apertura sin límites podría exponer tecnología sensible a actores geopolíticos. Para algunos analistas, imponer controles generalizados a modelos abiertos sería ineficiente y podrían crear brechas de innovación.
¿Qué sectores y regiones estarán más afectados?
En Latinoamérica y en países del Sur global, muchas iniciativas de IA dependen de adaptaciones locales de modelos existentes. Si los modelos abiertos se restringen, correremos el riesgo de quedar aún más rezagados tecnológicamente, dependiendo solo de licencias de grandes compañías. Otro punto importante es que la diferencia entre modelos cerrados y abiertos se está estrechando. Es una realidad que, los modelos abiertos han mejorado lo suficiente para acortar la brecha en desempeño, haciendo que regulaciones o control excesivo puedan ser contraproducentes para la innovación (como una especie de freno digital).

Una mirada al futuro: ¿ecosistemas híbridos, no extremos?
Lo más probable es que no gane un solo enfoque, sino que emerja un ecosistema mixto: partes del modelo podrían ser abiertas, otras cerradas; versiones ligeras libres y versiones completas sujetas a licencias o reglas especiales. También veremos mecanismos de gobernanza compartida y responsabilidad, consenso entre empresas, auditores externos e instituciones reguladoras.
El debate entre IA abierta y cerrada no es solamente técnico; es político, ético y estratégico. En 2025 veremos quién gana espacio, bajo qué reglas y con qué riesgos. Quienes comprendan que la clave no es abrir o cerrar por completo, sino gobernar cómo se hace, podrían llegar a ganar ventaja en el nuevo escenario de la IA.