Regulación de IA en Latinoamérica Regulación de IA en Latinoamérica

¿Regulación de inteligencia artificial en América Latina en 2025?

La regulación de inteligencia artificial en Colombia avanza y propone un marco ético que debería ser seguro y responsable.

La inteligencia artificial (IA) ya no es parte de la ciencia ficción ni una promesa del futuro; está aquí, transformando industrias, servicios públicos y procesos de decisión. Pero con su crecimiento acelerado surgen preguntas que no pueden esperar: ¿cómo se regula la IA para proteger derechos y al mismo tiempo no frenar la innovación? ¿Qué están haciendo los países de América Latina en este campo? ¿Qué papel juega Colombia en esta conversación?

En una conversación reciente entre expertos se abordaron estas y otras interrogantes, señalando tanto los desafíos como las oportunidades que tiene la región en materia de regulación de IA.

El estado actual de la regulación de IA en América Latina

Hasta finales de 2025, la regulación de inteligencia artificial en América Latina todavía se encuentra en una etapa incipiente. Según lo expuesto por Diego (el experto de IBM), solo dos países —El Salvador y Perú— cuentan con leyes específicas sobre IA. Esto significa que esos países han avanzado hacia marcos normativos que reconocen la singularidad de esta tecnología y buscan abordarla directamente en sus ordenamientos jurídicos.

En contraste, en otros países de la región se encuentran en etapa de proyectos de ley, debates públicos y ejercicios de diseño normativo que buscan equilibrar protección de derechos con fomento de innovación.

¿Y qué pasa con Colombia?

Colombia está en proceso de crear su marco de normas para regular la IA. Lo que deja muy claro que, para que Colombia avance en esta materia, no puede partir de cero: el país ya cuenta con herramientas legales relevantes como la Ley 1581 de protección de datos personales, que regula el tratamiento de datos sensibles y que es fundamental para cualquier marco robusto de IA. La clave, entonces, no es duplicar esfuerzos sino integrar y expandir estos instrumentos existentes para que cubran las particularidades de la IA.

Además, En 2025, el Ministerio de Ciencia, Tecnología e Innovación (MinCiencias), junto con el Ministerio de Tecnologías de la Información y Comunicaciones (MinTIC), radicaron ante el Congreso el Proyecto de Ley Nº 043 de 2025. Este proyecto busca establecer normas claras de prevención y control del uso indebido de la IA en la suplantación de identidad.

Estos ejes están alineados con las recomendaciones de documentos como el CONPES 4144 sobre IA, que ya plantea una hoja de ruta nacional para el desarrollo ético de la IA en Colombia y reconoce los riesgos de tecnologías como los deepfakes en el ámbito público y electoral.

Un equilibrio delicado: riesgos vs innovación

Es necesario aclarar que la inteligencia artificial no es inherentemente buena ni mala; su impacto depende de cómo se la use y de quién se haga responsable de sus decisiones. El experto de IBM manifiésta la necesidad de aprender de experiencias regulatorias previas —por ejemplo, algunas de las más estrictas en Europa— para evitar los excesos que pueden frenar el desarrollo tecnológico. Esto no significa ignorar los riesgos, sino buscar un equilibrio donde se mitiguen los peligros sin sofocar la creatividad y la innovación.

La regulación, no puede ser un ejercicio cerrado en tecnicismos ni reservado solo para los legisladores. Debe surgir de un diálogo social amplio que incluya múltiples voces: representantes del sector privado, la academia, la sociedad civil y el sector público. Solo así se podrán construir marcos comprensivos y adaptables.

Métricas y responsabilidades en IA

Regular la IA no se trata únicamente de redactar normas abstractas; también requiere medir y actuar sobre indicadores concretos. Varias métricas deberían formar parte de una política de IA responsable, incluyendo aspectos como conectividad digital, la transparencia, explicabilidad, desarrollo de talento y protección de datos personales.

Además, la conversación subrayó que toda la cadena de valor de la IA —desde quien desarrolla un algoritmo hasta quien lo implementa en un banco o una entidad pública— debe asumir su responsabilidad. El ejemplo de un banco que utiliza IA para análisis crediticio fue ilustrativo: no basta con la tecnología; las instituciones que la usan deben responder por sus efectos, especialmente cuando estas decisiones impactan oportunidades de vida de las personas.

¿Hacia dónde debería ir la regulación de IA?

Queda claro que América Latina —y en particular Colombia— están en un momento decisivo para la regulación de inteligencia artificial. Los desafíos son reales: evitar sesgos, la repetición de errores regulatorios de otras regiones, integrar marcos existentes como la protección de datos personales, construir métricas útiles, formar talento humano y asegurar que la responsabilidad no quede diluida entre desarrolladores y usuarios finales.

Pero los retos también son oportunidades. El diálogo social amplio y constructivo, la capacidad de adaptar las normas a un ritmo tecnológico acelerado, y el enfoque en transparencia y explicabilidad pueden convertir a la región en un espacio donde la regulación de IA no solo protege, sino que también fomenta innovación responsable.

Colombia y otros países latinoamericanos tienen la posibilidad de redactar normativas que no sean solo reactivas o sobre-protectoras, sino proactivas y equilibradas, que permitan a la sociedad aprovechar todo el potencial de la IA sin sacrificar derechos, equidad ni confianza pública ni condenándonos a ser tan sólo usuarios de esta tecnología!

Regulación de IA: riesgos vs innovación
Regulación de IA: riesgos vs innovación

Deja un comentario