Chile suele aparecer bien ubicado en los rankings regionales de transformación digital e inteligencia artificial. Tiene una política nacional de IA, una institucionalidad emergente de ciberseguridad, un ecosistema académico activo y proyectos como Latam-GPT que buscan construir capacidades propias para América Latina. Pero la pregunta de fondo ya no es si Chile puede adoptar IA. La pregunta es si puede gobernarla con seguridad.
La convergencia entre inteligencia artificial, datos personales y ciberseguridad está creando una zona crítica para el Estado chileno. Los sistemas de IA necesitan datos; los servicios públicos digitalizados producen y procesan datos; y los atacantes, cada vez más apoyados por automatización, buscan credenciales, APIs, tokens, documentos y perfiles reutilizables. En ese cruce, la brecha principal deja de ser solo tecnológica. Es institucional.
Fuentes principales
- UNESCO: Chile Artificial Intelligence Readiness Assessment Report
- BID: 2025 Cybersecurity Report for Latin America and the Caribbean
- Universidad de Concepción: Detección de ataques de prompt injection sobre chatbots basados en LLM
- Revista Chilena de Derecho y Tecnología: IA explicable y gobernanza
- Universidad de Chile: IA biométrica, regulación y derechos fundamentales
El diagnóstico UNESCO: Chile tiene base, pero no basta
El Artificial Intelligence Readiness Assessment Report de UNESCO sobre Chile muestra un país con avances relevantes en política pública, investigación, regulación, capacidad científica y discusión ética. El documento organiza el diagnóstico en dimensiones legales, regulatorias, sociales, educativas, económicas, técnicas e institucionales. Esa estructura es útil porque evita una lectura simplista: la IA no depende solo de tener modelos o startups, sino de contar con datos, conectividad, normas, instituciones, talento y confianza pública.
Entre sus recomendaciones, UNESCO apunta a acelerar la actualización de la protección de datos personales y el marco de ciberseguridad, crear gobernanza adaptativa y multiactor para la regulación de IA, explorar mecanismos de experimentación regulatoria y actualizar la política nacional de IA. Es decir, el informe trata la IA como infraestructura de país, no como una herramienta aislada.
La lectura para Chile es clara: la IA requiere capacidad estatal continua. No basta con publicar una estrategia. Hay que sostenerla con presupuesto, coordinación, estándares de compra pública, capacidades técnicas en servicios, mecanismos de auditoría y sistemas de rendición de cuentas.
El diagnóstico BID: Chile avanzó en ciberseguridad, pero la amenaza se mueve más rápido
El 2025 Cybersecurity Report del BID reconoce avances importantes de Chile. Destaca la segunda Política Nacional de Ciberseguridad 2023-2028, la Ley Marco de Ciberseguridad, la creación de ANCI y el fortalecimiento de capacidades de respuesta, coordinación y protección de infraestructura. También menciona que ANCI comenzó operaciones en 2025 y que el país consolidó funciones de respuesta a incidentes y coordinación de vulnerabilidades.
Ese avance es sustantivo. Chile ya no parte desde cero. Tiene una agencia, una ley, una política nacional, un comité interministerial, un consejo multisectorial y vínculos de cooperación internacional. Pero el mismo informe muestra el otro lado: la región sigue enfrentando brechas de madurez, talento, coordinación e implementación. La institucionalidad existe, pero debe volverse operativa bajo presión real.
La IA aumenta esa presión. Si los ataques son más automatizados, personalizados y baratos, la defensa no puede depender de procesos lentos, inventarios incompletos o logs que nadie revisa. La IA obliga a convertir la ciberseguridad en una práctica viva, no en un organigrama.
Prompt injection: una investigación chilena toca el punto exacto
Una tesis de la Universidad de Concepción de 2025, Detección de ataques de prompt injection sobre chatbots basados en grandes modelos de lenguaje, muestra que la academia chilena ya está observando uno de los riesgos más relevantes de la IA generativa. El problema de prompt injection no es marginal. Aparece cuando un atacante introduce instrucciones maliciosas en el contexto que un modelo procesa, logrando que el sistema ignore reglas, revele información o ejecute acciones no deseadas.
Esto es particularmente importante para servicios públicos y empresas chilenas que empiezan a conectar chatbots, buscadores semánticos o agentes a documentos internos, bases de conocimiento, trámites o canales de atención. En esos entornos, una vulnerabilidad no siempre se parece a un exploit clásico. Puede parecer una frase dentro de un documento, un correo, un ticket o una página web que el modelo lee como contexto.
La tesis UdeC sirve como señal temprana: Chile no solo debe adoptar LLMs, debe investigarlos como superficie de ataque. Y esa diferencia es decisiva.
Explicabilidad: gobernar IA exige entender decisiones
El artículo de Darío Parra Sepúlveda y Ricardo Concha Machuca en la Revista Chilena de Derecho y Tecnología analiza la inteligencia artificial explicable como fundamento para la gobernanza de la IA y sus implicancias en responsabilidad civil. Su aporte es clave para esta discusión porque conecta técnica y derecho: si un sistema automatizado produce daño, discrimina o toma una decisión relevante, la capacidad de explicar su funcionamiento deja de ser un lujo académico.
En ciberseguridad ocurre algo parecido. Un sistema de detección basado en IA puede bloquear accesos, marcar usuarios como sospechosos, priorizar incidentes o recomendar medidas. Si nadie puede explicar por qué tomó esas decisiones, se debilita la confianza y se vuelve difícil auditar errores. En el sector público, esa opacidad puede afectar derechos.
Por eso, la explicabilidad no debe verse solo como principio ético. En IA aplicada a seguridad, es una condición de trazabilidad, responsabilidad y defensa institucional.
Biometría: el caso donde datos, IA y poder público se vuelven inseparables
La memoria de la Universidad de Chile sobre inteligencia artificial biométrica sostiene que la regulación chilena sigue siendo insuficiente frente al uso de identificación biométrica en tiempo real y otros sistemas de alto riesgo. El trabajo analiza casos como SITIA y el empadronamiento biométrico, y advierte sobre la recopilación de datos intrínsecamente sensibles sin salvaguardas proporcionales.
Este punto conecta directamente con ciberseguridad. Los datos biométricos no son una contraseña que se cambia después de una filtración. Si se comprometen, el daño puede ser persistente. Por eso, el despliegue de IA biométrica en espacios públicos o servicios estatales necesita estándares más altos que los sistemas digitales comunes: necesidad, proporcionalidad, minimización, controles de acceso, auditoría y autoridad preventiva real.
Chile no puede discutir IA biométrica solo como modernización. Tiene que discutirla como infraestructura de poder sobre cuerpos, identidad y circulación ciudadana.
La brecha institucional
Tomadas en conjunto, estas fuentes dibujan una tesis: Chile tiene piezas importantes, pero todavía no tiene una arquitectura completa para gobernar la IA segura. Hay política de IA, ley de ciberseguridad, futura institucionalidad de datos personales, investigación académica y capacidades emergentes. Pero el riesgo aparece en los espacios entre esas piezas.
Entre IA y ciberseguridad. Entre datos personales y servicios públicos. Entre compra tecnológica y evaluación técnica. Entre innovación y fiscalización. Entre entusiasmo por automatizar y capacidad real de auditar.
Ahí está la brecha: no es que Chile no tenga tecnología. Es que necesita convertir regulación, investigación, talento y operación en un sistema coordinado.
Qué debería hacer Chile ahora
Primero, exigir evaluación de seguridad para sistemas de IA usados en servicios críticos. Cualquier chatbot, motor de búsqueda, agente o sistema predictivo conectado a información sensible debería pasar por pruebas de prompt injection, fuga de datos, control de permisos y auditoría de logs.
Segundo, tratar los datos públicos como infraestructura crítica cuando alimentan IA. La discusión sobre datos no puede reducirse a transparencia o eficiencia. Debe incluir minimización, gobernanza, clasificación de sensibilidad, ciclo de vida, trazabilidad y respuesta ante incidentes.
Tercero, crear capacidades técnicas dentro del Estado. No basta comprar soluciones. Los servicios públicos necesitan equipos capaces de evaluar modelos, revisar contratos, interpretar logs, auditar proveedores y entender cuándo una herramienta de IA introduce riesgo nuevo.
Cuarto, conectar ANCI, la futura Agencia de Protección de Datos, universidades y organismos sectoriales. La IA segura no se resuelve desde una sola institución. Requiere una mesa operacional permanente entre ciberseguridad, protección de datos, ciencia, transformación digital, salud, educación, municipios e infraestructura crítica.
Quinto, financiar investigación aplicada chilena. La tesis UdeC sobre prompt injection, los trabajos sobre explicabilidad y biometría, y los informes de preparación muestran que la academia local puede producir conocimiento relevante. Pero ese conocimiento debe entrar al ciclo de política pública y no quedar aislado en repositorios.
Lectura final
Chile tiene una oportunidad real. Puede esperar a que los incidentes dicten la agenda, o puede usar la investigación disponible para anticiparse. La IA no llega a un Estado vacío: llega a sistemas con datos, trámites, usuarios, brechas, proveedores, deuda técnica y derechos fundamentales.
La pregunta no es si Chile usará inteligencia artificial. Ya la está usando. La pregunta es si será capaz de construir una IA pública y privada que sea útil, segura, explicable y proporcional. Ese es el verdadero desafío de la próxima etapa.
Comentarios
Deja tu comentario
No hay comentarios aprobados todavía. ¡Sé el primero en comentar!