IA en Chile

La inteligencia artificial como espejo: lo que nuestros algoritmos revelan sobre nosotros

El académico brasileño Marcelo Pustilnik plantea que la IA no es solo tecnología, sino un reflejo directo de nuestros valores, sesgos y contradicciones como sociedad.

Admin Por Admin 22 abr., 2026 9 min de lectura
Compartir:
Resumen

El académico brasileño Marcelo Pustilnik plantea que la IA no es solo tecnología, sino un reflejo directo de nuestros valores, sesgos y contradicciones como sociedad.

Cuando alimentamos un algoritmo con datos históricos para predecir el futuro, no estamos creando una ventana hacia adelante, sino un espejo que refleja nuestro pasado. Esta es la premisa central que plantea Marcelo Pustilnik, académico brasileño especializado en filosofía de la tecnología, quien ha dedicado años a desentrañar la relación entre la inteligencia artificial y la condición humana. Su argumento desafía la narrativa dominante que presenta a la IA como una entidad autónoma y neutral: en realidad, cada sistema de aprendizaje automático, cada red neuronal, cada modelo de lenguaje es una cristalización de nuestras decisiones, prejuicios y prioridades colectivas.

El espejo que no queremos mirar

Pustilnik sostiene que la inteligencia artificial funciona como un amplificador de patrones humanos, tanto los deseables como los problemáticos. Cuando un sistema de reconocimiento facial muestra tasas de error significativamente más altas en personas de piel oscura, no estamos ante un fallo técnico aislado, sino ante el reflejo de datasets construidos principalmente con rostros caucásicos. Cuando un algoritmo de contratación discrimina contra candidatas mujeres, está replicando décadas de decisiones sesgadas que quedaron registradas en los datos de entrenamiento. La IA, argumenta el académico brasileño, no inventa estos sesgos: simplemente los hace visibles, cuantificables y, paradójicamente, más difíciles de ignorar.

Esta perspectiva tiene implicaciones profundas para cómo desarrollamos y desplegamos sistemas de IA. Si aceptamos que estos sistemas son espejos, entonces la pregunta no es cómo hacer que la IA sea más "objetiva", sino cómo usar ese reflejo para identificar y corregir las distorsiones en nuestras propias estructuras sociales. Pustilnik señala que muchas organizaciones prefieren culpar a los algoritmos por resultados discriminatorios en lugar de examinar las prácticas institucionales que generaron los datos problemáticos en primer lugar.

El académico también destaca un fenómeno que llama "la ilusión de la neutralidad tecnológica": la creencia de que las herramientas digitales operan en un vacío ético. Esta ilusión es especialmente peligrosa en el contexto latinoamericano, donde sistemas de IA desarrollados en otros contextos culturales se implementan sin adaptación crítica, importando sesgos y suposiciones que pueden no aplicar a realidades locales.

La dimensión filosófica de los algoritmos

Desde una perspectiva filosófica, Pustilnik propone que la inteligencia artificial nos obliga a confrontar preguntas fundamentales sobre la naturaleza del conocimiento y la toma de decisiones. ¿Qué significa "comprender" algo? ¿Es suficiente identificar patrones estadísticos o se requiere algo más? Estos cuestionamientos no son meramente académicos: tienen consecuencias directas en ámbitos como la medicina, donde sistemas de IA pueden detectar patrones en imágenes médicas sin "entender" la enfermedad en el sentido que lo haría un médico experimentado.

El académico brasileño argumenta que la IA expone una tensión entre dos formas de conocimiento: el conocimiento explícito, que puede ser articulado y codificado, y el conocimiento tácito, que reside en la experiencia y la intuición humanas. Los sistemas actuales de aprendizaje automático son extraordinariamente efectivos capturando correlaciones en datos, pero carecen de la capacidad de comprender causalidad o contexto de la manera que lo hacen los humanos. Esta limitación no es un problema técnico a resolver, sino una característica fundamental que define qué tipo de tareas son apropiadas para la automatización.

"La inteligencia artificial no nos muestra el futuro que queremos construir, sino el pasado que hemos construido. Cada algoritmo es un archivo histórico de nuestras decisiones colectivas, y si no nos gusta lo que vemos reflejado, el problema no está en el espejo."

Esta perspectiva tiene ramificaciones importantes para la ética de la IA. Pustilnik sugiere que muchos debates sobre "ética algorítmica" están mal enfocados porque tratan a los sistemas de IA como agentes morales independientes, cuando en realidad son extensiones de la agencia humana. La responsabilidad por las decisiones automatizadas no puede delegarse a los algoritmos; permanece firmemente en manos de quienes diseñan, entrenan y despliegan estos sistemas.

Implicaciones para el desarrollo tecnológico en América Latina

El análisis de Pustilnik cobra especial relevancia en el contexto latinoamericano, donde la adopción de tecnologías de IA frecuentemente ocurre sin la infraestructura crítica necesaria para evaluar su impacto social. Chile, por ejemplo, ha avanzado significativamente en la implementación de sistemas de IA en el sector público, desde la predicción de deserción escolar hasta la asignación de recursos en salud. Sin embargo, estos sistemas a menudo operan como "cajas negras" cuyas lógicas de decisión permanecen opacas tanto para los ciudadanos afectados como para los funcionarios que las utilizan.

El académico brasileño enfatiza la necesidad de desarrollar capacidades locales no solo en ingeniería de IA, sino en pensamiento crítico sobre sus implicaciones. Esto incluye formar profesionales que puedan auditar sistemas algorítmicos, identificar sesgos específicos del contexto latinoamericano, y diseñar soluciones que reflejen valores y prioridades regionales en lugar de simplemente importar frameworks desarrollados en Silicon Valley o Beijing. La soberanía tecnológica, argumenta, no es solo cuestión de infraestructura física, sino de capacidad interpretativa y poder de decisión sobre qué tecnologías adoptar y cómo adaptarlas.

Pustilnik también señala que América Latina tiene la oportunidad de aprender de los errores cometidos en otras regiones. Mientras que Europa y Estados Unidos están ahora intentando regular sistemas de IA que ya están profundamente integrados en infraestructuras críticas, los países latinoamericanos pueden adoptar un enfoque más deliberado, estableciendo salvaguardas éticas y mecanismos de rendición de cuentas antes de que la dependencia de estos sistemas se vuelva irreversible. Esta ventana de oportunidad, sin embargo, es limitada y requiere acción coordinada entre gobiernos, academia y sociedad civil.

Más allá de la metáfora del espejo

La metáfora del espejo que propone Pustilnik es poderosa, pero él mismo reconoce sus limitaciones. Los espejos reflejan pasivamente; la IA, en cambio, tiene efectos activos en el mundo. Un algoritmo de recomendación no solo refleja nuestras preferencias existentes, sino que las moldea y refuerza, creando bucles de retroalimentación que pueden amplificar tendencias problemáticas. Un sistema de puntuación crediticia no solo refleja patrones históricos de solvencia, sino que determina quién tendrá acceso a oportunidades económicas en el futuro, potencialmente perpetuando desigualdades existentes.

Esta distinción es crucial para entender el verdadero desafío que presenta la IA. No basta con "limpiar" los datos de entrenamiento o ajustar los algoritmos para eliminar sesgos evidentes. Es necesario reconocer que estos sistemas participan activamente en la construcción de la realidad social, no solo la reflejan. Cada vez que un algoritmo toma una decisión sobre contratación, préstamos, libertad condicional o acceso a servicios, está contribuyendo a crear el futuro que luego será usado como datos de entrenamiento para la próxima generación de algoritmos.

Pustilnik concluye que la inteligencia artificial nos confronta con una responsabilidad fundamental: si estos sistemas son espejos de la humanidad, entonces tenemos la obligación de asegurarnos de que reflejan lo mejor de nosotros, no lo peor. Esto requiere un compromiso sostenido con la transparencia, la rendición de cuentas y la participación democrática en las decisiones sobre qué automatizar y cómo hacerlo. La pregunta no es si la IA transformará nuestras sociedades—ya lo está haciendo—sino si esa transformación reflejará valores de equidad, justicia y dignidad humana, o simplemente amplificará las desigualdades y prejuicios que ya existen.

Contexto clave

Sesgo algorítmico: Se refiere a errores sistemáticos y repetibles en sistemas computacionales que crean resultados "injustos", favoreciendo o perjudicando a ciertos grupos. Estos sesgos no surgen de la tecnología en sí, sino de los datos con los que se entrenan los algoritmos. Si los datos históricos reflejan discriminación pasada—por ejemplo, si históricamente se han aprobado menos préstamos a personas de ciertos barrios—un algoritmo entrenado con esos datos aprenderá y perpetuará ese patrón, incluso sin que variables como raza o género sean explícitamente incluidas en el modelo.

Cajas negras algorítmicas: Muchos sistemas modernos de IA, especialmente aquellos basados en aprendizaje profundo, operan de manera que ni siquiera sus creadores pueden explicar completamente cómo llegan a decisiones específicas. El sistema puede tener millones o miles de millones de parámetros que interactúan de formas complejas. Esta opacidad es problemática cuando estos sistemas toman decisiones que afectan vidas humanas, porque dificulta la rendición de cuentas y la identificación de errores o sesgos.

Conocimiento tácito vs. explícito: El conocimiento explícito puede ser fácilmente articulado, documentado y transferido—como las reglas de un juego. El conocimiento tácito es más difícil de expresar y a menudo se adquiere a través de la experiencia—como saber cuándo un paciente "no se ve bien" basándose en años de práctica médica. La IA actual es excelente procesando conocimiento explícito y patrones en datos, pero tiene dificultades con el conocimiento tácito que los humanos adquieren a través de la experiencia contextual y la comprensión profunda de situaciones complejas.

Para profundizar

  • Auditorías algorítmicas en el sector público latinoamericano — ¿Qué mecanismos existen actualmente para que ciudadanos y organizaciones civiles puedan examinar y cuestionar las decisiones automatizadas que toman los gobiernos? La transparencia algorítmica es especialmente crítica en contextos con instituciones democráticas frágiles.
  • IA y conocimientos indígenas — Los sistemas de IA típicamente privilegian formas de conocimiento que pueden ser cuantificadas y codificadas, ¿cómo podría la tecnología incorporar epistemologías alternativas que valoran la relacionalidad, la oralidad y la conexión con el territorio? Esta pregunta es particularmente relevante para América Latina.
  • Economía política de los datos de entrenamiento — ¿Quién decide qué datos se usan para entrenar sistemas de IA de uso global, y cómo esas decisiones reflejan y refuerzan relaciones de poder existentes entre el Norte y el Sur Global? La infraestructura de datos tiene implicaciones geopolíticas que apenas comenzamos a comprender.
¿Te gustó este artículo?
Recibí lo mejor de ConocIA cada semana en tu correo.
Sin spam · Cancelá cuando quieras

Comentarios

Deja tu comentario
Tu email no será publicado.

No hay comentarios todavía. ¡Sé el primero en comentar!

Artículos relacionados