IA en Chile

¿Puede la inteligencia artificial escribir ciencia? Un editor analiza el dilema en la U. de Chile

La Universidad de Chile enfrenta el debate sobre IA en publicaciones científicas. Un editor de revista académica analiza cómo estas herramientas transforman la escritura y revisión de investigación.

Admin Por Admin 22 abr., 2026 10 min de lectura
Compartir:
Resumen

La Universidad de Chile enfrenta el debate sobre IA en publicaciones científicas. Un editor de revista académica analiza cómo estas herramientas transforman la escritura y revisión de investigación.

En las salas de redacción científica de América Latina, una pregunta inquieta cada vez más a editores y académicos: ¿hasta dónde pueden llegar las herramientas de inteligencia artificial en la escritura de papers sin comprometer la integridad de la investigación? La Universidad de Chile, una de las instituciones más prestigiosas del continente, se convirtió recientemente en escenario de este debate cuando un editor de revista científica compartió su análisis sobre el uso de IA en publicaciones académicas, abriendo una conversación que trasciende lo meramente técnico para adentrarse en cuestiones éticas, epistemológicas y prácticas que definen el futuro de la comunicación científica.

El nuevo rostro de la edición científica

La irrupción de modelos de lenguaje avanzados como GPT-4, Claude y otros sistemas de IA generativa ha transformado radicalmente el panorama de la escritura académica en menos de dos años. Lo que comenzó como herramientas experimentales para corregir gramática o sugerir sinónimos se ha convertido en asistentes capaces de estructurar argumentos, sintetizar literatura y hasta proponer marcos teóricos completos. En la Universidad de Chile, esta realidad no pasa desapercibida: investigadores de diversas disciplinas ya emplean estas tecnologías en distintas etapas del proceso de publicación, desde la redacción inicial hasta la preparación de respuestas a revisores.

El análisis presentado en la institución chilena llega en un momento crucial. Según datos de la plataforma Dimensions, las publicaciones científicas que mencionan el uso de IA en su metodología o agradecimientos han aumentado un 340% entre 2022 y 2024. Este crecimiento exponencial plantea desafíos inéditos para los editores de revistas académicas, quienes deben establecer políticas claras sobre qué usos son aceptables y cuáles comprometen la originalidad y autoría de la investigación.

La posición de un editor de revista científica resulta particularmente estratégica en este debate. Estos profesionales se encuentran en la intersección entre autores, revisores e instituciones, y son testigos de primera mano de cómo la IA está reconfigurando no solo la escritura, sino también la revisión por pares, la detección de plagio y la evaluación de la calidad científica. Su perspectiva ofrece una visión pragmática que equilibra el potencial innovador de estas herramientas con la necesidad de mantener estándares rigurosos de integridad académica.

Entre la eficiencia y la autenticidad

El dilema que enfrentan las revistas científicas no es binario. No se trata simplemente de prohibir o permitir el uso de IA, sino de establecer marcos normativos que reconozcan los diversos niveles de intervención que estas herramientas pueden tener en un manuscrito. Un investigador que utiliza IA para traducir su trabajo del español al inglés está haciendo un uso muy diferente al de quien emplea estos sistemas para generar secciones completas de su artículo, incluyendo la interpretación de resultados o la discusión teórica.

Las principales revistas científicas internacionales han comenzado a posicionarse. Nature, Science y Cell han publicado directrices que, en general, permiten el uso de IA como herramienta de asistencia pero no como coautor, exigiendo además transparencia total sobre qué herramientas se utilizaron y en qué fases del proceso. Sin embargo, la implementación práctica de estas políticas resulta compleja: ¿cómo verificar que un texto fue o no generado por IA? ¿Qué nivel de edición asistida por IA cruza la línea de la autoría legítima?

La verdadera pregunta no es si los científicos usarán inteligencia artificial en sus publicaciones, sino cómo estableceremos los límites éticos que preserven la esencia del trabajo intelectual humano mientras aprovechamos el potencial de estas herramientas para democratizar el acceso a la comunicación científica de calidad.

En América Latina, donde muchos investigadores enfrentan barreras idiomáticas para publicar en revistas de alto impacto en inglés, la IA representa una oportunidad de nivelación. Un científico brillante en Valparaíso o Concepción puede ahora pulir su manuscrito hasta alcanzar estándares de redacción comparables a los de un hablante nativo de inglés. Pero esta democratización viene acompañada de riesgos: la homogeneización del estilo científico, la pérdida de voces distintivas y, en casos extremos, la publicación de investigación fundamentalmente generada por máquinas.

El papel de las universidades en la era de la IA generativa

La Universidad de Chile, al abrir este espacio de análisis, se posiciona en la vanguardia de una conversación que todas las instituciones académicas deberán sostener. Las universidades tienen la responsabilidad de formar a sus investigadores no solo en el uso técnico de estas herramientas, sino en la reflexión crítica sobre sus implicaciones. Esto incluye desarrollar literacidad en IA: la capacidad de comprender qué pueden y no pueden hacer estos sistemas, cuáles son sus sesgos inherentes y cómo utilizarlos de manera que complementen, no reemplacen, el pensamiento crítico.

Las instituciones chilenas de educación superior enfrentan además un desafío particular. Chile ha invertido significativamente en ciencia y tecnología en las últimas décadas, consolidando una comunidad científica robusta que produce investigación de impacto global. Mantener y fortalecer esta posición en un contexto donde la IA redefine las reglas del juego requiere políticas institucionales claras, capacitación continua y, sobre todo, un compromiso con la integridad académica que no sacrifique la innovación en el altar del conservadurismo, ni la ética en el del progreso tecnológico.

El análisis presentado en la Universidad de Chile probablemente incluye recomendaciones prácticas para investigadores y editores: protocolos de transparencia, declaraciones de uso de IA en manuscritos, criterios para evaluar la originalidad en textos potencialmente asistidos por máquinas, y estrategias para mantener la revisión por pares como filtro efectivo de calidad. Estas directrices serán fundamentales para que la institución navegue la transición hacia un ecosistema de publicación científica donde la IA es un actor permanente.

Hacia un nuevo contrato social en la ciencia

Lo que está en juego trasciende la mera adopción de una nueva tecnología. La ciencia se construye sobre un contrato social implícito: los investigadores reportan honestamente sus métodos, resultados e interpretaciones, y la sociedad confía en ese conocimiento para tomar decisiones informadas. La IA generativa introduce una capa de opacidad en este contrato. Cuando un lector consume un artículo científico, ¿está accediendo al pensamiento del investigador o a una síntesis algorítmica de patrones extraídos de millones de textos previos?

Los editores de revistas científicas se convierten así en guardianes de este nuevo contrato. Su labor ya no consiste únicamente en evaluar la solidez metodológica y la relevancia de los hallazgos, sino también en discernir la autenticidad de la contribución intelectual. Esto requiere herramientas sofisticadas de detección, pero también —y quizás más importante— un criterio editorial refinado que pueda identificar las señales sutiles de autoría genuina: la originalidad en el planteamiento, la profundidad en el análisis, la capacidad de conectar ideas de maneras inesperadas.

El debate en la Universidad de Chile representa un microcosmos de una transformación global. Instituciones académicas de todo el mundo están lidiando con las mismas preguntas, experimentando con diferentes soluciones y, en muchos casos, aprendiendo sobre la marcha. La ventaja de abordar este tema de manera proactiva, como lo hace la universidad chilena, es que permite establecer normas antes de que se produzcan crisis de integridad que erosionen la confianza pública en la ciencia. En un continente donde la credibilidad de las instituciones científicas es fundamental para enfrentar desafíos como el cambio climático, la salud pública y el desarrollo sostenible, este trabajo preventivo resulta invaluable.

Contexto clave

Inteligencia artificial generativa: Se refiere a sistemas de IA capaces de crear contenido nuevo —texto, imágenes, código— a partir de patrones aprendidos de grandes conjuntos de datos. En el contexto científico, modelos como GPT-4 o Claude pueden generar texto académico coherente, pero no poseen comprensión real del contenido ni capacidad de razonamiento científico genuino. Funcionan prediciendo secuencias de palabras probables basándose en billones de ejemplos previos, lo que les permite producir textos convincentes pero no necesariamente precisos o originales en el sentido intelectual del término.

Revisión por pares: El proceso fundamental de validación científica donde expertos independientes evalúan la calidad, rigor y originalidad de un manuscrito antes de su publicación. La IA complica este proceso de dos maneras: primero, los revisores deben ahora evaluar si el texto refleja genuinamente el trabajo del autor; segundo, algunos editores están experimentando con IA para asistir en la revisión misma, identificando problemas metodológicos o inconsistencias estadísticas, lo que plantea preguntas sobre la automatización del juicio científico.

Autoría científica: Concepto que define quién merece crédito por una contribución intelectual en investigación. Tradicionalmente, los autores son quienes concibieron el estudio, recolectaron datos, analizaron resultados o escribieron el manuscrito. La IA desafía esta definición porque puede participar en varias de estas tareas sin ser consciente ni responsable. Las directrices actuales de la mayoría de revistas excluyen a la IA como coautor, pero el debate sobre qué nivel de asistencia algorítmica compromete la autoría legítima permanece abierto y en evolución constante.

Para profundizar

  • Detección de textos generados por IA en ciencia — Las herramientas actuales de detección tienen tasas de falsos positivos significativas y pueden discriminar contra autores no nativos del inglés. Explorar cómo mejorar estos sistemas sin penalizar a investigadores de países no anglófonos es crucial para una implementación justa de políticas editoriales.
  • IA y democratización del conocimiento científico — Más allá de la escritura de papers, la IA puede hacer la ciencia más accesible traduciendo artículos complejos a lenguaje simple o generando resúmenes visuales. Investigar cómo maximizar este potencial democratizador mientras se mantiene el rigor científico representa una frontera prometedora para la comunicación pública de la ciencia.
  • Formación en literacidad de IA para investigadores — Las universidades necesitan desarrollar programas que enseñen no solo a usar herramientas de IA, sino a comprender sus limitaciones, sesgos y implicaciones éticas. Analizar qué competencias específicas necesitan los científicos del siglo XXI para navegar este ecosistema tecnológico es fundamental para el futuro de la educación superior.
¿Te gustó este artículo?
Recibí lo mejor de ConocIA cada semana en tu correo.
Sin spam · Cancelá cuando quieras

Comentarios

Deja tu comentario
Tu email no será publicado.

No hay comentarios todavía. ¡Sé el primero en comentar!

Artículos relacionados