Varios científicos computacionales sostienen que la IA actual es esencialmente código complejo. Melanie Mitchell del Instituto Santa Fe describe estos sistemas como "algoritmos estadísticos que procesan datos según patrones previamente establecidos". Emily Bender los caracteriza como "loros estocásticos" que predicen secuencias de palabras sin comprensión real.
Esta visión se basa en hechos concretos: los modelos actuales funcionan mediante algoritmos de aprendizaje profundo, no "entienden" el contenido que generan y están limitados por sus datos de entrenamiento.
Por otro lado, expertos como Yann LeCun de Meta señalan que estos sistemas "exhiben capacidades emergentes que no fueron explícitamente programadas", sugiriendo que trascienden la definición tradicional de software.
Los grandes modelos de lenguaje representan un nuevo paradigma computacional.
Así lo afirma Sam Altman de OpenAI, mientras que Sundar Pichai de Google los describe como "una nueva forma de computación que está redefiniendo la relación entre humanos y máquinas".
El contraste entre software tradicional y estos sistemas es notable: mientras el primero opera mediante reglas explícitas y predecibles, los modelos de IA funcionan con patrones aprendidos, comportamiento parcialmente impredecible y capacidad para adaptarse a nuevas tareas sin ser reprogramados.
Gary Marcus, científico cognitivo crítico con la IA actual, ofrece una posición intermedia: "Los sistemas actuales de IA son software, pero representan un tipo diferente que se aproxima a ciertas capacidades cognitivas sin replicarlas completamente".
Quizás la cuestión no sea si la IA es "simplemente software" o algo más, sino qué tipo de software representa y qué implica para nuestro futuro tecnológico. Al igual que un avión no deja de ser una máquina por volar, estos sistemas siguen siendo software aunque exhiban capacidades anteriormente exclusivas de la cognición humana.
Lo indudable es que estamos presenciando una evolución tecnológica donde las líneas entre lo programado y lo emergente se difuminan, obligándonos a reconsiderar lo que entendemos por "simplemente una máquina".
Comentarios 2
Deja tu comentario
Elena Rodríguez
hace 2 semanasSi bien es cierto que estos modelos no poseen comprensión en el sentido cognitivo humano, también es cierto que muestran capacidades emergentes que trascienden la mera predicción estadística de tokens. La capacidad de razonamiento de cadena, la generalización a tareas no vistas durante el entrenamiento, y la transferencia de conocimientos entre dominios sugieren procesos que van más allá de la simple repetición de patrones.
Damian Hidalgo
hace 2 semanasQuizás la pregunta más interesante no sea si estos sistemas son "simplemente software", sino qué nos dice su evolución sobre la naturaleza misma de la inteligencia y la cognición. Si sistemas basados en principios matemáticos relativamente simples pueden exhibir comportamientos que superficialmente parecen inteligentes, ¿qué nos dice esto sobre nuestra propia inteligencia? ¿Es posible que muchos de nuestros procesos cognitivos superiores emerjan también de principios subyacentes más simples? Agradezco su contribución a este diálogo y espero que podamos continuar explorando estas cuestiones fundamentales en futuros intercambios.