Afinales del mes de marzo de 2023, más de medio millar de académicos, ingenieros expertos en inteligencia artificial y empresarios de compañías tecnológicas firmaron una carta abierta en la que advertían de los “profundos riesgos para la sociedad y la humanidad” que plantean los modelos avanzados; en consecuencia, proponían a los laboratorios de IA una pausa o impasse, al menos durante seis meses, en el entrenamiento de sistemas de IA más potentes que el modelo de lenguaje de OpenAI GPT4.
Sin embargo, lejos de traer un invierno tecnológico para la IA generativa, lo cierto es que la carta en la que se pedía la pausa de los laboratorios de IA solamente sirvió para avivar el proceso de avance tecnológico en los meses siguientes.
El debate sobre inteligencia artificial suele oscilar entre la fascinación y el temor, pero rara vez se detiene en lo verdaderamente decisivo: el cambio de paradigma que estamos empezando a presenciar. No se trata ya de modelos más potentes o más rápidos, sino de sistemas capaces de evolucionar por sí mismos.
Hace apenas unos años, el progreso de la IA dependía casi exclusivamente de grandes saltos de ingeniería y de entrenamiento puntual. Hoy el horizonte es distinto: aparecen arquitecturas orientadas al autoaprendizaje permanente, a la mejora continua sin intervención humana directa, y a la generación de nuevas capacidades a partir de su propia experiencia operativa. La IA deja de ser un artefacto estático para convertirse en un proceso.
En este contexto, resulta significativa la reflexión reciente de Matt Shumer en su artículo Algo grande está pasando, donde advierte que la transición hacia una IA autogenerativa no es una posibilidad remota, sino una dinámica ya en marcha. Su tesis es clara: el salto cualitativo no vendrá de un modelo concreto, sino de la capacidad de los sistemas para aprender, corregirse y desplegar nuevas funciones de forma sostenida en el tiempo.
Ese escenario empieza a materializarse con el desarrollo de modelos concebidos como plataformas de aprendizaje continuo. Entre ellos se mencionan propuestas como GPT-5.3 Codex de OpenAI u Opus 4.6 de Anthropic –creadores de Claude, uno de los principales competidores de ChatGPT–, que apuntan hacia una lógica distinta: sistemas capaces de mejorar su desempeño no solo por entrenamiento previo, sino por interacción constante con entornos complejos.
Lo verdaderamente disruptivo no es que estas herramientas produzcan texto, código o imágenes con mayor precisión, sino que comiencen a construir conocimiento operativo propio. Una IA que aprende de manera permanente no solo ejecuta tareas: redefine su modo de ejecutarlas. Y, en esa transición, el papel humano también cambia. Pasamos de diseñar soluciones a supervisar procesos que se reconfiguran solos.
Tal vez la pregunta más relevante no sea tecnológica, sino institucional y cultural: ¿estamos preparados para convivir con sistemas que no solo responden, sino que aprenden de forma autónoma y permanente? Porque, si la intuición de Shumer es correcta, lo que está emergiendo no es simplemente una nueva generación de herramientas digitales, sino un nuevo tipo de infraestructura cognitiva.
Y cuando cambian las infraestructuras del pensamiento, cambia también la manera en que una sociedad se comprende a sí misma, de ahí la importancia del cultivo de los principios para una ética humanista de la IA autónoma.
Sin embargo, el desenlace no está escrito. La IA autónoma no es, por sí misma, ni una promesa ni una amenaza definitiva: es una herramienta cuya dirección dependerá de decisiones humanas. La historia tecnológica muestra que cada gran avance ha ampliado riesgos y oportunidades a la vez, y que el resultado final ha dependido de cómo las instituciones, las normas y la cultura han sabido orientarlo.
En este caso, las posibilidades son extraordinarias. Sistemas capaces de aprender de forma continua pueden acelerar la investigación médica, optimizar el uso de recursos, mejorar la educación personalizada o facilitar soluciones a problemas complejos que hoy desbordan nuestras capacidades. Pueden, en definitiva, convertirse en aliados para ampliar la inteligencia colectiva, no para reemplazarla.