El paper sobre agentes científicos no es estrictamente un benchmark de retrieval, pero importa mucho en esta conversación porque lleva el problema a un terreno donde buscar bien es tan importante como razonar. La tesis del trabajo es que la ciencia está entrando en una fase donde agentes supervisados por humanos podrían coordinar análisis complejos, traducir intención científica y escalar descubrimiento.
Esa promesa, sin embargo, depende de una condición fuerte: que el sistema sea capaz de recuperar el contexto correcto, documentar sus pasos y operar con suficiente trazabilidad. Si no puede hacer eso, la idea de “agente científico” se vuelve demasiado frágil para sostener responsabilidad real.
Por eso este paper encaja tan bien en el panorama de 2026. No solo habla del futuro de la ciencia con IA. También deja entrever cuál es la infraestructura cognitiva que hará falta para llegar allí: buen retrieval, trazabilidad explícita y supervisión humana sostenida.