Sam Altman atacó Anthropic por usar la táctica del miedo con su nueva IA. Acto seguido hizo exactamente lo mismo
Las grandes de la IA se han propuesto un objetivo: prácticamente cada semana deben presentar un nuevo modelo o empezar a calentar el ambiente comentando lo que está por llegar.
Resumen
Las grandes de la IA se han propuesto un objetivo: prácticamente cada semana deben presentar un nuevo modelo o empezar a calentar el ambiente comentando lo que está por llegar.
Las grandes de la IA se han propuesto un objetivo: prácticamente cada semana deben presentar un nuevo modelo o empezar a calentar el ambiente comentando lo que está por llegar. No se toleran los retrasos porque la velocidad a la que sucede todo es apabullante, pero quienes siguen dominando la conversación en cuanto a la potencia de sus modelos son OpenAI y Anthropic.
Y ha pasado lo que tenía que pasar: si Anthropic tiene un nuevo modelo “peligroso”, ahora OpenAI dice que también tienen uno.
Y es un ejemplo clarísimo de “donde dije digo, digo Diego”.
GPT-5.5 Cyber. Hace unos días, OpenAI lanzó GPT-5.5 Cyber.
Se trata de una variante de GPT-5.5 enfocada y especializada en las capacidades avanzadas de ciberseguridad. Es un modelo centrado en tareas como la explotación de vulnerabilidades, pruebas de penetración, ingeniería inversa de malware y otro tipo de acciones muy enfocadas a ese sector de la seguridad informática.
En una realidad en la que gracias a las herramientas de IA hay sistemas más vulnerables que nunca (y todo esto cuando estamos a las puertas de la era de la criptografía poscuántica), modelos tan especializados se antojan como una herramienta muy golosa para las empresas. Pero, claro, también para alguien con otras intenciones.
En Xataka Europa busca independizarse de Microsoft Office.
Su alternativa ya está aquí, pero no sin polémica
Control de acceso. Debido a las preocupaciones por el potencial doble uso, OpenAI ha tomado la decisión de restringir el acceso a GPT-5.5 Cyber a “defensores cibernéticos críticos”. ¿Quiénes son estos?
Los que protegen infraestructura esencial como redes eléctricas o financieras. OpenAI cuenta con un programa de acceso certificado con salvaguardas robustas y rechazo de solicitudes maliciosas para que no todo el mundo tenga acceso a esta herramienta.
Además, cuentan con un sistema de monitorización para detectar actividad sospechosa realizada por el modelo.
A cañonazos. Es, en esencia, el discurso del miedo.
Una vez más, una empresa de inteligencia artificial diciendo que tienen un producto tan potente que no puede caer en las manos de un cualquiera. No es la primera vez que OpenAI utiliza este discurso, pero los tiempos han sido muy curiosos.
Hace unos días, Anthropic presentó Mythos. Se trata de una herramienta muy similar a la de OpenAI, una que ya está dando algunos resultados en empresas, con ejemplos como Mozilla apuntando que, gracias a Mythos, la última versión de Firefox cuenta con un montón de parches de seguridad porque la IA ha agilizado mucho los procesos para encontrar vulnerabilidades.
Es un ejemplo más de los dos titanes de la industria de la IA capitaneando barcos con una enorme potencia de fuego y “disparando” su mejor producto con ese discurso del miedo.
Precisamente, ahí está el problema.
La hipocresía. Tras la presentación de Cyber, Sam Altman comentó en X que estaban trabajando con el Gobierno para establecer un control de acceso de confianza a su herramienta.
No han compartido ni las identidades de quienes tendrán acceso inicial ni, realmente, muchos detalles del modelo. Simplemente ha sido un “uy, uy, esto es muy poderoso y no podemos liberarlo al gran público”.
Y, como decimos, el problema es que el propio Sam Altman criticó duramente esa estrategia de Anthropic cuando se presentó Mythos. El CEO habló de la estrategia del miedo y comparó la maniobra de Anthropic y su enemigo declarado, Dario Amodei, con la de quien fabrica una bomba atómica y, a la vez, te vende el búnker para poder protegerte de ella.
Esto no ha sido pasado por alto por los medios debido a que criticó duramente esa estrategia justo antes de copiarla palabra por palabra.
En Xataka DeepSeek acaba de lanzar un modelo que compite con Opus 4.6.
Cuesta siete veces menos y funciona en chips chinos
A la par. A pesar de todo, ni uno ni otro está desencaminado.
Cuando las empresas de IA presentan un modelo, curiosamente siempre es mejor que lo de la competencia en casi todo. En esta ocasión, una evaluación del instituto de Seguridad de la IA de Reino Unido refleja que tanto Mythos como GPT-5.5 Cyber son dos de los modelos más potentes que han analizado en sus pruebas de ciberseguridad y que están, básicamente, a la par.
Comparados con los modelos anteriores o no específicos, la diferencia es palpable. En tareas de nivel experto, GPT-5.5 alcanzó una media de superación del 71,4% frente al 52,4% de GPT-5.4.
Mythos Preview, por su parte, se quedó en el 68,6% frente al 48,6% de Opus 4.7. El Instituto concluye apuntando que esto es la evidencia de que el potencial en ciberseguridad es una tendencia entre los modelos de frontera, uno en el que pueden empezar a conseguir los ansiados beneficios de cara a convertirse en empresas cotizadas.
Otra lectura es que los países que quieran dejar de depender de la tecnología puntera estadounidense deben empezar a ponerse las pilas cuanto antes. Y ese es, precisamente, el mensaje del CEO de Mistral, la compañía francesa de IA que, hace poco, apuntó que Europa debía dejar de ser un vasallo tecnológico de Estados Unidos para convertirse en una potencia.
Comentarios
Deja tu comentario
No hay comentarios todavía. ¡Sé el primero en comentar!