OpenAI ha anunciado el tiro de un «investigador de seguridad agente» que funciona con su maniquí de jerigonza noble (LLM) GPT-5 y está programado para porfiar a un perito humano capaz de escanear, comprender y parchear código.
Llamado Desaseado hormiguerola compañía de inteligencia químico (IA) dijo que el agente autónomo está diseñado para ayudar a los desarrolladores y equipos de seguridad a identificar y corregir vulnerabilidades de seguridad a escalera. Actualmente está apto en traducción beta privada.
«Aardvark analiza continuamente los repositorios de código fuente para identificar vulnerabilidades, evaluar la explotabilidad, priorizar la pesantez y proponer parches específicos», señaló OpenAI.
Funciona integrándose en el proceso de exposición de software, monitoreando confirmaciones y cambios en las bases de código, detectando problemas de seguridad y cómo podrían explotarse, y proponiendo soluciones para abordarlos utilizando el razonamiento y el uso de herramientas basados en LLM.
El motor del agente es GPT‑5, que OpenAI presentó en agosto de 2025. La compañía lo describe como un «maniquí inteligente y valioso» que presenta capacidades de razonamiento más profundas, cortesía del pensamiento GPT-5, y un «enrutador en tiempo vivo» para osar el maniquí correcto a usar según el tipo de conversación, la complejidad y la intención del becario.
Aardvark, agregó OpenAI, analiza la pulvínulo de código de un plan para producir un maniquí de amenaza que cree que representa mejor sus objetivos y diseño de seguridad. Con esta pulvínulo contextual, el agente escanea su historial para identificar problemas existentes, así como detectar otros nuevos examinando los cambios entrantes en el repositorio.
Una vez que se encuentra un posible defecto de seguridad, intenta activarlo en un entorno apartado y protegido para confirmar su explotabilidad y aprovecha OpenAI Codex, su agente de codificación, para producir un parche que puede ser revisado por un analista humano.
OpenAI dijo que ha estado ejecutando el agente en las bases de código internas de OpenAI y en algunos de sus socios alfa externos, y que ha ayudado a identificar al menos 10 CVE en proyectos de código descubierto.
La empresa emergente de IA está allí de ser la única empresa que prueba agentes de IA para enfrentarse el descubrimiento y parcheo automatizados de vulnerabilidades. A principios de este mes, Google anunció CodeMender que detecta, parchea y reescribe código pusilánime para evitar futuras vulnerabilidades. El coloso tecnológico además señaló que tiene la intención de trabajar con los mantenedores de proyectos críticos de código descubierto para integrar parches generados por CodeMender para ayudar a apoyar los proyectos seguros.
Pasado desde esa perspectiva, Aardvark, CodeMender y XBOW se están posicionando como herramientas para el investigación continuo de código, la nervio de exploits y la vivientes de parches. Igualmente viene inmediatamente luego del tiro por parte de OpenAI de los modelos gpt-oss-safeguard que están ajustados para tareas de clasificación de seguridad.
«Aardvark representa un nuevo maniquí en el que el defensor es lo primero: un investigador de seguridad agente que se asocia con equipos brindando protección continua a medida que el código evoluciona», dijo OpenAI. «Al detectar vulnerabilidades tempranamente, validar la explotabilidad en el mundo vivo y ofrecer soluciones claras, Aardvark puede robustecer la seguridad sin frenar la innovación. Creemos en ampliar el paso a la experiencia en seguridad».


