5.5 C
Madrid
jueves, enero 15, 2026
spot_img
spot_img

Codex Max de OpenAI resuelve una de mis mayores molestias con la codificación de IA, y es mucho más rápido

Siga conectamentado: Agréganos como fuente preferida en Google.


Conclusiones esencia de conectamentado

  • Codex Max procesa cargas de trabajo masivas mediante un manejo de contexto mejorado.
  • Una ejecución más rápida y menos tokens ofrecen una mejor eficiencia en el mundo existente.
  • El primer Codex entrenado en Windows restablecimiento las tareas de mejora multiplataforma.

Posteriormente de una semana de importantes anuncios de programación de IA por parte de Microsoft y Google, OpenAI se unió a la diversión. Hoy, OpenAI anuncia una nueva traducción de Codex, su maniquí de IA centrado en la programación.

Si adecuadamente el anuncio fue hoy, la capacidad GPT-5.1-Codex-Max existente estará apto mañana en Codex para usuarios de ChatGPT Plus, Pro, Business, Edu y Enterprise. El ataque a la API «llegará pronto». OpenAI dice que el nuevo maniquí Max «reemplaza a GPT-5.1-Codex como maniquí recomendado para tareas de codificación agente en entornos Codex y similares».

Encima: Linus Torvalds es sorprendentemente eufórico sobre la codificación de vibraciones, excepto por este uso «horrible»

(Divulgación: Ziff Davis, la empresa matriz de conectamentado, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y ejecutar sus sistemas de IA).

la gran mensaje

La gran mensaje es que el nuevo maniquí Max puede funcionar en tareas más grandes. Las IA tienen una ventana de contexto, que es aproximadamente la cantidad de información y procesamiento que una IA puede manejar de una sola vez. En un ser humano, piense en ello como capacidad de atención o cuánto trabajo puede hacer cualquiera antiguamente de escasear una nueva taza de café.

Encima: codificará más rápido y gastará menos con la nueva puesta al día GPT-5.1 de OpenAI: así es como

Internamente, el tamaño de una ventana de contexto es en sinceridad cuántos tokens puede manejar una IA antiguamente de agotarse. Los tokens son fragmentos de información muy pequeños. No corresponden directamente a palabras, saber o líneas de código, sino que son representaciones de memoria de esas cosas.

Codex tiene una ventana de contexto suficiente ínclito, pero resulta abrumada. Por ejemplo, descubrí que cuando codificaba usando Codex, podía realizar tareas de proyectos muy grandes sin gemir. Pero si le daba un volcado titán de un arbitraje de código con una tonelada de texto en el volcado, salía de la ventana de contexto con suficiente presteza. Esto se debe a que los tokens no se consumían durante el procesamiento del tesina. Estaban consumidos en el manejo del gran volcado de datos.

LEER  5 rastreadores de hábitos en Android que pueden revelar sus patrones y motivarlo a cambiar

La característica de la medio superior de la página de GPT-5.1-Codex-Max es que puede manejar ventanas de contexto mucho más grandes y ejecutar a través de ventanas de contexto mediante un proceso llamado compactación.

La compactación es el proceso que un maniquí puede utilizar para someter o comprimir partes de la conversación o del contexto del código cuando la ventana común del token se está llenando.

¿Sabes cómo cuando estás hablando y hablando y hablando con un amigo y sus luceros se ponen vidriosos, pero luego aplaudes, exclamas «Sal de aquí» y recuperas su atención? Eso es compactación. ¿Qué? No puedo ser sólo yo.

Asimismo: La mejor IA gratuita para codificar en 2025: ahora solo 3 pasan el corte

En la IA, significa que Codex Max puede trabajar en tareas mucho más grandes, como refactores muy complejos de todo el sistema (inquirir, cambiar y corregir referencias cruzadas). Asimismo permite que la IA trabaje en una sola tarea durante horas seguidas. OpenAI dice que Codex puede realizar una tarea de 24 horas.

La compactación no es nueva. Me encontré con él en Claude Code en mi plan Max de $100 al mes. Una diferencia es que Claude tiene una ventana de contexto de aproximadamente 200.000 tokens. En un momento durante mi codificación, Claude me informó que habíamos sofocado suficiente y me recomendó que comenzara una nueva sesión o ejecutaría una compactación, lo que tomó unos cinco minutos.

Por el contrario, OpenAI dice que Max puede «trabajar coherentemente con millones de tokens en una sola tarea».

menos es más

La evaluación SWE-Bench Verified es básicamente una prueba de precisión del procesamiento de IA. Mide qué tan adecuadamente la IA resuelve una serie de problemas de codificación. Según OpenAI, GPT-5.1-Codex-Max «alcanza el mismo rendimiento» que el maniquí precedente, GPT-5.1-Codex.

Encima: Antigravity de Google antepone la productividad de la codificación a las exageraciones de la IA, y el resultado es sorprendente

En otras palabras, la IA no se deterioró en su calidad de IA. Pero lo interesante es que Max puede ayudar ese rendimiento utilizando un 30 % menos de tokens de pensamiento y ejecutar entre un 27 % y un 42 % más rápido en tareas de codificación del mundo existente. En mi imaginación, me imagino a un ingeniero de OpenAI levantando el puño y exclamando: «Maldita sea, estaba intentando alcanzar el 43%, pero no».

LEER  Google Wallet agrega soporte para otra identificación estatal oficial, llevando el total a 8

Esto tiene algunas implicaciones en el mundo existente. Quizás recuerdes que el plan ChatGPT Plus de $20 al mes tiene restricciones suficiente altas en el uso del Codex, lo que permite aproximadamente 5 horas de ejecución antiguamente de quedarse sin tokens. Con Max usando un 30% menos de tokens, es posible que obtengas una hora extra de programación por el mismo precio.

OpenAI proporcionó algunos ejemplos del rendimiento del maniquí en comparación con la traducción que no es Max. En un ejemplo, Max usó 27.000 tokens en comparación con 37.000, generó 707 líneas de código en motivo de 864 y ejecutó un 27% más rápido.

Asimismo: Cómo codificar tu primera aplicación de iPhone con IA: no se necesita experiencia

Tomémonos un momento para centrarnos en las líneas de código que se mencionan. Si puede hacer que el código funcione en menos líneas de código, generalmente será más acomodaticio de ayudar y, a menudo, se ejecutará más rápido. Si adecuadamente puedes volverte alienado creando código conciso (estoy mirando los pocos codificadores de Perl que quedan), menos líneas para la misma rutina generalmente es una medida de una mejor maña de programación o mejores algoritmos.

Entonces, si Codex observancia líneas, generalmente es poco bueno. Veamos algunos otros ejemplos:

  • 16.000 en motivo de 26.000 tokens, 586 líneas de código en motivo de 933 y un 38% más rápido
  • 8.000 tokens en motivo de 12.000, 578 líneas de código en motivo de 911 y un 33% más rápido
  • 16.000 en motivo de 38.000 tokens, 529 líneas de código en motivo de 667 y un 42% más rápido

Obviamente, cada tarea será diferente, pero más rápido, mejor y más despreciado siempre es bueno.

Mejor ciberseguridad

Desde que se lanzó GPT-5 a principios de año, OpenAI incorporó monitoreo específico de ciberseguridad para detectar e interrumpir actividades maliciosas. Como puede imaginar, si deja que su agente funcione independientemente con ataque a la rasgo de comandos durante horas y horas, podría ser un objetivo suculento para los piratas informáticos.

LEER  Operai está presionando por puntos de referencia de IA específicos de la industria: por qué eso importa

OpenAI dice que el maniquí GPT-5.1-Codex-Max funciona «significativamente mejor» en un razonamiento sostenido de «grande horizonte». Este desempeño sostenido ayuda al maniquí a mejorar todavía la ciberseguridad.

Asimismo: Cómo usar ChatGPT para escribir código y mi principal truco para depurar lo que genera

Codex se ejecuta en una zona segura donde la escritura de archivos solo puede realizarse en un espacio de trabajo definido y el ataque a la red está deshabilitado, a menos que un codificador decida hurtar con el diablo a la pálida luz de la reflejo y encenderlo.

La compañía dice: «Recomendamos ayudar Codex en este modo de ataque restringido, ya que habilitar Internet o la búsqueda en la web puede presentar riesgos de inyección rápida de contenido que no es de confianza».

Entrenado para Windows

Codex funciona muy adecuadamente en Mac. Fue entrenado para hacerlo. Muchos desarrolladores de OpenAI utilizan Mac para codificar. Sin requisa, GPT-5.1-Codex-Max todavía funciona adecuadamente en Windows. OpenAI informa: «Asimismo es el primer maniquí que hemos entrenado para ejecutar de forma efectiva en entornos Windows, con tareas de capacitación que lo convierten en un mejor colaborador en la CLI del Codex».

Asimismo: ¿ChatGPT Plus todavía vale $20? Cómo se compara con los planes Free y Pro

Teniendo en cuenta la creciente relación de OpenAI con Microsoft, tiene sentido que OpenAI le dé a Windows un poco más de bienquerencia.

eso es un recapitulación

Bueno, eso es todo para este anuncio.

Asimismo: 10 secretos del Codex ChatGPT que solo aprendí posteriormente de 60 horas de programación en pareja con él

A medida que Codex Max avanza en dirección a ventanas contextuales más amplias, tareas de larga duración y nueva capacitación específica de Windows, ¿qué es lo que más le flama la atención? ¿Cree que la compactación y los flujos de trabajo de varios millones de tokens cambiarán la forma en que aborda los grandes proyectos de codificación? ¿Son las ganancias en velocidad y eficiencia de tokens suficientes para cambiar su mejora diario? Y si usa Windows, ¿planea probar el nuevo maniquí entrenado para Windows en su flujo de trabajo? Déjame entender lo que piensas en los comentarios a continuación.


Puedes seguir las actualizaciones diarias de mi tesina en las redes sociales. Asegúrate de suscribirte a mi boletín de puesta al día semanal y sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz, en Bluesky en @DavidGewirtz.com y en YouTube en YouTube.com/DavidGewirtzTV.

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos