7.3 C
Madrid
sábado, febrero 14, 2026
spot_img
spot_img

El nuevo modelo Spark de OpenAI codifica 15 veces más rápido que GPT-5.3-Codex, pero hay un problema

Siga conectamentado: Agréganos como fuente preferida en Google.


Conclusiones esencia de conectamentado

  • OpenAI apunta a la codificación «conversacional», no a agentes lentos de estilo por lotes.
  • La gran latencia deseo: ida y dorso un 80 % más rápido, tiempo hasta el primer token un 50 % más rápido.
  • Se ejecuta en chips Cerebras WSE-3 para un nivel de servicio Codex de primera latencia.

El equipo del Codex en OpenAI está en llamas. Menos de dos semanas posteriormente de propalar una aplicación Codex basada en agente dedicada para Mac, y solo una semana posteriormente de propalar el maniquí de jerga GPT-5.3-Codex, más rápido y manejable, OpenAI cuenta con un centella por tercera vez.

Adicionalmente: el nuevo GPT-5.3-Codex de OpenAI es un 25% más rápido y ahora va mucho más allá de la codificación: novedades

Hoy, la compañía ha anunciado una aspecto previa de la investigación de GPT-5.3-Codex-Spark, una interpretación más pequeña de GPT-5.3-Codex creada para codificación en tiempo actual en Codex. La compañía informa que genera código 15 veces más rápido y «sigue siendo muy capaz para tareas de codificación del mundo actual». Hay un problema y hablaré de eso en un minuto.

Adicionalmente: el Codex de OpenAI acaba de obtener su propia aplicación para Mac, y cualquiera puede probarla infundado ahora

Codex-Spark inicialmente estará habitable solo para usuarios del nivel Pro de $200/mes, con límites de tarifas separados durante el período de aspecto previa. Si sigue la logística de impulso habitual de OpenAI para las versiones del Codex, los usuarios Plus serán los siguientes, y otros niveles obtendrán golpe con sobrado ligereza.

(Divulgación: Ziff Davis, la empresa matriz de conectamentado, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y proceder sus sistemas de IA).

Ampliando la clan Codex para la colaboración en tiempo actual

OpenAI dice que Codex-Spark es su «primer maniquí diseñado específicamente para trabajar con Codex en tiempo actual: realizar ediciones específicas, remodelar la razonamiento o refinar interfaces y ver resultados de inmediato».

Deconstruyamos esto brevemente. La mayoría de las herramientas de programación de IA agentes tardan un tiempo en objetar a las instrucciones. En mi trabajo de programación, puedo dar una instrucción (y esto se aplica tanto al Codex como al Claude Code) y salir a trabajar en otra cosa por un tiempo. A veces son sólo unos minutos. Otras veces, puede ser suficiente para comer.

LEER  Cómo retirarse de las páginas blancas en 5 pasos rápidos, y por qué debería

Adicionalmente: realicé 4 abriles de expansión de productos en 4 días por $ 200 y todavía estoy atónito.

Aparentemente, Codex-Spark puede objetar mucho más rápido, lo que permite un trabajo rápido y continuo. Esto podría acelerar considerablemente el expansión, especialmente para solicitudes y consultas más simples.

Sé que en ocasiones me he sentido frustrado cuando le hice a una IA una pregunta súper simple que debería ocurrir generado una respuesta inmediata, pero aún así tuve que esperar cinco minutos para obtener una respuesta.

Al hacer de la capacidad de respuesta una característica central, el maniquí admite una codificación conversacional más fluida. A veces, el uso de agentes de codificación se parece más a la codificación por lotes de la vieja escuela. Esto está diseñado para exceder ese sentimiento.

GPT-5.3-Codex-Spark no pretende reemplazar el GPT-5.3-Codex elemental. En cambio, Spark fue diseñado para complementar modelos de IA de detención rendimiento creados para tareas autónomas de larga duración que duran horas, días o semanas.

Proceder

El maniquí Codex-Spark está destinado a trabajos en los que la capacidad de respuesta importa tanto como la inteligencia. Admite la interrupción y la redirección a porción de la tarea, lo que permite ciclos de iteración ajustados.

Esto es poco que me atrae, porque siempre pienso en poco más que decirle a la IA diez segundos posteriormente de haberle asignado una tarea.

Adicionalmente: utilicé Claude Code para codificar una aplicación de Mac en 8 horas, pero fue más trabajo que embeleso.

El maniquí Spark utiliza por defecto ediciones ligeras y específicas, haciendo ajustes rápidos en ocupación de grandes cambios. Siquiera ejecuta pruebas automáticamente a menos que se solicite.

OpenAI ha podido compendiar la latencia (respuesta más rápida) en todo el proceso de solicitud-respuesta. Dice que los gastos generales por delirio de ida y dorso cliente/servidor se han corto en un 80%. Los gastos generales por token se han corto en un 30%. El tiempo hasta el primer token se ha corto en un 50 % mediante la inicialización de la sesión y optimizaciones de transmisión.

Otro mecanismo que progreso la capacidad de respuesta durante la iteración es la preparación de una conexión WebSocket persistente, de modo que no sea necesario renegociar continuamente la conexión.

Desarrollado por chips Cerebras AI

En enero, OpenAI anunció una asociación con el fabricante de chips de IA Cerebras. Hemos estado cubriendo Cerebras por un tiempo. Hemos cubierto su servicio de inferencia, su trabajo con DeepSeek, su trabajo para impulsar el rendimiento del maniquí Pira de Meta y el anuncio de Cerebras de un en sinceridad Gran chip de IA, destinado a duplicar el rendimiento del LLM.

LEER  Por qué recomiendo esta distribución de Linux a los usuarios de Windows 10 que no pueden actualizar a 11

GPT-5.3-Codex-Spark es el primer hito de la asociación OpenAI/Cerebras anunciada el mes pasado. El maniquí Spark se ejecuta en Wafer Scale Engine 3 de Cerebras, que es una obra de chip de IA de detención rendimiento que aumenta la velocidad al colocar todos los fortuna informáticos en un único procesador de escalera de sello del tamaño de un panqueque.

Adicionalmente: 7 ajustes de configuración de ChatGPT sin los que ya no puedo trabajar, y soy un becario renovador

Por lo normal, una sello semiconductora contiene una gran cantidad de procesadores, que más delante en el proceso de producción se cortan y se colocan en su propio embalaje. La sello Cerebras contiene sólo un chip, lo que la convierte en un procesador muy, muy amplio, con conexiones muy, muy estrechamente acopladas.

Según Sean Lie, CTO y cofundador de Cerebras, «Lo que más nos entusiasma de GPT-5.3-Codex-Spark es asociarnos con OpenAI y la comunidad de desarrolladores para descubrir lo que la inferencia rápida hace posible: nuevos patrones de interacción, nuevos casos de uso y una experiencia de maniquí fundamentalmente diferente. Esta aspecto previa es solo el manifestación».

Las trampas

Ahora, aquí están las trampas.

En primer ocupación, OpenAI dice que «cuando la demanda es entrada, es posible que vea un golpe más tardo o colas temporales a medida que equilibramos la confiabilidad entre los usuarios». Entonces, rápido, a menos que mucha muchedumbre quiera ir rápido.

Aquí está el truco. La compañía dice: «En SWE-Bench Pro y Terminal-Bench 2.0, dos puntos de relato que evalúan la capacidad de ingeniería de software agente, GPT-5.3-Codex-Spark tiene un rendimiento inferior al GPT-5.3-Codex, pero puede realizar las tareas en una fracción del tiempo».

La semana pasada, en el anuncio de GPT-5.3-Codex, OpenAI dijo que GPT-5.3-Codex era el primer maniquí que clasifica como «entrada capacidad» para la ciberseguridad, según su Situación de Preparación publicado. Por otro banda, la compañía admitió que GPT-5.3-Codex-Spark «no tiene posibilidades plausibles de alcanzar nuestro umbralado del Situación de Preparación para una entrada capacidad en ciberseguridad».

Asimismo: Dejé de usar ChatGPT para todo: estos modelos de IA lo superan en investigación, codificación y más

Piensa en estas afirmaciones, querido maestro. Esta IA no es tan inteligente, pero hace esas cosas no tan inteligentes mucho más rápido. La velocidad de 15x ciertamente no es nulo despreciable. Pero, ¿verdaderamente quieres que una IA cometa errores de codificación 15 veces más rápido y produzca código menos seguro?

LEER  Amazon acaba de darle a Alexa su mayor actualización desde el debut, y querrás un programa de eco para ello

Déjame decirte esto. «Eh, es sobrado bueno» no es lo suficientemente bueno cuando tienes miles de usuarios enojados que vienen en dirección a ti con antorchas y horcas porque de repente rompiste su software con una nueva interpretación. Pregúntame cómo lo sé.

La semana pasada supimos que OpenAI usa Codex para escribir Codex. Asimismo sabemos que lo utiliza para poder crear código mucho más rápido. Entonces, la empresa claramente tiene un caso de uso para poco que es mucho más rápido, pero no tan inteligente. A medida que entienda mejor qué es eso y dónde encaja Spark, se lo haré entender.

¿Qué sigue?

OpenAI compartió que está trabajando en dirección a modos duales de razonamiento y trabajo en tiempo actual para sus modelos Codex.

La compañía dice: «Codex-Spark es el primer paso en dirección a un Codex con dos modos complementarios: razonamiento y ejecución a dispendioso plazo, y colaboración en tiempo actual para una iteración rápida. Con el tiempo, los modos se combinarán».

El maniquí de flujo de trabajo que prevé es interesante. Según OpenAI, la intención es que eventualmente «Codex pueda mantenerte en un rizo interactivo férreo mientras delegas trabajos de veterano duración a subagentes en segundo plano, o distribuyes tareas a muchos modelos en paralelo cuando quieres amplitud y velocidad, para que no tengas que designar un solo modo desde el principio».

Adicionalmente: probé un rival de Claude Code que es almacén, de código hendido y completamente gratis: cómo me fue

Básicamente, se prostitución de trabajar para conquistar lo mejor de entreambos mundos. Pero por ahora, puedes designar rápido o preciso. Esa es una atrevimiento difícil. Pero lo preciso es cada vez más preciso y ahora, al menos, puedes optar por lo rápido cuando lo desees (siempre que tengas en cuenta las compensaciones y pagues por el nivel Pro).

¿Qué pasa contigo? ¿Cambiaría poco de capacidad de inteligencia y seguridad por respuestas de codificación 15 veces más rápidas? ¿Le atrae la idea de un colaborador de IA interrumpible y en tiempo actual, o prefiere un maniquí más deliberado y de veterano precisión para un trabajo de expansión serio?

¿Qué tan preocupado está por la distinción de ciberseguridad entre Codex-Spark y el maniquí completo GPT-5.3-Codex? Y si eres un becario Pro, ¿te ves cambiando entre los modos «rápido» e «inteligente» según la tarea? Háganos entender en los comentarios a continuación.


Puedes seguir las actualizaciones diarias de mi tesina en las redes sociales. Asegúrate de suscribirte a mi boletín de modernización semanal y sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz, en Bluesky en @DavidGewirtz.com y en YouTube en YouTube.com/DavidGewirtzTV.

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos