2 puntos por GN⁺ 2025-12-03 | 3 comentarios | Compartir por WhatsApp
  • OpenAI activó el modo “código rojo” para mejorar la calidad de ChatGPT y recuperar la ventaja que se estaba debilitando frente a la persecución de Google.
  • Actualmente son urgentes mejoras en funciones clave como personalización, velocidad, confiabilidad y ampliación del rango de preguntas, por lo que todos los nuevos proyectos, como publicidad, Pulse, Health y el agente de compras, se suspendieron o se retrasaron.
  • Gemini 3 de Google quedó por delante de los modelos de OpenAI en numerosos benchmarks recientes, y el éxito del modelo de imágenes Nano Banana, que impulsó el MAU de 450 millones a 650 millones, emergió como una amenaza principal.
  • OpenAI también enfrenta mayor presión financiera por un compromiso de inversión en centros de datos de cientos de miles de millones de dólares, y una proyección interna que exige US$200.000 millones en ingresos anuales para 2030, además de que el crecimiento de clientes empresariales de Anthropic también pesa en la competencia.
  • OpenAI puso en marcha un sistema de revisión diaria y reubicó equipos; además, informó internamente que el nuevo modelo de razonamiento (reasoning) que se publicará pronto está por delante de la última versión de Gemini, dejando la recuperación del liderazgo como una encrucijada crítica.

Activación de código rojo y plan de mejora de ChatGPT

  • Un memorándum interno reveló que OpenAI activó código rojo, el nivel más alto del modo de emergencia para corregir problemas de ChatGPT.
    • OpenAI usa un sistema de alertas en 3 niveles: amarillo → naranja → rojo, y esta medida fue un escalón más alto que código naranja.
  • El alcance incluye reforzar la experiencia general del usuario con más personalización, mayor velocidad de respuesta, mayor confiabilidad del servidor y ampliación de las preguntas a las que pueda responder.
  • Para ello, todos los proyectos nuevos, incluidos publicidad, Pulse (asistente personal), Health y shopping agents, quedaron en segundo plano.
    • Se incentivó la reubicación de personal en toda la empresa y se decidió operar una llamada diaria (daily call) dedicada a revisar el estado de desarrollo cada día.
  • También se incluyó recalibrar el tono del modelo y su capacidad de cumplir instrucciones, tras recientes reclamos sobre el tono frío y errores en preguntas básicas de GPT-5.

Persecución de Google Gemini y presión competitiva

  • El modelo más reciente de Google, Gemini 3, superó a OpenAI en múltiples benchmarks de la industria, mostrando un cambio importante en el equilibrio competitivo.
    • Tras el anuncio de Gemini, las acciones de Google subieron y su rendimiento destacó con fuerza en el mercado.
  • Desde el lanzamiento en agosto del modelo de imágenes Nano Banana, los datos muestran que el MAU total mensual de Google AI pasó de 450 millones en julio a 650 millones en octubre.
  • Anthropic también está expandiéndose en su base de clientes empresariales, revelando una tendencia de debilitamiento de la ventaja de un esquema centrado en OpenAI.
  • Se describe como irónico que el “código rojo” que Google había anunciado justo después del lanzamiento de ChatGPT ahora haya regresado al lado de OpenAI.

Presión de inversión, finanzas y nervios de mercado

  • OpenAI firmó con Microsoft y Amazon un contrato de energía para centros de datos de 36 GW, lo que podría generar costos de alquiler de centros de datos de hasta US$620 mil millones anuales en el futuro.
  • También se compartió la previsión interna de que se necesitan unos US$200 mil millones de ingresos anuales para alcanzar beneficios en 2030.
  • Aunque OpenAI no planea cotizar, esta estructura financiera está estrechamente ligada a la evolución bursátil de empresas tecnológicas clave como Nvidia, Oracle y Microsoft, e impacta al mercado en general.
  • OpenAI sigue operando con pérdidas y se la califica como una estructura que tendría dificultades de supervivencia sin una financiación continua y de gran escala.

Anuncio del nuevo modelo y confianza interna

  • Altman indicó en el memo que el nuevo modelo de razonamiento (reasoning) que se publicará la próxima semana va por delante de la versión más reciente de Google Gemini.
    • Se lo presenta como un impulso para la moral interna y como una reafirmación de la intención de impulsar el crecimiento y recuperar el control.
  • ChatGPT aún mantiene una base fuerte con más de 800 millones de usuarios semanales.
    • OpenAI planea volver a potenciarlo con mejoras de velocidad, precisión y personalización para sostener su crecimiento.

Contexto general

  • En la combinación de competencia creciente (Google y Anthropic), controversia sobre la calidad del producto e infraestructuras de costo masivo, recuperar la calidad base de ChatGPT aparece como la estrategia de supervivencia y la prioridad más urgente para OpenAI.

3 comentarios

 
slowandsnow 2025-12-04

Los problemas de ChatGPT
Tiene demasiados bugs. A veces presiono enviar y no genera el mensaje, o durante el streaming del mensaje aparece un error y desaparece todo, etc. Deep Research tiene incluso menos fuentes que el modo de razonamiento. Ya no hay motivo para usar Deep Research.
Los problemas de Codex
Es demasiado lento. Un trabajo que en Claude Code toma 5 minutos, en Codex tarda más de 10 minutos. Es demasiado tonto.

 
yinn27 2025-12-04

Pero, ¿Gemini no es más incómodo de usar que ChatGPT en cuanto a la UI y en general..?

 
GN⁺ 2025-12-03
Opiniones de Hacker News
  • La semana pasada un cliente envió una consulta sobre una función que yo había escrito en parte. Un ingeniero de soporte generó la respuesta con Claude y, aunque había sido entrenado con documentación interna y pública, produjo disparates convincentes con muchísima seguridad
    Mientras yo explicaba por qué estaba mal, otro ingeniero lo probó con Augment, y esta vez volvió a soltar otro disparate con total seguridad. Al final solo intercambiamos emojis de llanto, y yo seguiré usando mi propia inteligencia

    • Mi código tarda 0.11 segundos, el código de Gemini tarda 0.5 segundos. Mi jefe me pregunta por qué, y no sé qué debería responder ¯\(ツ)
    • Los LLM son realmente malos con las cosas imposibles. A veces es mejor implementar de verdad la función que ellos alucinaron. Algunos proveedores de API públicas ya están haciendo eso
  • Escuché el rumor de que OpenAI no ha logrado un pre-training exitoso desde mediados de 2024. Si le preguntas a ChatGPT 5.1 sobre eventos actuales sin internet, dice que su corte de conocimiento es de junio de 2024. No sé si eso se debe a un modelo pequeño, pero a estas alturas, 18 meses atrás parece una señal preocupante

    • El newsletter de SemiAnalysis dijo lo mismo, y nunca fue desmentido
    • A veces intento programar con modelos GPT, y por su estilo de conversación conciso parecen buenos durante unos días. Pero al final la calidad queda por debajo de Claude o Gemini y también tienen más patrones de fallo
    • Le pregunté a ChatGPT 5.1 sobre un problema de instalación de codex CLI, y me dijo con toda seguridad que codex estaba discontinuado y que yo había usado mal el comando openai
    • Google también tuvo problemas de retraso en el rastreo web a inicios de los 2000 y sobrevivió. Pero el OpenAI de ahora no está en una posición tan diferenciada como la de Google en ese entonces, así que podría ser una situación mucho más riesgosa
    • Le pregunté dónde jugar Indiana Jones, si en PS5 o en PC, y al principio creyó que era un error tipográfico; luego terminó buscando en internet y elogió mi liga de gaming
  • Parece que la salida de investigadores clave de OpenAI, que viene desde el año pasado, ya está empezando a sentirse de verdad. Sam Altman es un vendedor, no un investigador. Ilya ya no está, y figuras importantes se fueron a Google, Meta y Anthropic o fundaron sus propias empresas. Los que quedan son buenos para mejoras iterativas, pero queda la duda de si podrán liderar por sí mismos el próximo gran salto

  • El OpenAI actual se parece a Netscape. Es innovador, pero no tiene un modelo de ingresos sostenible. Por un lado, empresas como Google empaquetan la IA gratis dentro de productos ya existentes, y por el otro Deepseek y Qwen bajan los precios con open source. Al final está bajo presión por ambos lados

    • Se dice que OpenAI superará este año los 20 mil millones de dólares en ingresos anuales (artículo de CNBC)
    • Si OpenAI fracasa en la comercialización y vuelve a un modelo sin fines de lucro para compartir herramientas gratuitas, estaría siguiendo el camino de Mozilla
    • Dicen que “Google va a empaquetar Gemini gratis”, pero siento que ya lo está haciendo en casi todos sus productos
    • Mi esposa se niega a cambiarse a Claude. Siente que ChatGPT está perfectamente ajustado a sus gustos
    • Para empaquetar Gemini gratis, tendrían que bajar el costo de inferencia de Flash 3.0 mucho más que el de 2.5
  • Hay algo que de verdad me da curiosidad. ¿Cómo puede ser que OpenAI falle en pre-training? Ya tienen experiencia exitosa y el talento es de primer nivel; ¿no bastaría con volver a entrenar un modelo de 2024?

    • Por la misma razón por la que todos fallan. Ajustas hiperparámetros para hardware nuevo, incorporas mejoras vistas en papers, pero tras meses y millones de dólares, la loss se aplana y los resultados son mínimos
    • Si por “exitoso” se entiende un rendimiento claramente mejor que el del modelo anterior, eso es realmente difícil
    • Escuché que GPT-4.5 fue un intento de eso. Simplemente no lo publicaron porque el rendimiento no alcanzó
    • Los modelos nuevos no continúan entrenándose a partir de los anteriores, porque la arquitectura es completamente distinta. Esta vez existe una alta probabilidad de que ese diseño haya salido mal y sea peor que el modelo de mediados de 2024
  • En mi experiencia, un “Code Red” normalmente era una forma de maquillar que toda la empresa había perdido el rumbo. La gerencia media no sabe qué hacer, así que la carga termina cayendo sobre los ingenieros

    • Despedir PMs y mandos medios no evita que ocurra algo así. Es una visión demasiado simplista de la estructura de toma de decisiones en organizaciones grandes
    • Un Code Red de verdad debería unificar las prioridades de la empresa y reasignar ingenieros a los proyectos clave
    • En el único caso que vi, sí despidieron PMs, pero aparecieron problemas inesperados y lo asumieron diciendo “qué bueno que al menos ya sabemos que existe el problema”
    • También existe la ilusión del ingeniero de pensar “todos los problemas son culpa de los demás, y si solo quedara yo, todo se resolvería”
    • Este Code Red también podría ser una excusa para detener funciones de monetización. Sería un movimiento para evitar la brecha con una valuación empresarial más realista
  • El verdadero Code Red no es que Google haya superado a OpenAI, sino que quedó claro que no hay foso defensivo en la industria de la IA. Al final todos están compitiendo en una carrera al fondo más cara del mundo

    • Estas empresas terminarán socializando sus pérdidas mediante contratos gubernamentales o rescates indirectos
    • No está claro si el rendimiento de Gemini 3 realmente se tradujo en una fuga de usuarios de ChatGPT
    • No entiendo por qué los inversionistas se emocionan con una competencia de comoditización con pérdidas estructurales. Yo también era fan en la era de GPT3~4, pero ahora uso Claude y Gemini en paralelo. Mi lealtad es 0
    • Entonces, ¿por qué la acción de Google se disparó tras el lanzamiento de Gemini 2.5 Pro?
    • Yo también pensé que OpenAI tendría alguna tecnología secreta de entrenamiento, pero no había nada así
  • OpenAI asumió compromisos de gasto de largo plazo por 500 mil millones de dólares a través del proyecto Stargate y otros planes. Se prevé que destine 250 mil millones de dólares a Microsoft Azure y varios miles de millones más a GPUs de AMD. Para esto, Oracle obtuvo 18 mil millones de dólares en bonos y 9.6 mil millones en préstamos
    Si OpenAI se queda atrás, no podrá sostener esos contratos y aparecerá un riesgo de quiebras en cadena. Incluso podría haber intervención del gobierno

    • Altman dice que no habrá rescate, pero esa misma afirmación es una estrategia para generar confianza
    • Los 500 mil millones de dólares son un compromiso de gasto, no ingresos. Es una diferencia enorme
    • Ojalá el bloqueo legislativo en el Congreso impida un rescate así
    • La mayoría son LOI no vinculantes, así que no son compromisos tan firmes como parecen
    • Puede que con la arquitectura actual de LLM no se pueda llegar a AGI. Si no desarrollan una estructura alternativa, todos estos contratos podrían volverse inútiles
  • Dicen que OpenAI está posponiendo proyectos como publicidad, compras, agentes de salud y Pulse para enfocarse en mejorar ChatGPT, pero en el fondo el personal clave es reducido y el resto puede encargarse de publicidad o funciones comerciales. No necesariamente chocan entre sí

    • El cuello de botella no es la gente, sino la capacidad del liderazgo para pensar estratégicamente
    • Tal vez el problema no sea la calidad del producto, sino la capacidad de construir ecosistema. Google ya está integrado en herramientas del día a día
    • El avance de los LLM se divide en dos capas: ① arquitectura de bajo nivel ② sistemas de aplicación y verificación. Esta última contribuye a mejorar el modelo central mediante generación automatizada de datos de verificación
    • “Retraso” podría no significar una suspensión total, sino una reasignación de recursos de cómputo
    • Como consumidor, espero que esta competencia termine mejorando la calidad de los modelos
  • Según el WSJ, OpenAI está posponiendo publicidad, IA para salud y compras, y el asistente personal Pulse. Si además se considera su colaboración de hardware con Jony Ive, da la impresión de que su foco está disperso

    • Además de eso, también había anunciado proyectos como una red social o un navegador
    • Si quiere competir con Google, lo más importante es entrar al mercado publicitario. De lo contrario, los presupuestos de publicidad seguirán yéndose a Meta, Amazon y Google
    • Al final lo clave son la publicidad y un asistente tipo Siri/Alexa, así que es raro postergarlos
    • No es solo que haya perdido el enfoque; ahora además se ha convertido en una empresa centrada en resultados de corto plazo. Es difícil vencer a un rival como Google, que lleva 25 años jugando ese juego. Expandirse al hardware por sí solo tiene límites
    • En realidad, esto no trata de competir con Google, sino de que la publicidad es la prueba de supervivencia de OpenAI.
      Si la publicidad genera dinero, OpenAI se convertiría en una empresa del nivel de las Mag 7, pero si fracasa, quedará expuesta la realidad.
      Si los resultados de sus pruebas publicitarias ya están por debajo de lo esperado, entonces este ‘Code Red’ podría ser una señal para ganar tiempo y ocultarlo.
      ChatGPT no es un punto de entrada de búsqueda como Google, ni puede hacer publicidad basada en feed como Meta.
      Al final, es muy probable que repita el fracaso de Alexa.