1 puntos por GN⁺ 2025-06-11 | 1 comentarios | Compartir por WhatsApp
  • OpenAI redujo en 80% el precio del modelo o3
  • Con esta reducción, la carga de costos para usar o3 disminuye considerablemente en el mundo de las startups y la industria de TI
  • Ofrece a los desarrolladores de servicios de IA una opción más económica
  • Se espera una mayor competencia de mercado y un entorno que impulse una adopción más rápida de la IA
  • A medida que aumente el uso del modelo, se prevé una aceleración en la expansión del ecosistema

Noticia sobre la reducción del 80% en el precio de OpenAI o3

  • OpenAI anunció una política para bajar en 80% el precio del modelo o3 respecto al nivel anterior
  • Como resultado, startups, pequeñas y medianas empresas, y desarrolladores individuales podrán usar la API del modelo o3 a un costo mucho menor
  • Al reducirse la barrera de entrada para aprovechar la IA, aumentan las posibilidades de desarrollar diversas aplicaciones de IA y servicios
  • Esta política de precios impulsa la competencia dentro del mercado de IA y ayuda a crear un entorno favorable para una difusión tecnológica más rápida
  • Hacia adelante, se confirma la posibilidad de que el ahorro de costos impulse innovaciones adicionales en la optimización de algoritmos de deep learning y en el desarrollo de servicios de IA a gran escala

1 comentarios

 
GN⁺ 2025-06-11
Comentarios de Hacker News
  • Quiero compartir una advertencia basada en mi experiencia. Ya tenía crédito en OpenRouter e intenté activar o3, pero apareció un mensaje diciendo que "OpenAI requiere que proporciones una clave API directa para usar la API de o3". Entonces compré 20 dólares en crédito API en mi cuenta de OpenAI, inicié Aider con una nueva clave API y el modelo o3, y al enviar una solicitud apareció el error: "Tu organización debe estar verificada para usar o3; para verificarla haz clic en Verify Organization en el enlace". Cada vez me frustraba más, así que volví a OpenAI e hice clic en Verify Organization, solo para descubrir que en realidad tenía que verificar mi identidad con un tercero llamado Persona. Al hacer clic en "Start ID Check", apareció un aviso indicando que Persona recopila y usa información personal y biométrica, y que esos datos se conservan durante 1 año. Solo quería gastar unos pocos dólares para acceder a la API, y de repente me estaban pidiendo entregar mis datos biométricos a la empresa de IA más grande del mundo y a su socio. Ni siquiera sé cómo pedir un reembolso
    • A mí también me pasó antes con otra empresa de IA que no me quiso reembolsar, y terminé contactando a la fiscalía general del estado de California para resolverlo. Creo que debemos corregir este tipo de prácticas donde te imponen requisitos adicionales después del pago. Y ya que reciben nombre, dirección y datos de la tarjeta como información personal, me pregunto por qué también exigen número telefónico. Quisiera saber si alguien sabe por qué se lo piden a todo el mundo
    • Me hace pensar si Sam Altman no estará operando en la práctica una empresa de criptomonedas que recopila biometría para verificación de identidad (Worldcoin). Se siente familiar. Información sobre Worldcoin
    • Siento déjà vu porque juraría haber visto una historia casi idéntica en el último mes, o tal vez hay algo más detrás
    • La verdad, creo que tienes suerte de al menos poder intentar la verificación de identidad. Yo solo recibo el error de "sesión expirada" desde hace meses y soporte ni siquiera responde
    • La exigencia de KYC (verificación de identidad del cliente) está apareciendo al mismo tiempo que el hecho de que OpenAI guarda todos los logs
  • Últimamente siento que OpenAI se ha vuelto "flojo". Le hago preguntas y no me entrega el archivo completo ni los cambios directamente; solo me dice "hazlo así", y tengo que pedirle 2 o 3 veces más que realmente lo haga. En deepseek no veo ese comportamiento. Me pregunto si responde así para ahorrar recursos
    • Trabajo en OpenAI. Nuestros modelos a veces pueden ser flojos. No es intencional, y vamos a ofrecer modelos mejores en el futuro. Cuando trabajaba en Netflix, también existían sospechas parecidas sobre si dábamos recomendaciones de baja calidad a propósito, pero en realidad es porque mejorar un producto no es tan fácil. Al final, hacer un producto perfecto es realmente difícil
    • Hace poco, con un cálculo de química, le pedí "haz una gráfica de X contra Y" y la respuesta fue una explicación larguísima que terminó con "¡si necesitas la gráfica, dime!". Me pareció hasta gracioso
  • Me pregunto cómo podemos saber si el modelo o3 no es una versión quantized de menor precisión. Las empresas podrían publicar buenos resultados de benchmark y luego ir quantizing poco a poco (de Q8 a Q6, Q4, etc.) para degradar el rendimiento. Sospecho que algo así pudo haber pasado con el lanzamiento rápido de gpt-4-turbo. Al usarlo en la práctica, se sentía peor que el GPT-4 original, y quizá turbo y 4o fueron optimizados sobre todo para benchmarks. Los usuarios perciben que son mejores cuando en realidad se sienten peores
    • Probablemente así es como realmente operan estas empresas, y creo que al o3 original lo rebautizaron como o3-pro
    • Siempre parece que los modelos nuevos salen muy bien al principio y luego los resultados empeoran poco a poco. Antes pensaba que degradaban el rendimiento al intentar eliminar malas salidas con fine-tuning, pero ahora sospecho más que podría ser por quantizing
    • Trabajo en OpenAI, y el modelo es el mismo; no se ha hecho quantizing ni ningún truco. Nunca cambiamos modelos en la API para desarrolladores sin avisar. En ChatGPT las actualizaciones son algo menos claras porque mostrar números de versión todo el tiempo a los usuarios es incómodo, pero aun así no se hacen cambios totalmente silenciosos. Publicamos todas las actualizaciones de modelos en ChatGPT Release Notes. La única excepción es el puntero chatgpt-4o-latest, que sí cambia sin aviso previo
    • En el correo oficial del anuncio explicaron que "OpenAI redujo en 80% el precio de o3, bajándolo a 2 dólares por 1 millón de tokens de entrada y 8 dólares por 1 millón de tokens de salida, y que el modelo es el mismo pero más barato porque solo se optimizó el stack de inferencia"
    • Justo después del anuncio vi que o3 daba velocidades de más de 700 tokens por segundo, así que me hace dudar de que realmente no sea una versión quantized enlace relacionado
  • Me pregunto si para los usuarios de ChatGPT Plus también aumentó la cuota semanal de mensajes de o3. En mi experiencia, o4-mini y o4-mini-high están muy por detrás de o3 en utilidad, pero como o3 tiene rate limit, termino usando sobre todo la serie o4-mini. Esa estructura en sí refuerza más la impresión de que los modelos de "razonamiento" de OpenAI están por detrás de la competencia
    • Yo también he sufrido limits bastante severos con o3, y aunque o4-mini-high me parece bastante bueno, definitivamente me gustaría usar mucho más o3. Ojalá este anuncio también haya aumentado la cuota
  • Google también se está poniendo al día rápidamente en IA. Hace apenas unos meses DeepSeek era la gran sensación, pero este campo de verdad está evolucionando muy rápido
    • En la percepción de mucha gente, los modelos Gemini de Google ya son SOTA (State Of The Art, máximo rendimiento), y para tareas de programación Claude también lo hace bastante bien
    • En los últimos meses solo he usado modelos de Google, porque ahora ChatGPT me parece demasiado amable y débil. No solo al inicio o al final, también en medio de las respuestas mete demasiado relleno y poca información útil. Y si le pides cambiar el estilo, tiende a abusar de jerga técnica
    • Lo que entusiasmó a la gente de Deepseek era que se podía descargar el modelo directamente. Pero desde Gemini 2.5, parece que no ha logrado salir mucho del tercer lugar
  • No entiendo por qué OpenAI exige verificación de "organización" (con identificación emitida por el gobierno estatal) para usar o3
    • Mi consejo sería que ni siquiera lo intentes. Mucha gente ha fallado en el proceso de verificación y hay muchos comentarios de que no te dan una segunda oportunidad caso 1 caso 2 caso 3 caso 4 caso 5 caso 6 caso 7
    • También me pregunto si el objetivo no será evitar que Deepseek R2 se entrene con modelos de OpenAI
  • A diferencia de quienes dicen que los LLM no tienen una ventaja competitiva sólida y que solo están quemando caja, creo que la situación de OpenAI es muy alentadora. Anunció ingresos anualizados de 10 mil millones de dólares, y en la ronda de financiamiento de marzo su valoración llegó a 300 mil millones de dólares. Perdió 5 mil millones, pero está registrando un crecimiento de ingresos de 30 veces y más de 500 millones de usuarios activos. Este ritmo de crecimiento me recuerda al Uber inicial, con crecimiento veloz, inversión masiva y avance hacia la rentabilidad
    • El problema es que cuando suben los ingresos, los costos también suben. Normalmente al escalar baja el costo unitario, pero en OpenAI los costos de cómputo aumentan a medida que aumenta el uso. Salvo que aparezcan más fuentes de ingresos complementarias, las economías de escala son débiles. Netflix es un caso parecido. Me cuesta ver una rentabilidad sostenida
    • Por percepción, como OpenAI tuvo ventaja de ser el primero, yo sigo pagando la suscripción mensual y no tengo muchas ganas de ir saltando entre varias opciones. Más adelante, cuando el mercado se estabilice y la competencia de precios se intensifique, sí estaría dispuesto a cambiarme. Al final, la persistencia de esa ventaja inicial depende de si la principal fuente de ingresos son los usuarios de la app o los planes de API. Más allá de la confianza y el nombre de marca, la gente a mi alrededor parece escoger distintas alternativas según convenga
    • Al final, los precios de los LLM seguirán bajando para siempre y solo sobrevivirán los modelos gratuitos, así que la ventaja competitiva de OpenAI es frágil. También creo que los "modelos que piensan" no resuelven problemas complejos por sí solos y que han sido sobrevalorados
    • No estoy de acuerdo con la idea de que "no hay moat". Los datos de interacción de los usuarios, como los datos de chat, ya son valiosos por sí mismos
    • Si solo vemos el crecimiento de OpenAI, sí, es alentador. Pero si consideramos también el impacto social de empresas de IA como ChatGPT, no me parece tan positivo. Por ejemplo, las tiendas en línea se están llenando de contenido generado por IA sin sentido, lo que empeora la experiencia de compra. También se observan conductas extrañas en ciertos grupos demasiado obsesionados con ChatGPT, desde alejarse de amigos y familiares reales hasta incluso divorcios. En la educación también hay mucho caos por el abuso. Como con el crecimiento de Uber, no creo que el éxito de OpenAI necesariamente traiga solo efectos positivos para la sociedad
  • El modelo o3 es actualmente uno de los mejores, y además su precio es igual o incluso más bajo que Claude y Gemini. Da la impresión de que no les deja respirar a los competidores
    • Gemini también está en un nivel parecido, a veces incluso mejor, así que esa opción también me parece razonable. o3-pro quizá esté un escalón por encima de todos ellos
  • Si antes hacían falta décadas para que la calidad de Google Search se volviera pésima, ahora vivimos en una época sorprendente donde la calidad de los modelos de IA puede arruinarse en cuestión de días
  • Tal vez el lanzamiento de o3-pro también esté relacionado con esto