2 puntos por GN⁺ 1 일 전 | 1 comentarios | Compartir por WhatsApp
  • Los modelos frontier de OpenAI llegan al runtime nativo de agentes de AWS en Amazon Bedrock, combinándose como agentes administrados para empresas en lugar de limitarse a ofrecer el modelo
  • Bedrock Managed Agents agrupa identity, permissions, logging, governance y deployment, para que los clientes puedan operar agentes más rápido en entornos empresariales sin tener que ensamblar ellos mismos cada pieza
  • Hoy, el desempeño de un agente depende en gran medida no solo del modelo en sí, sino del grado de integración con el harness, incluyendo tools, state, memory, permissions y evals; AWS y OpenAI están tratando esa integración como un producto conjunto
  • Los datos del cliente permanecen dentro del AWS VPC, los modelos de OpenAI se ejecutan a través de Bedrock y el soporte se opera principalmente desde AWS
  • Igual que el cloud inicial redujo las barreras para crear startups, esta integración también apunta a bajar la barrera de adopción de IA y deja ver la intención de posicionarse como una nueva capa de plataforma junto con la creciente demanda frontier

AWS, las startups y la velocidad de adopción de la IA

  • El modelo inicial de cloud de AWS permitió usar infraestructura que antes solo podían tener grandes empresas con apenas unos dólares y una tarjeta de crédito, ampliando enormemente el alcance creativo de internet al no definir de antemano lo que los desarrolladores debían construir
  • Se considera que el impacto de la adopción de IA es similar o incluso mayor
    • Se debilita la estructura donde había que aprender a programar durante 10 años para poder crear una aplicación
    • Equipos pequeños pueden crear e iterar rápidamente sin necesitar equipos de cientos de personas ni largos periodos de desarrollo
    • Funciona como una herramienta que abre nuevas innovaciones en distintas áreas del mundo
  • A diferencia del arranque del cloud, la velocidad de adopción de la IA está siendo muy alta
    • En 2006 había que explicar largamente por qué una “empresa de librería” ofrecía cómputo, pero la IA la gente la entiende mucho más rápido
    • El paso de un simple chatbot inteligente a ejecutar trabajo dentro de la empresa sí requirió educación, pero aun así ha avanzado relativamente rápido en términos del ritmo de cambio tecnológico
  • La transición de plataformas para startups se resume en cuatro etapas: Internet, cloud, mobile, AI
    • En los primeros años de YC, el cloud como AWS permitió empezar empresas con poco capital
    • Se redujo mucho la barrera de tener que rentar espacio de colo, ensamblar servidores y juntar mucho dinero por adelantado
    • Se rompió la idea de que solo el costo de servidores implicaba decenas de miles de dólares, haciendo posible una estructura de emprendimiento con poco capital
  • A las startups les resulta más fácil vencer a grandes empresas durante grandes transiciones de plataforma cuando pueden moverse con ciclos más cortos y menos capital
    • Sobre la IA actual, la dirección parece similar
    • Dentro de YC, la velocidad de crecimiento de ingresos se mueve mucho más rápido que antes, hasta el punto de que las expectativas de ingresos de una buena empresa cambian entre el inicio y el final de una misma batch
  • AWS sigue presentándose como el cloud que usan muchas startups en fase de expansión
    • Scale, availability, security, reliability, junto con el ecosistema de socios ISV dentro de AWS y la base de clientes dentro de AWS, forman parte de su fortaleza
    • No solo ofrece créditos, sino también consejos de diseño de sistemas y de go-to-market, y sigue tratando a las startups como una base central para AWS
    • Cada trimestre se reúne directamente con startups para verificar si el producto realmente encaja
  • Hoy, entre las startups es muy común el patrón de usar AWS para cómputo general y la API de OpenAI para IA

Bedrock Managed Agents y la dirección del producto conjunto

  • Bedrock Managed Agents no se presenta solo como la llegada de modelos de OpenAI a AWS, sino como la incorporación de los modelos frontier de OpenAI dentro del runtime nativo de agentes de AWS
    • Se agrupan elementos operativos como identity, permission state, logging, governance y deployment
  • La siguiente etapa de la IA está pasando de ingresar texto y recibir texto a agentes con estado que hacen trabajo real dentro de una empresa
    • La expresión “virtual co-workers” no se considera perfecta, pero se trata como la menos incómoda
    • La industria entera aún no ha definido por completo cómo llamar a esto ni cómo usarlo
  • Codex se presenta como un ejemplo claro de esta tendencia
    • Lo importante es que ocurra realmente el trabajo deseado, y el usuario deja de distinguir cuánto aportó el modelo y cuánto el harness
  • El grado de acoplamiento entre modelo y harness se trata como la clave del desempeño de los agentes
    • tools, state, memory, permissions y evals determinan el funcionamiento real
    • No es exactamente lo mismo que pre-training, pero el acoplamiento ocurre tanto a nivel de post-training como de prompt
    • Incluso el tool-calling, que al inicio parecía separado, con el tiempo se ha integrado más profundamente en el proceso de aprendizaje
    • Hacia adelante, se plantea que model y harness, así como pre-training y post-training, podrían acoplarse aún más
  • El nivel de madurez de la industria se describe como todavía tan temprano que se compara con la era del Homebrew Computer Club
  • El trabajo conjunto entre AWS y OpenAI se enfoca en agrupar piezas que antes el cliente debía ensamblar por su cuenta, para que pueda llegar más rápido al valor en entornos empresariales
    • Los clientes quieren que el modelo y el agente mantengan memoria y funcionen bien juntos
    • Quieren conectar no solo herramientas de terceros, sino también sus propias herramientas, datos, aplicaciones y entorno operativo
    • Hasta ahora, ese trabajo de integración recaía en cada cliente
    • En el producto conjunto, identity viene integrada y la autenticación a bases de datos está diseñada para ocurrir dentro del AWS VPC
  • El objetivo no es solo mejorar la conveniencia, sino permitir incluso cosas que no se lograban implementar de forma confiable aunque se armaran dolorosamente con el enfoque anterior
  • El estado actual se describe como uno donde los desarrolladores sufren demasiado dolor y demasiado trabajo manual al construir algo con modelos
    • Incluso al usar ChatGPT abundan el copiar y pegar y las combinaciones complejas de prompts
    • Esa fricción va a desaparecer; por ahora, sigue siendo una etapa muy temprana e incómoda
  • Esta colaboración también responde a la combinación entre clientes que ya están en AWS y quieren tecnología de OpenAI, y el interés de OpenAI por ampliar su accesibilidad para clientes de AWS
  • Se enfatiza más la idea de crear un producto nuevo juntos que la simple distribución de modelos
    • La expectativa es que, al mirar atrás en un año, pese más la importancia de este nuevo producto que el hecho de que “se podía acceder a modelos de OpenAI desde AWS”
    • A nivel de modelo, harness y capability, esto se acerca más a una nueva forma de cómputo que a la llamada tradicional a una API de modelos

AgentCore, Managed Agents y el modelo operativo

  • AgentCore se presenta como un conjunto de primitivas para agentes como memoria, entorno de ejecución seguro y autorización
  • Bedrock Managed Agents se sitúa como un producto de nivel superior construido conjuntamente por AWS y OpenAI sobre componentes de AgentCore, combinando modelos de OpenAI y varios elementos operativos
  • Solo con AgentCore también se pueden crear directamente agentic workflows
    • Ya hay clientes que los ejecutan en production y les dan uso real
  • Incluso hoy es posible usar AgentCore y llamar modelos de OpenAI externamente
    • No de forma integrada nativamente dentro de Bedrock, pero hay clientes que llaman directamente modelos de OpenAI alojados en otros clouds
  • AWS trata esto como un ecosistema abierto
    • La forma de combinar capacidades y construir por cuenta propia podrá seguir existiendo
    • Se considera que siempre habrá builders que quieran crear sus propios agentes, como quien arma su propia computadora en casa
  • Muchos clientes quieren una forma más simple en la que no sea necesario configurar todas las piezas por separado, y este lanzamiento apunta a esa demanda
  • El uso de OpenAI en Azure se resume como una experiencia de acceso directo por API, mientras que este anuncio en Amazon se plantea como un managed service distinto
  • Este servicio de managed agents se está llevando actualmente de forma exclusiva con Amazon
    • No se trata solo de usar una API de Amazon, sino de un joint effort entre ambas compañías
  • Los datos del cliente permanecen dentro de AWS
    • Todo permanece dentro del VPC y protegido dentro del entorno de Bedrock
  • Los modelos de OpenAI se ejecutan a través de Bedrock, y la infraestructura usa una mezcla de Trainium y GPU
    • En parte responde a cuestiones de timing y en parte a capabilities
    • Se plantea que con el tiempo una mayor proporción se moverá hacia Trainium
    • OpenAI también muestra gran expectativa por ver sus modelos ejecutarse sobre Trainium
  • Cuando se operan modelos de OpenAI dentro de un entorno de AWS, el primer punto de soporte lo asume AWS
    • El cliente recibirá ayuda a través de AWS support y de su responsable de cuenta en AWS
    • Durante la implementación también participa personal de OpenAI para coordinar conjuntamente la forma de uso
    • Si aparece un bug que requiere ayuda de OpenAI, AWS lo escala hacia OpenAI

Local, cloud, permisos y fronteras de seguridad

  • Se plantea que Codex comenzó en cloud, pero en la práctica regresó a una ejecución local
  • Lo local es más fácil porque el entorno ya está ahí
    • La configuración de la computadora, los datos y el acceso a archivos ya existen, así que requiere menos configuración adicional
    • Aunque no sea el estado final, en el corto plazo pesa más la facilidad de uso
  • A largo plazo, se plantea como útil que los agentes se ejecuten en cloud, y que en tareas muy pesadas o cuando haya que cerrar la computadora, el trabajo se pase al cloud
  • El cliente local sigue teniendo ventajas
    • Igual que una app de iPhone tiene componentes locales, ofrece ventajas en connectivity, latency, local compute y acceso a archivos y aplicaciones
    • Pero no se puede escalar horizontalmente una laptop, así que la limitación de escalabilidad es clara
  • En entornos empresariales, el enfoque local se vuelve más difícil
    • La dificultad aumenta incluso cuando algo debe compartirse solo entre dos personas
    • Manejar permissions y security boundaries se vuelve más complejo
    • Al final se necesita un puente entre lo local y el cloud
  • Resulta natural desarrollar agentes en el mismo entorno en el que se desplegarán, y el diseño de identity y permission sigue siendo un área muy incompleta
    • Queda abierta la pregunta de si el agente debe usar tal cual la cuenta de una persona
    • O si el agente debe tener una cuenta separada
    • O cómo distinguir varios agentes distintos
  • Ni siquiera existe todavía una primitive como “el agente de Ben inicia sesión como Ben, pero dejando constancia de que no es Ben real sino un agente”
  • A medida que los agentes se incorporen a la fuerza laboral y aumenten su autonomía y complejidad de trabajo, también tendrá que evolucionar el modelo de control de acceso y permisos dentro de las empresas y en internet en general
  • Cuanto más se mueva al cloud, más podrá una organización central ejercer controles de seguridad más fuertes
    • A los clientes les gustan las posibilidades de modelos y agentes potentes, pero lo que más temen es un incidente que destruya la empresa por error
    • Se pueden controlar límites haciendo que opere dentro del VPC, pasando por cierto gateway o concediendo permisos como roles dentro del entorno
    • Esto se conecta con el hecho de que la estructura de seguridad que AWS ha construido durante 20 años permitió su uso no solo por startups, sino también por bancos globales, instituciones de salud y organismos gubernamentales
    • Cuanto más aversa al riesgo es una organización, más puede ampliar la adopción el hecho de tener guardrails dentro de un sandbox

El stack de IA y la arquitectura empresarial

  • Los clientes empresariales quieren una capa de administración que conecte datos y agentes, y que ofrezca seguimiento del gasto de tokens y supervisión
  • Los grandes clientes piden de forma consistente una combinación de agent runtime environment, capa de administración y workspace para empleados
    • Como ejemplo de workspace para empleados se menciona una forma como Codex
    • Esa demanda por paquetes es bastante consistente, aunque todavía falta construir más la oferta real
  • Hay acuerdo en que dentro de las organizaciones se necesita un middleware / middle layer que cruce varias bases de datos, apps SaaS y datos distribuidos
  • En la estructura actual, parecen necesarios tanto una user agent layer para la interacción del usuario como una capa de administración empresarial
    • Del lado del usuario, se usa una forma donde interactúa con varios agentes y cada uno de ellos puede conversar entre sí
    • En la capa de administración empresarial, son importantes distintos controls cuando la IA explora el sistema de archivos y otros recursos
  • Sin embargo, si los modelos se vuelven suficientemente inteligentes, sigue abierta la posibilidad de rediseñar toda esta estructura
    • La estructura actual de doble capa responde al mundo de hoy
    • Aún no se sabe exactamente cómo será la arquitectura futura
    • En algún momento podría llegarse a la conclusión de que “esto simplemente debe estar dentro del modelo”
    • A través del uso y la construcción reales por parte de los clientes se irá aprendiendo qué hace falta volver más fácil, más rápido y mejor

Demanda, capacidad y estratificación de modelos

  • OpenAI está invirtiendo en este negocio mucha compra de cómputo y un esfuerzo considerable, y espera ingresos acordes
  • La demanda de inteligencia se trata como algo cercano a una demanda prácticamente ilimitada si el precio baja lo suficiente
  • Hoy, más que el precio, la mayor restricción parece ser la falta de capacidad
    • Hay más clientes que quieren más capacity y están dispuestos a pagar más, independientemente del precio, que clientes peleando por el precio
    • Se expresa la convicción de que el costo de la inteligencia al nivel actual seguirá cayendo dramáticamente
  • Se trata como una señal sorprendente que una parte considerable de la demanda total del mercado esté concentrada en el absolute frontier
    • Resulta más fuerte de lo esperado la tendencia a seguir queriendo los modelos de última generación, por encima de la idea de que la generación previa bastaría
  • Igual que el costo del cómputo ha bajado mucho durante décadas y aun así las ventas siguieron creciendo, se plantea que la IA podría seguir una ruta similar de expansión de demanda
  • Ahora mismo, para hacer trabajo útil, en muchos casos todavía se necesitan modelos frontier, por eso todos los quieren
  • Con el tiempo, se espera una estructura mixta donde coexistan modelos pequeños, baratos y rápidos con modelos gigantes
    • Algunos modelos pequeños podrían, con el tiempo, llegar a resolver tareas que ni siquiera el modelo más reciente de OpenAI puede hacer hoy
    • Los modelos gigantes podrían orientarse a problemas mayores como el tratamiento del cáncer
  • Aún estamos en una etapa temprana, y el hecho de que aparezcan juntos este nivel de demanda y este ritmo de crecimiento amplía mucho las posibilidades futuras

Trainium, abstracción y cómputo interno

  • Ante la pregunta de si Trainium, pese a su nombre, podría tener más presencia futura en inference, AWS responde que sirve tanto para training como para inference
  • Se enfatiza que los clientes accederán a Trainium no tanto de forma directa como a través de la abstracción de un managed service
    • Igual que la mayoría de los clientes no tratan directamente con GPU, al usar OpenAI o Claude en realidad interactúan con una interface, no con GPU, Trainium o TPU
  • También hacia adelante, es probable que los accelerator chips operen detrás de un pequeño número de grandes modelos y servicios
    • Podrán ser 5, 10, 20 o 100, pero no se espera que las personas que los programan directamente crezcan a millones
    • El entrenamiento de modelos cuesta mucho dinero y exige mucha especialización operativa
    • El equipo de OpenAI tiene una gran capacidad para extraer valor de grandes clústeres de cómputo, pero no hay muchos equipos así
  • OpenAI comentó que al principio piensa en sí misma como una token factory, pero se corrigió enseguida para decir que se parece más a una intelligence factory
    • Lo que quieren los clientes no es una cantidad de tokens, sino recibir la mejor unidad de inteligencia al menor costo y con suficiente capacidad
  • GPT-5.5 se menciona como un ejemplo donde el costo por token es mayor que en 5.4, pero la cantidad de tokens necesaria para llegar a la misma respuesta es mucho menor
    • Al usuario le importa más si la tarea deseada se completó que cuántos tokens costó la respuesta
  • Ya sea que un modelo más grande funcione con menos tokens, o uno más pequeño con más tokens, o que use GPU o Trainium, el cliente quiere más utilidad por menor costo más que detalles de implementación interna
  • Al crear un agente nuevo dentro de Codex o del Stateful Runtime Environment para Amazon Bedrock, el usuario no debería tener que ser consciente de la elección del cómputo interno
  • La reducción del uso de tokens se atribuye sobre todo a mejoras del modelo, y solo en parte al efecto del harness
  • Sobre si AWS expandirá managed services similares a otros modelos, la respuesta es que por ahora está enfocada en la colaboración con OpenAI

Evolución del mercado y estrategia de plataforma

  • ChatGPT se evalúa como el primer gran producto nuevo de consumo masivo desde Facebook
  • OpenAI afirma haber tenido resultados bastante buenos no solo con ChatGPT, sino también con la API y especialmente con Codex
    • También aparece la reflexión de que antes se estaba más enfocado en la posibilidad de que una nueva interfaz de lenguaje cambiara la forma de buscar información en internet
    • Google sigue siendo evaluada como una phenomenal company en términos de breadth y depth
  • AWS resume que desde el principio eligió una estrategia centrada en partners, buscando una estructura donde si los partners tienen éxito, AWS también lo tiene
    • Es distinto de un enfoque donde todo debe ser propiedad propia; se parece más a hacer crecer el pastel
    • La postura es que el cliente debe poder elegir lo que más le conviene, ya sea un producto propio o de un partner
  • Bedrock también fue diseñado bajo esa estrategia para soportar una amplia variedad de modelos y capacidades
    • Se resume que AWS ha mantenido un enfoque parecido en otras áreas como bases de datos y plataformas de cómputo
  • AWS considera que en la capa de infraestructura impulsa con fuerza componentes propios como S3, pero que a medida que se sube en el stack conviene más al cliente aceptar un ecosistema más amplio de partners
  • El papel de ambas empresas se resume como OpenAI hace el Software, AWS hace la Infrastructure, y juntos construyen la Platform
  • Dado que se espera un rápido avance en las capacidades de los modelos durante el próximo año, se presenta este momento de construir la plataforma juntos como un buen timing

1 comentarios

 
GN⁺ 1 일 전
Opiniones de Hacker News
  • En las organizaciones sensibles a la privacidad donde trabajo, Claude ha sido mucho mejor recibido.
    Porque se podía acceder a través de Amazon como intermediario de “confianza”. OpenAI está prohibido y no genera confianza.
    No necesariamente estoy de acuerdo con la evaluación de los equipos legales de estas organizaciones, pero supongo que han leído los términos de servicio con mucho más cuidado que yo.
    Habrá que ver si este anuncio cambia el panorama, pero por ahora da la impresión de que OpenAI va bastante rezagado en varios frentes.
    Aun así, en la industria de la IA una diferencia de 2 a 8 semanas no siempre es una brecha enorme, así que podría ser más un problema de percepción que de impacto real.
    Al menos en mi burbuja informativa, Sam Altman ha hundido la reputación de OpenAI; se ve poco ético y bastante inestable, especialmente por cosas como sus exigencias relacionadas con fabs, así que no me agrada mucho.
    • Los principales proveedores de LLM pueden firmar contratos de ZDR en cualquier lado.
      No basta con usar AWS, y aunque AWS ejecute el modelo, si quieres un ZDR de verdad tienes que negociarlo aparte con ellos [0].
      [0]: https://platform.claude.com/docs/en/build-with-claude/claude...
    • Anthropic sí tiene los mejores modelos y un liderazgo más estable, pero creo que quien realmente amplió mucho su accesibilidad empresarial fue AWS.
      Ambos salieron claramente beneficiados, y la cultura de ciclos de retroalimentación de los clientes de AWS probablemente ayudó a que Anthropic desarrollara antes una mejor respuesta para empresas.
    • Me pregunto si esto realmente es mejor que OpenAI en Azure en términos de condiciones legales, SLA y preocupaciones sobre datos.
      Azure ya lleva tiempo ofreciendo eso.
    • OpenAI no está concentrado en vender solo un LLM; también hace generación de video e imágenes.
      En cambio, Anthropic está enfocado en una sola cosa, y por eso parece estar siempre en los primeros lugares de los benchmarks de SWE.
    • La clave aquí no es solo que AWS sea un “intermediario de confianza”, sino que el modelo se ejecuta dentro de la propia cuenta de AWS del cliente bajo un contrato distinto.
      AWS especifica que las entradas y salidas no se comparten con el proveedor del modelo ni se usan para entrenar el modelo base [1].
      Además, OpenAI recibió en mayo de 2025 una orden de preservación en el caso NYT v. OpenAI, y el tribunal lo está obligando a conservar en la práctica indefinidamente los registros de salida de ChatGPT.
      Eso incluye conversaciones eliminadas por usuarios que originalmente se habrían borrado en un plazo de 30 días [2].
      Así que, para organizaciones sujetas a HIPAA/GDPR, ni siquiera cumple con las condiciones mínimas para arrancar.
      [1] https://aws.amazon.com/bedrock/faqs/
      [2] https://openai.com/index/response-to-nyt-data-demands/
  • Trabajo en big tech y, desde mi experiencia de tener reuniones interminables solo para coordinar el despliegue de una función pequeña entre dos equipos, ni me imagino la cantidad de reuniones y de 6-pagers que habrán hecho falta para subir estos modelos al hardware de Bedrock.
    • En este nivel, muchas veces simplemente se toma la decisión, se arma un equipo SWAT y se empuja todo en unas cuantas semanas.
      La política interna y las revisiones burocráticas suelen servir más para mantener ocupadas a las personas de niveles más bajos con restos de funcionalidades y trabajo operativo.
    • Dependerá de cómo lo hayan implementado, pero Amazon ya metió gpt-oss-20b.
      Si el modelo se parece lo suficiente a una variante OSS de GPT, quizá no haya sido tan complicado como parece.
  • El mismo modelo ejecutado en distintas plataformas de inferencia no necesariamente da exactamente los mismos resultados.
    Por cuantización, silicio personalizado para serving, batching y otras optimizaciones de inferencia, el comportamiento de la versión hospedada puede diferir de la versión del proveedor original.
    Este paper no trata exactamente el mismo caso, sino una Llama de pesos abiertos auditable, pero muestra muy bien síntomas parecidos.
    https://arxiv.org/pdf/2410.20247
    • Quien haya usado gpt-x tanto a través de OpenAI como de Microsoft seguramente habrá notado esta diferencia con mucha claridad.
  • En nuestra organización, que Bedrock lo ofreciera fue un factor clave para impulsar el uso de Anthropic.
    Además, parece que ahí sí pueden dejar un margen bastante bueno.
    También me pregunto si esto está conectado directamente con el distanciamiento respecto de Microsoft.
    Solo por lo que veo a mi alrededor, OpenAI está siendo casi ignorado en despliegues empresariales serios, porque lo que ofrece Azure no convence y fuera de eso no hay una ruta especialmente amigable para empresas.
    Parece que OpenAI se dio cuenta de que seguir cediendo el mercado empresarial a la combinación Anthropic + AWS sería fatal, y se movió para ponerse al día.
  • Lo interesante aquí es la ruta de ventas empresariales.
    Las industrias reguladas, como finanzas y salud, muchas veces ya tienen contratos con AWS que incluyen compromisos de residencia de datos.
    OpenAI sobre Bedrock puede permitir que estas organizaciones usen OpenAI sin tener que negociar por separado un DPA con OpenAI, así que podría ser un avance mucho mayor de lo que parece en papel.
  • Esto es un cambio bastante bienvenido desde el punto de vista de compliance.
    Hay un subprocesador menos, y como los datos ya están dentro de AWS, hay menos preocupación por enviarlos a otro lado.
  • Da la impresión de que OpenAI está pisándole los talones a Anthropic.
  • Ahora ya se puede comprar OpenAI a través de AWS, pero eso también significa que otra vez tengo que usar una interfaz que no es totalmente compatible con mis herramientas.
    A menos que AWS por fin se haya rendido y esté intentando hacer Bedrock un poco más usable agregando compatibilidad con la API de OpenAI.
  • Salió más rápido de lo que esperaba.
    • El trabajo real seguramente tomó mucho tiempo, pero el flujo de PR que ve el público parece una máquina muy bien aceitada.
      Incluso en esta publicación de HN aparecieron al mismo tiempo cuatro enlaces al anuncio, y eso no fue casualidad.
      Si se dice algo equivocado en el momento equivocado, pueden tambalear miles de millones de dólares en inversión, así que el mensaje no puede más que pulirse con extremo cuidado y soltarse por etapas.
  • Parece que OpenAI al final va en dirección de convertirse en un dumb pipe.