1 puntos por GN⁺ 2025-07-13 | 2 comentarios | Compartir por WhatsApp
  • OpenAI anunció que originalmente planeaba lanzar su modelo de pesos abiertos la próxima semana, pero que retrasará el lanzamiento para realizar pruebas adicionales de seguridad y una revisión de áreas de alto riesgo
  • Sam Altman señaló que "todavía no puede estar seguro de exactamente cuánto tiempo tomará"
  • Explicó que se necesita un enfoque cuidadoso porque, una vez que los pesos (Weights) del modelo se hagan públicos, no podrán retirarse
  • OpenAI enfatizó que confía en que la comunidad creará diversas innovaciones con este modelo, pero que, como es la primera vez para OpenAI con este enfoque, quiere seguir correctamente el proceso
  • Por último, reiteró su cautela junto con una disculpa sincera, diciendo: "Lamento que no sean buenas noticias. Estamos trabajando realmente muy duro"

2 comentarios

 
ng0301 2025-07-13

¿Otra vez nos van a engañar~?

 
GN⁺ 2025-07-13
Comentarios en Hacker News
  • Compartieron este enlace: https://nitter.space/sama/status/1943837550369812814

  • No sé si sea coincidencia que el lanzamiento del modelo de pesos abiertos de OpenAI se haya retrasado de repente justo después de que apareciera un modelo de pesos abiertos tan sobresaliente como Kimi K2, anunciado hoy
    Enlace de presentación de Kimi K2
    Cuando OpenAI lo lance, tendrá que subir el nivel de toda la industria
    No creo que un modelo de pesos públicos de calidad intermedia vaya a funcionar

    • Creo que ahora mismo OpenAI está concentrando todos sus recursos en superar a Grok 4
      xAI lleva bastante ventaja en acumulación de poder de cómputo y ha abierto una brecha grande en pruebas de inteligencia como ARC, HLE y otras
      Lo que OpenAI busca no es competir en open source, sino ganar la competencia
    • Pero me pregunto por qué casi no hay discusión sobre K2 en Hacker News
      Me parece una noticia bastante grande
    • Sobre todo porque hace poco OpenAI adelantó que iba a lanzar el mejor modelo open source
    • Siento que desde GPT-4 todos los modelos de OpenAI han quedado muy por detrás de la dirección del mercado
  • Creo que eso de las "pruebas de seguridad" para LLM es puro lenguaje de marketing
    Los autos, los aviones y los elevadores sí pasan pruebas de seguridad reales, pero los LLM son otra cosa
    Aunque el resultado que produzca un LLM no le guste a su creador, nadie se muere por eso
    Cuando hablan de "pruebas de seguridad", al final solo están revisando hasta qué punto el LLM dice cosas que a ellos no les gustan

    • Un LLM puede indicarle fácilmente a alguien que tome medicamentos con interacciones peligrosas
      También puede empujar una crisis de salud mental hacia el suicidio, o incluso construir de forma persuasiva el argumento de que cierta raza o grupo es la causa del problema y debe ser eliminado
      Las palabras no matan directamente a una persona, pero sin duda pueden llevar a la muerte
      Además de estas posibilidades, también existen riesgos relacionados con el uso de herramientas
    • En este contexto, "seguridad" muchas veces termina significando evitar comentarios que puedan incomodar a alguien o convertirse en un problema de relaciones públicas
    • Yo también creo que es marketing, pero más bien por la razón opuesta
      Creo que con el nivel actual de la tecnología es imposible hacerlo realmente seguro
    • Esto es para la seguridad del proveedor del LLM, no para la del usuario
  • Mi pasatiempo es convertir el cinismo en dinero
    Entro a Polymarket, busco eventos sobre sociedad y tecnología que me harían sentir feliz y optimista, y apuesto una pequeña cantidad (monedas basura) a que no van a pasar
    Por ejemplo, hay una apuesta sobre si OpenAI lanzará un modelo open source de pesos antes de septiembre, y ahora se negocia en 81%
    El mes pasado OpenAI tampoco publicó nada, el cese al fuego no fue un cese al fuego real y los indicadores climáticos empeoraron, así que gané como 10 dólares
    No se puede cubrir por completo la desesperación de existir, pero sí se puede reducir un poco ese dolor

    • Si haces la apuesta, ganas de cualquier forma
      Si gano, gano dinero (bien); si pierdo, significa que pasó algo bueno para la sociedad (también bien)
    • Un amigo mío también lo llama "cubrirse contra la humanidad"
      Cada vez que pasa algo políticamente deprimente, gana unos cientos de dólares
    • Me sorprende que todavía haya gente usando cripto
      Pensé que después del boom de la IA, cripto ya estaba acabada
    • "El juego puede ser adictivo, así que hazlo con responsabilidad y solo si eres mayor de 18 años
      Si necesitas ayuda, consulta a un centro de apoyo para ludopatía o a un médico"
  • Confío más en Deepseek y Qwen (Alibaba) que en las empresas estadounidenses de IA
    La industria de IA en EE. UU. me da mucho la impresión de que solo devora dinero y recursos de cómputo
    Aunque se inviertan miles de millones, no parece que tengan mucho que mostrar
    Deepseek se desarrolló con apenas 5 millones de dólares y presentó varias formas nuevas de entrenamiento
    Además, publicó tanto el modelo como el código como FLOSS
    Las empresas estadounidenses son todas cerradas
    Las empresas de IA de EE. UU. parecen buitres intentando matarse entre sí

    • Hay mucha controversia alrededor de eso de los 5 millones de dólares de costo de desarrollo de Deepseek
      Hay debate sobre si se malinterpretó o si se difundió información errónea a propósito
      Incluso si no hubo mala intención, como alguien que ha entrenado modelos grandes, diría que no tiene sentido hablar del costo total viendo solo el costo de una sola corrida de entrenamiento
      También son considerables los costos de experimentos fallidos, entrenamiento adicional y muchos otros intentos
      El hecho de que R2 no haya salido incluso después de 6 meses me parece significativo
      A veces sale un resultado genial, pero nadie presta atención al costo del fracaso
    • En realidad, la mayoría de los modelos de Google son open source
      Trabajando en la industria de IA he leído muchos papers de investigación de Google; han contribuido mucho al avance del sector y agradezco que hayan publicado modelos con licencia comercial
    • Los 5 millones de dólares son el costo de tiempo de una sola sesión de entrenamiento en GPU
    • Dijiste que las empresas estadounidenses de IA solo consumen dinero y cómputo, pero en realidad también se comen libros, literalmente
    • ¿Ese costo en realidad no reflejaba solo el valor de las GPU?
  • Probablemente fue porque el resultado era peor que el del modelo K2 anunciado hoy
    Ningún ingeniero serio diría que fue por "seguridad"
    Con métodos como la ablation, incluso el entrenamiento de seguridad posterior puede anularse

    • Personalmente espero que el modelo de pesos abiertos que publique OpenAI sea mucho más pequeño que K2
      K2 tiene 1 billón de parámetros y solo la descarga ocupa casi 1 TB
      Jamás podría correrlo en mi laptop
      Creo que el tamaño ideal para un modelo local anda por 20B
      Mistral Small 3.x o algunos modelos de Gemma 3 son buenos ejemplos
      Corren bien incluso con menos de 32 GB de RAM y tienen buen rendimiento
      De verdad espero que OpenAI saque algo de ese tamaño
  • Vale la pena recordar, como muestran los casos de fine-tuning sin censura de modelos Llama, que las restricciones de seguridad pueden eliminarse fácilmente

  • En la práctica no es más que una performance de seguridad completamente inútil
    La comunidad ya descubrió hace mucho cómo quitar fácilmente todas las protecciones

    • Con solo leer este tipo de afirmaciones, inmediatamente me acuerdo de cuando "Open"AI se negó a lanzar GPT2 XL diciendo que era "demasiado poderoso"
  • Eso de "esto también es nuevo para nosotros" no suena propio de esa empresa

  • De verdad me da curiosidad por qué OpenAI quiere publicar un modelo de pesos públicos