- OpenAI anunció que originalmente planeaba lanzar su modelo de pesos abiertos la próxima semana, pero que retrasará el lanzamiento para realizar pruebas adicionales de seguridad y una revisión de áreas de alto riesgo
- Sam Altman señaló que "todavía no puede estar seguro de exactamente cuánto tiempo tomará"
- Explicó que se necesita un enfoque cuidadoso porque, una vez que los pesos (Weights) del modelo se hagan públicos, no podrán retirarse
- OpenAI enfatizó que confía en que la comunidad creará diversas innovaciones con este modelo, pero que, como es la primera vez para OpenAI con este enfoque, quiere seguir correctamente el proceso
- Por último, reiteró su cautela junto con una disculpa sincera, diciendo: "Lamento que no sean buenas noticias. Estamos trabajando realmente muy duro"
2 comentarios
¿Otra vez nos van a engañar~?
Comentarios en Hacker News
Compartieron este enlace: https://nitter.space/sama/status/1943837550369812814
No sé si sea coincidencia que el lanzamiento del modelo de pesos abiertos de OpenAI se haya retrasado de repente justo después de que apareciera un modelo de pesos abiertos tan sobresaliente como Kimi K2, anunciado hoy
Enlace de presentación de Kimi K2
Cuando OpenAI lo lance, tendrá que subir el nivel de toda la industria
No creo que un modelo de pesos públicos de calidad intermedia vaya a funcionar
xAI lleva bastante ventaja en acumulación de poder de cómputo y ha abierto una brecha grande en pruebas de inteligencia como ARC, HLE y otras
Lo que OpenAI busca no es competir en open source, sino ganar la competencia
Me parece una noticia bastante grande
Creo que eso de las "pruebas de seguridad" para LLM es puro lenguaje de marketing
Los autos, los aviones y los elevadores sí pasan pruebas de seguridad reales, pero los LLM son otra cosa
Aunque el resultado que produzca un LLM no le guste a su creador, nadie se muere por eso
Cuando hablan de "pruebas de seguridad", al final solo están revisando hasta qué punto el LLM dice cosas que a ellos no les gustan
También puede empujar una crisis de salud mental hacia el suicidio, o incluso construir de forma persuasiva el argumento de que cierta raza o grupo es la causa del problema y debe ser eliminado
Las palabras no matan directamente a una persona, pero sin duda pueden llevar a la muerte
Además de estas posibilidades, también existen riesgos relacionados con el uso de herramientas
Creo que con el nivel actual de la tecnología es imposible hacerlo realmente seguro
Mi pasatiempo es convertir el cinismo en dinero
Entro a Polymarket, busco eventos sobre sociedad y tecnología que me harían sentir feliz y optimista, y apuesto una pequeña cantidad (monedas basura) a que no van a pasar
Por ejemplo, hay una apuesta sobre si OpenAI lanzará un modelo open source de pesos antes de septiembre, y ahora se negocia en 81%
El mes pasado OpenAI tampoco publicó nada, el cese al fuego no fue un cese al fuego real y los indicadores climáticos empeoraron, así que gané como 10 dólares
No se puede cubrir por completo la desesperación de existir, pero sí se puede reducir un poco ese dolor
Si gano, gano dinero (bien); si pierdo, significa que pasó algo bueno para la sociedad (también bien)
Cada vez que pasa algo políticamente deprimente, gana unos cientos de dólares
Pensé que después del boom de la IA, cripto ya estaba acabada
Si necesitas ayuda, consulta a un centro de apoyo para ludopatía o a un médico"
Confío más en Deepseek y Qwen (Alibaba) que en las empresas estadounidenses de IA
La industria de IA en EE. UU. me da mucho la impresión de que solo devora dinero y recursos de cómputo
Aunque se inviertan miles de millones, no parece que tengan mucho que mostrar
Deepseek se desarrolló con apenas 5 millones de dólares y presentó varias formas nuevas de entrenamiento
Además, publicó tanto el modelo como el código como FLOSS
Las empresas estadounidenses son todas cerradas
Las empresas de IA de EE. UU. parecen buitres intentando matarse entre sí
Hay debate sobre si se malinterpretó o si se difundió información errónea a propósito
Incluso si no hubo mala intención, como alguien que ha entrenado modelos grandes, diría que no tiene sentido hablar del costo total viendo solo el costo de una sola corrida de entrenamiento
También son considerables los costos de experimentos fallidos, entrenamiento adicional y muchos otros intentos
El hecho de que R2 no haya salido incluso después de 6 meses me parece significativo
A veces sale un resultado genial, pero nadie presta atención al costo del fracaso
Trabajando en la industria de IA he leído muchos papers de investigación de Google; han contribuido mucho al avance del sector y agradezco que hayan publicado modelos con licencia comercial
Probablemente fue porque el resultado era peor que el del modelo K2 anunciado hoy
Ningún ingeniero serio diría que fue por "seguridad"
Con métodos como la ablation, incluso el entrenamiento de seguridad posterior puede anularse
K2 tiene 1 billón de parámetros y solo la descarga ocupa casi 1 TB
Jamás podría correrlo en mi laptop
Creo que el tamaño ideal para un modelo local anda por 20B
Mistral Small 3.x o algunos modelos de Gemma 3 son buenos ejemplos
Corren bien incluso con menos de 32 GB de RAM y tienen buen rendimiento
De verdad espero que OpenAI saque algo de ese tamaño
Vale la pena recordar, como muestran los casos de fine-tuning sin censura de modelos Llama, que las restricciones de seguridad pueden eliminarse fácilmente
En la práctica no es más que una performance de seguridad completamente inútil
La comunidad ya descubrió hace mucho cómo quitar fácilmente todas las protecciones
Eso de "esto también es nuevo para nosotros" no suena propio de esa empresa
De verdad me da curiosidad por qué OpenAI quiere publicar un modelo de pesos públicos