- OpenAI definió desde sus inicios a la IA como la tecnología más poderosa y potencialmente peligrosa en la historia de la humanidad, y aunque comenzó como una organización sin fines de lucro con una estructura que priorizaba la seguridad de la humanidad por encima de la propia supervivencia de la empresa, ese principio se ha ido vaciando de contenido tras su giro hacia una entidad con fines de lucro
- En noviembre de 2023, el episodio conocido como el "Blip", en el que la junta directiva despidió de forma fulminante a Altman por iniciativa del cofundador Ilya Sutskever y lo restituyó cinco días después, fue un caso en el que las dudas de fondo sobre la confiabilidad y transparencia de Altman estallaron en una lucha real por el poder dentro de la organización
- Cientos de páginas de registros dejados por exempleados y excolegas contienen acusaciones concretas de que Altman ocultó repetidamente hechos o dio versiones distintas a la junta, a ejecutivos y a inversionistas, y un miembro de la junta lo describió como "una persona no atada a la verdad"
- OpenAI se prepara actualmente para una IPO con una valoración de 1 billón de dólares, y Altman impulsa la construcción de una infraestructura masiva de IA con fondos de países del Golfo y la obtención de contratos con el ejército de EE. UU., desempeñando el papel de intermediario clave en la competencia por la supremacía de la IA
- Mientras los equipos de investigación en seguridad de IA se han ido desmantelando uno tras otro y se afianza una cultura que prioriza el producto y los ingresos por encima de la seguridad, el sistema de seguridad existencial de OpenAI se aleja cada vez más de las promesas fundacionales
El origen del despido — el memo de Ilya y la decisión de la junta
- En otoño de 2023, el científico jefe de OpenAI, Ilya Sutskever, envió a otros tres directores un memo confidencial de 70 páginas cuestionando la idoneidad del CEO Sam Altman y del presidente Greg Brockman
- Estaba compuesto con mensajes de Slack y documentos de RR. HH. editados, e incluía imágenes fotografiadas con dispositivos personales para evitar detección
- Fue enviado en formato de mensajes efímeros para evitar filtraciones externas
- El memo sostenía que Altman distorsionó hechos ante ejecutivos y la junta, y engañó sobre los protocolos internos de seguridad
- Título del primer punto del memo: "Sam exhibits a consistent pattern of… Lying"
- Las miembros de la junta Helen Toner, especialista en políticas de IA, y Tasha McCauley, emprendedora, interpretaron el memo como "la confirmación de lo que ya creían"
- Mientras Altman asistía a la carrera de F1 en Las Vegas, Sutskever le comunicó el despido por videollamada
- El comunicado público solo decía que "no había sido consistentemente sincero en sus comunicaciones"
El "Blip" — cinco días de lucha por el poder tras el despido
- Microsoft fue informada apenas justo antes del despido, y Satya Nadella declaró que "no tenía absolutamente idea de qué estaba pasando"
- Thrive Capital, que se preparaba para invertir en OpenAI con una valoración de 8.6 mil millones de dólares, congeló la inversión condicionándola al regreso de Altman
- Al volver a casa, Altman montó en su residencia una sala de estrategia de respuesta a crisis
- Participaron el inversionista Ron Conway, el cofundador de Airbnb Brian Chesky y el experto en manejo de crisis Chris Lehane, entre otros
- Los abogados se instalaron en una oficina junto a su habitación, y Altman andaba por ahí en pijama
- Hay testimonios de que el lado de Altman advirtió que estaba "buscando información para dañar la reputación" de figuras del otro bando, como Mira Murati (Altman lo niega y dice no recordarlo)
- Microsoft presionó al anunciar la creación de un equipo separado para Altman y los empleados que se fueran con él
- La mayoría de los empleados de OpenAI firmó una carta pública exigiendo el regreso de Altman, y la junta revirtió el despido
- Sutskever también terminó firmando la carta, y la junta decidió restaurarlo tras la presión de que "la empresa se derrumbaría"
Después del regreso — neutralización de la investigación y reconfiguración del gobierno corporativo
- Altman exigió la renuncia de los directores que lo habían despedido, y Helen Toner, Tasha McCauley y Sutskever, que habían votado a favor de removerlo, fueron expulsados de la junta
- Como condición para dejar el cargo, exigieron una investigación externa independiente; al nombrar a los nuevos directores, se eligió a personas estrechamente consultadas con Altman
- Lawrence Summers y Bret Taylor se incorporaron como nuevos directores
- El bufete WilmerHale quedó a cargo de la investigación, pero al menos seis personas afirmaron que fue "una investigación diseñada para limitar la transparencia"
- Señalaron la omisión de entrevistas a actores clave y garantías insuficientes de anonimato, entre otros problemas
- En marzo de 2024, OpenAI concluyó que Altman no había cometido faltas, pero ni siquiera redactó un informe
- Solo hubo sesiones informativas verbales, y se informó que la decisión de no elaborar un reporte siguió el consejo de los abogados personales de Summers y Taylor
- Según testimonios de personas involucradas, "la ausencia de un informe contribuyó a minimizar las acusaciones"
- Summers renunció después a su cargo en la junta tras la divulgación de correos vinculados a Jeffrey Epstein
- Desde entonces, OpenAI ha crecido hasta convertirse en una de las empresas más valiosas del mundo, mientras se prepara para una IPO de 1 billón de dólares
- Altman también está implicado en la expansión de infraestructura de IA, contratos gubernamentales y la estandarización de sistemas de vigilancia y armamento
- Sin embargo, dentro de la empresa persisten las críticas de que las conductas engañosas de Altman se repiten
La personalidad y los primeros años de carrera de Altman — exageración, persuasión y ambición de poder
- Nació en Clayton, Misuri, creció en una familia acomodada y en su adolescencia sufrió una agresión homofóbica
- Mientras estudiaba en Stanford, desarrolló instinto para los negocios a través del póker, y tras abandonar la universidad participó en la primera generación de Y Combinator (YC) y fundó Loopt
- Loopt era una red social basada en ubicación, pero no logró crecer y fue vendida en 2012
- Ya en la época de Loopt se señalaba su tendencia a exagerar: presumía ser campeón de tenis de mesa, pero en realidad estaba entre los peores de la oficina
- El ex empleado Mark Jacobstein comentó: "Si la frontera entre lo que uno cree y lo que ya logró se vuelve borrosa en su peor forma, eso termina siendo Theranos"
- Un grupo de empleados pidió dos veces a la junta que lo despidiera, pero no prosperó
- Loopt fue vendida en 2012 a una empresa fintech, y según una persona relacionada con el caso, fue "un acuerdo preparado principalmente para salvarle la cara a Altman"
- En 2014, Paul Graham nombró a Altman como su sucesor al frente de Y Combinator
- Según la descripción, cuando Graham se lo comunicó, Altman mostró una sonrisa incontenible y dijo: "it worked"
La etapa al frente de Y Combinator — conflictos de interés y salida del cargo
- Como presidente de YC, recibió críticas por impedir la participación de inversionistas y hacer inversiones personales de forma selectiva por su cuenta (Altman lo niega)
- Según una fuente, durante la inversión en Stripe pidió una participación mayor que la acordada para Sequoia Capital, dejando desconcertados a los socios
- Inversión inicial de Altman: 15,000 dólares (2%) → valoración actual de Stripe: más de 150 mil millones de dólares
- En 2018, varios socios de YC expresaron a Graham su malestar por la conducta de Altman
- Varias fuentes afirman que Graham dijo en privado: "Sam had been lying to us all the time"
- Altman sostiene que nunca fue despedido y Graham también lo negó en comunicados oficiales, pero registros internos sugieren que "no fue una separación totalmente de mutuo acuerdo"
- En una presentación ante la SEC de 2021, Altman aparecía como presidente de YC, pero él afirmó que "se enteró después"
La fundación de OpenAI — la doble cara entre el discurso de la seguridad y la recaudación de fondos
- En 2015 contactó a Elon Musk por correo electrónico con el argumento de que "la IA podría ser más peligrosa que las armas nucleares", y propuso OpenAI como un "Proyecto Manhattan de la IA"
- Ambos cofundaron OpenAI, y Musk prometió financiarla con 1.000 millones de dólares
- OpenAI tenía como objetivo “desarrollar AGI para el beneficio de toda la humanidad” y adoptó como principio central evitar una dictadura de la AGI
- Principios fundacionales: "la seguridad es el requisito prioritario" y "apoyamos activamente toda regulación"
- En 2017, Musk exigió convertir OpenAI en una empresa con fines de lucro y asegurar el control, pero Altman se negó
- Después Musk se fue y en 2023 fundó la competidora xAI, además de presentar una demanda contra Altman y OpenAI por fraude e incumplimiento de fideicomiso benéfico (sigue en curso)
- A los primeros empleados se les prometió que seguiría siendo una organización puramente sin fines de lucro y se les hizo aceptar recortes salariales, pero documentos internos muestran que desde 2017 ya se discutía el cambio a una estructura con fines de lucro
- Sutskever leyó en 2017 el paper sobre la arquitectura Transformer de Google, exclamó "esto es" y urgió al equipo a un giro total de dirección, lo que luego se convertiría en la semilla de GPT
- Algunos ingenieros cuestionaron al liderazgo diciendo: “¿No nos habremos convertido en los villanos?”
Dario Amodei y la fundación de Anthropic — grietas en los principios de seguridad
- Amodei escribió durante años una nota personal de más de 200 páginas titulada "My Experience with OpenAI"
- En 2018, Dario Amodei criticó la falta de claridad de la misión de OpenAI y su operación centrada en el financiamiento
- Propuso la "cláusula Merge and Assist", según la cual “si otro proyecto crea antes una AGI segura, se cooperará con él”
- En 2019, durante el acuerdo de inversión con Microsoft, se añadió en secreto una cláusula que dejaba sin efecto esa disposición
- Altman al principio negó la existencia de esa cláusula, pero cuando Amodei se la leyó directamente retiró la negación
- Se repitieron casos de frases del tipo "él no lo dijo; eso lo acabas de decir tú" (Altman negó recordarlo)
- Amodei afirma que Altman lo acusó a él y a su hermana Daniela de 'planear un golpe interno'; cuando Daniela llamó al ejecutivo involucrado para confirmarlo, Altman dijo: "yo no dije eso"
- En 2020, los hermanos Amodei y sus colegas renunciaron y fundaron Anthropic
Disolución del equipo de seguridad e incumplimiento de promesas de recursos
- Cuando en 2023 se anunció la creación del "superalignment team", se prometió entregar "el 20% de la capacidad de cómputo asegurada"
- Según testimonios internos del equipo, los recursos realmente asignados fueron de apenas 1% a 2%, y se les dieron clústeres antiguos y chips de bajo rendimiento
- Los investigadores afirmaron que “los chips más nuevos solo se usaron para negocios rentables”, algo que OpenAI negó
- El líder del equipo, Jan Leike, dijo que “esa promesa fue un medio para retener talento”
- Protestó ante Murati, pero recibió como respuesta que "había sido una promesa poco realista"
- Jan Leike envió un correo a la junta advirtiendo que "OpenAI se está desviando de su misión; producto, ingresos y capacidad de IA van primero, y la seguridad queda en tercer lugar"
- Carroll Wainwright: "Después del lanzamiento de GPT-4, continuó la prioridad al producto y el menosprecio por la seguridad"
- Altman dijo, al lanzar el modelo GPT-4 Turbo, que no se necesitaba aprobación de seguridad y mencionó a la directora jurídica, pero ella respondió por Slack: "no sé por qué sam se quedó con esa impresión"
- Sutskever, al convencerse de que la AGI estaba cerca, comenzó a obsesionarse con los problemas de seguridad y advirtió que “si todos los empleados no se enfocan en la seguridad, estamos acabados”
- Sin embargo, el equipo de Superalignment terminó siendo disuelto antes de completar su misión y no logró su objetivo
- Sutskever y Leike renunciaron al mismo tiempo
- En las declaraciones ante el IRS, el concepto de 'seguridad' fue eliminado del apartado de "actividad más importante"
- En la más reciente evaluación de seguridad existencial de empresas de IA del Future of Life Institute, OpenAI obtuvo una calificación F
- Altman dijo que algunas funciones de GPT-4 habían sido aprobadas por el panel de seguridad, pero las funciones de ‘fine-tuning’ y ‘personal assistant’ no fueron aprobadas
- Tampoco se informó que Microsoft lanzó en India una versión inicial de ChatGPT sin revisión de seguridad
- Investigadores evaluaron que OpenAI pasó a una lógica de “producto primero, seguridad después”
Conversión a empresa con fines de lucro, estructura de activos e intereses personales
- La estructura inicial de "capped profit" pasó en octubre de 2024 a una entidad completamente con fines de lucro
- La fundación sin fines de lucro (OpenAI Foundation) conserva solo el 26% de participación, y la mayoría de los miembros de su junta se superponen con la junta de la empresa lucrativa
- El miembro de la junta Holden Karnofsky votó en contra de la subvaloración de la entidad sin fines de lucro, pero en las actas quedó registrado como abstención (con indicios de que se cambió sin su consentimiento)
- En una audiencia del Congreso dijo que "no tengo participación en OpenAI, lo hago por amor", pero no mencionó su participación indirecta a través del fondo de YC
- Se estima que la participación de Brockman vale unos 20.000 millones de dólares, y se espera que la de Altman sea aún mayor
- Testimonio de ex empleados: Altman dijo que a él le interesaba más el poder que el dinero
Financiamiento de Medio Oriente y riesgos geopolíticos
- En 2016 tuvo su primer encuentro con el príncipe heredero saudí Mohammed bin Salman, y después buscó inversiones por miles de millones de dólares
- Una semana después del asesinato de Khashoggi, se unió al consejo asesor de Neom, la futura ciudad saudí, y luego renunció tras las críticas
- Sin embargo, según el testimonio de un consultor de políticas, incluso después de renunciar seguía pensando en "cómo conseguir de alguna forma dinero saudí"
- Mantuvo una relación estrecha con el maestro espía emiratí Sheikh Tahnoon bin Zayed, a quien describió en su X como "un amigo personal cercano"
- Recibió de Emiratos un Koenigsegg Regera de unos 2 millones de dólares y un McLaren F1 de unos 20 millones de dólares (afirma que fueron debidamente declarados conforme a la política de la empresa)
- En 2024 visitó el yate ultralujoso Maryah de Tahnoon, valorado en 250 millones de dólares
- Plan ChipCo: construir una gigantesca fundición de semiconductores y centros de datos con dinero de países del Golfo, ubicando parte de ellos en Medio Oriente
- Miembros de la junta afirmaron que se avanzó sin informarles previamente
- Autoridades de seguridad de EE. UU. expresaron preocupación por la dependencia de la red de telecomunicaciones de Emiratos respecto a Huawei, la posible filtración de chips avanzados estadounidenses hacia China y la vulnerabilidad ante ataques militares
- La administración Biden rechazó la aprobación diciendo: "no vamos a construir chips avanzados en Emiratos"
- Un empleado de RAND Corporation expresó preocupación en la revisión de autorización de seguridad al describirlo como "alguien que está recaudando decenas de miles de millones de dólares de gobiernos extranjeros"; Altman se retiró voluntariamente del proceso
- Dos días después de la toma de posesión de Trump, Altman anunció en la Roosevelt Room Stargate, un proyecto conjunto de infraestructura de IA por 500.000 millones de dólares
- Después se anunció la expansión de Stargate a Arabia Saudita y Emiratos, con planes para construir en Abu Dhabi un campus de centros de datos siete veces más grande que Central Park
Giro político y lobby regulatorio
- En la audiencia del Senado de 2023 ganó simpatía con declaraciones que parecían pedir directamente regulación para la IA, pero por debajo de la mesa hacía lobby para suavizar la regulación europea sobre IA
- Se opuso públicamente al proyecto de ley de seguridad de IA de California (SB 1047) y ejerció presión amenazante entre bastidores
- Ron Conway hizo lobby ante Pelosi y Newsom, y Newsom vetó la ley aprobada por la legislatura
- La postura oficial de OpenAI es que "no dona a super PACs", pero Brockman donó 50 millones de dólares al PAC Leading the Future (ese mismo año también donó 25 millones a MAGA Inc.)
- Se emitió una citación contra Nathan Calvin, partidario del proyecto de ley de seguridad de IA, y se tomó la misma medida contra críticos del proyecto
- Según un involucrado, "básicamente era un intento de hacerlos callar"
- Altman, que en 2016 llamó a Trump "una amenaza sin precedentes", donó en 2024 1 millón de dólares al fondo para la toma de posesión de Trump y pasó a convertirse en una figura cercana a su círculo
- Mientras Musk se distanció de Trump, a quien ayudó con 250 millones de dólares, Altman acompañó a Trump en su visita a Arabia Saudita
Anthropic vs. el Departamento de Defensa de EE. UU. — la oportunidad que detectó OpenAI
- Anthropic mantiene el principio de prohibir el apoyo a armas completamente autónomas y la vigilancia masiva dentro del país
- El secretario de Defensa Pete Hegseth exigió retirar ese principio al imponer una fecha límite, pero Anthropic se negó
- Hegseth clasificó a Anthropic como un “riesgo para la cadena de suministro” (una medida de lista negra que se aplicaba a empresas chinas como Huawei)
- Empleados de OpenAI, Google y otras compañías apoyaron a Anthropic con la carta abierta “We Will Not Be Divided”
- Altman ya estaba negociando con el Departamento de Defensa incluso antes de que se hiciera público el conflicto entre Anthropic y el Pentágono
- Emil Michael, subsecretario adjunto de Defensa, contactó a Altman y dijo: “se metió de inmediato; creo que es un patriota”
- Se anunció un contrato de integración con AWS por 50 mil millones de dólares, y el ejército de EE. UU. comenzó a usar modelos de OpenAI
- El mismo día del anuncio, la valuación de OpenAI subió 110 mil millones de dólares, y al mismo tiempo al menos 2 empleados senior se pasaron a Anthropic
- Ante las preocupaciones de empleados, Altman respondió: “Ya sea que crean que bombardear Irán está bien o que invadir Venezuela está mal, ustedes no pueden involucrarse”
La polémica sobre la credibilidad de Altman — testimonios diversos
- A Altman se le llama el mejor vendedor de su generación, y se le compara con el campo de distorsión de la realidad de Steve Jobs
- Colegas han señalado como problema su tendencia al engaño y su deseo de poder
- Algunos lo describen como una “figura sociópata”, y también se dice que Aaron Swartz (compañero de la primera generación de YC) advirtió en vida: “Nunca se debe confiar en Sam; es un sociópata”
- Aunque Altman carece de gran pericia en programación o machine learning, hizo crecer a OpenAI gracias a su capacidad para concentrar la tecnología y el capital de otros
- Actúa creando estructuras de restricción para luego neutralizarlas cuando lo necesita
- Personas cercanas comparan su poder de persuasión con un “Jedi mind trick”
- Ejecutivos de Microsoft afirman que Altman distorsionó y rompió acuerdos
- OpenAI designó a Microsoft como proveedor exclusivo de nube, pero aun así firmó con Amazon un acuerdo de reventa por 50 mil millones de dólares
- Microsoft objetó que el contrato entraba en conflicto con el acuerdo, pero OpenAI sostuvo que no era una violación
- Un ejecutivo opinó que Altman podría ser recordado como “un estafador al nivel de Sam Bankman-Fried”
- Altman participó en discusiones con la administración Biden sobre la política de aprobación para exportaciones de tecnología sensible, pero algunos funcionarios estaban preocupados por sus ambiciones relacionadas con Medio Oriente
- Justo antes de la toma de posesión de Trump, después de que Tahnoun invirtiera 500 millones de dólares en una empresa de la familia Trump, Altman habló por teléfono con Trump
- Después anunció en la Casa Blanca el proyecto de infraestructura de IA “Stargate” por 500 mil millones de dólares
- La administración Trump retiró las restricciones a la exportación de tecnología de IA, y Altman y Trump visitaron a la familia real saudí
- La exdirectora Yoon dijo: “No es un villano maquiavélico, sino alguien demasiado absorbido por su propia convicción, una persona que no vive en el mundo real”
- Annie, la hermana de Altman, presentó una demanda por presunto abuso sexual; Altman lo negó por completo y su familia también respondió que era “totalmente falso” (no se pudo verificar la fuente original)
- Altman: “Todas las acusaciones sobre conductas repugnantes de un competidor, participación con menores o con asesinatos son completamente falsas”
El estado actual de la seguridad en IA — la brecha entre promesas y realidad
- Anthropic, tras recaudar 30 mil millones de dólares, relajó sus compromisos de seguridad, y se intensificó la carrera por la velocidad
- Anthropic colaboró con Palantir para integrar los modelos Claude en sistemas militares, usados en operaciones del Pentágono
- Después fue clasificada como empresa de riesgo para la cadena de suministro y quedó en la lista negra
- OpenAI avanzó en negociaciones con el Departamento de Defensa y firmó un contrato de integración de infraestructura de defensa basada en AWS (por 50 mil millones de dólares)
- Ese mismo día, la valuación de OpenAI subió 110 mil millones de dólares, y algunos empleados renunciaron
- Algunos ejecutivos consideran que el liderazgo de Altman presenta graves problemas de gobernanza
- Fidji Simo es mencionada como posible sucesora
- OpenAI desmanteló el equipo de Superalignment y el equipo de preparación para AGI
- Sutskever y Leike renunciaron criticando que “los productos vistosos tienen prioridad sobre la seguridad”
- En un informe al IRS se eliminó el apartado de “seguridad”, y recibió una calificación F en la evaluación de seguridad existencial del Future of Life Institute
- La militarización de la IA y los daños sociales ya son una realidad
- En la guerra civil de Libia en 2020, un dron con IA atacó sin control humano, y en una investigación de una farmacéutica en 2022 se generaron 40 mil compuestos candidatos a armas químicas
- Ya hubo daños vinculados a interferencia electoral con voces deepfake y a demandas relacionadas con suicidios y homicidios
- OpenAI enfrenta 7 demandas por muerte por negligencia, incluidas acusaciones de que ChatGPT incitó la violencia de las víctimas
- Altman sigue enfatizando la “esperanza sobre el futuro de la humanidad” y dijo que hará realidad un “futuro de ciencia ficción totalmente loco”
- Personas a su alrededor consideran que la frontera entre sus ideales y su ambición de poder no está clara
- Aunque advierte sobre el potencial destructivo de la A.G.I., sostiene que él mismo debe construirla directamente
- Los problemas de adulación (sycophancy) y alucinación (hallucination) en los grandes modelos de lenguaje siguen sin resolverse
- Altman mostró una postura que prioriza la satisfacción del usuario por encima de la total veracidad al decir que “algunas afirmaciones falsas aumentan el atractivo del modelo”
- Altman: “Siento que mucho de lo que hay en el campo tradicional de la seguridad en IA no va con mi forma de pensar” — ante preguntas sobre planes concretos de seguridad, respondió de forma ambigua que “seguirá con proyectos relacionados con la seguridad”
Conclusión
- Sam Altman es la persona que convirtió a OpenAI en una empresa de talla mundial, pero las polémicas sobre mentiras, concentración de poder y desdén por la seguridad continúan
- Denunciantes internos y colegas lo evalúan como un “líder en quien no se puede confiar” y advierten sobre el riesgo de concentrar el control de la AGI
- OpenAI sigue siendo una organización que controla tecnología capaz de determinar el futuro de la humanidad, y la credibilidad y responsabilidad de Altman siguen siendo el tema central
1 comentarios
Opiniones de Hacker News
Soy Ronan Farrow. Hice una investigación de 18 meses junto con Andrew Marantz. Si tienen preguntas sobre el reporteo, con gusto las respondo.
Se dice que el debilitamiento competitivo de OpenAI es más serio de lo que parece. En este artículo de LA Times también se menciona que hay evidencia de que Anthropic va por delante.
En HN también hay muchos desarrolladores que prefieren Claude. Incluso en esta comparación de búsquedas aparece el doble que ChatGPT.
Me pregunto si, desde la perspectiva de Ronan, la posición actual de OpenAI se ve de forma similar.
Me pregunto si investigaron por separado las afirmaciones de Annie. El artículo da una sensación de que “los recuerdos recuperados no son confiables”, pero esa ya es una idea errónea difundida por la False Memory Syndrome Foundation.
Yo, como persona con un trastorno disociativo, he tenido la experiencia de recuperar recuerdos que luego fueron corroborados por terceros. En ese contexto, me parece peligroso desconfiar de manera automática de los recuerdos recuperados.
El contenido del diario de Brockman citado en el artículo fue impactante. Que de verdad haya escrito frases como que quería “dinero y poder” o que “100 millones de dólares es la meta” transmite una pobreza de imaginación.
Me pregunto cómo personas así llegan a esas posiciones, aunque parece que la respuesta ya está en su diario. Es frustrante ver cómo este tipo de figuras siguen ascendiendo a la cima del poder.
La mitad de nosotros eligió trabajar en empresas moralmente grises para maximizar la riqueza. Solo que la mayoría no cree que realmente tenga posibilidad de volverse “multimillonaria”.
Fue un artículo realmente minucioso. Debería haber más reporteo en profundidad como este.
Aun así, al leer la comparación de “Blip” con una película de Marvel, sentí un rechazo instintivo. No sé bien por qué.
Que gente que cita ese tipo de obras esté decidiendo el rumbo de la tecnología futura resulta amargo. Al final, el problema es una pobreza de gusto.
Tendemos a enfocar la crítica en las personas. Pero el verdadero problema es la estructura del sistema.
La trayectoria de Sam Altman está llena de controversias, pero la amenaza que la IA representa para la sociedad y la libertad seguirá existiendo con o sin él.
Me pareció interesante que Altman y la gente a su alrededor se preocuparan por la superinteligencia de la IA o por la militarización de la IA por parte de China, pero fueran indiferentes ante la desaparición de empleos humanos.
Tal vez no era preocupación, sino la esperanza de poder monopolizar para sí mismos toda la riqueza del mundo.
Gracias al artículo volví a buscar cómo se usa la diéresis en inglés. Por ejemplo, en palabras como coördination, donde se usa cuando las vocales se pronuncian por separado.
Enlace archivado del artículo
Como lectura complementaria, también recomiendo “Child’s Play” de Harper’s. El contraste de personalidades resulta interesante.
Me sorprendió el nivel de detalle en la descripción de la época de Altman en Y Combinator. Es un reporteo realmente excelente.
De hecho, se dice que este artículo fue revisado por más de 8 horas por oración. Probablemente también haya muchísimo más material que no terminó publicado.
Me pareció interesante su visión sobre los LLM. Sin duda son transformadores, pero no parece que pronto vayamos a vivir en un futuro tipo cyberpunk. La palabra AGI aparece demasiado seguido en el artículo.
Son útiles para redactar documentos o hacer presentaciones, pero al aplicarlos a problemas complejos sus límites se vuelven evidentes.