¿No sería una mejor decisión no usar sqlite desde el principio en lugares como una tienda en línea, donde se necesitan muchas escrituras concurrentes, por más que exista el problema de la complejidad de la infraestructura?
Incluso si estaba montado con Docker, la complejidad de infraestructura de una configuración con postgresql tampoco sería tan alta.
Me da la impresión de que, al estar hecho con rails, se terminó induciendo a pensar que era una buena opción porque el ecosistema ya está orientado a usar sqlite.
Ocurrió un error grave, como la omisión de pedidos, y aun si existen problemas de escritura concurrente, en un lugar como una tienda en línea, donde se necesitan muchas escrituras concurrentes, ¿no sería mejor decisión no usar sqlite desde el principio?
También pienso que, al estar hecho con rails, se terminó guiando la decisión a favor de sqlite porque el ecosistema ya viene moldeado hacia su uso.
Se produjo un error serio, como la omisión de pedidos, y la forma de resolver esto de raíz es usar una base de datos para escrituras concurrentes como pg.
Como técnicamente prefieren sqlite, insistir en que van a seguir usándolo me suena, personalmente, a una declaración que reduce mi confianza en ustedes como ingenieros.
Se siente como la versión opuesta del desarrollo guiado por el currículum: subir k8s cuando no hace falta, armar un HPA con una sola réplica y cambiar a MSA un monolito que funcionaba bien.

 

Si lo va a adoptar el Estado, que con ese dinero también apoyen un poco el desarrollo de Linux..

 

Ya de por sí, la industria de la IA está en plena tormenta y llena de falsos profetas.

 

Skills y MCP cumplen roles distintos, pero siento que este tipo de textos sigue generando confusión.

 

Porque tengo que promocionar MCP Nest al final del texto... jajaja. Parece que las afirmaciones comparativas están ganando bastante fuerza.

 

Simplemente son dos cosas completamente distintas, ¿por qué siguen saliendo este tipo de comentarios?

 

Si ves también los artículos recomendados, parece que toda Europa se está moviendo así.

 

Primero deberían estabilizar un poco la función de canales...

 

Parece que quienes conocen los cuellos de botella en el terreno son la clave.

 

Visto ahora, da risa jajajaja, pero también da miedo que en menos de 10 años la situación se haya vuelto ridícula hasta ese punto.

 

No es una idea particularmente novedosa en este momento, pero me parece un buen enfoque porque se puede implementar sin romper la firma de la interfaz ni el flujo de trabajo.

 

Más exactamente, parece que se publicó porque la razón por la que OpenAI de la época en que estaba Amodei mantuvo GPT-2 en privado es similar a la razón por la que mantienen privado el modelo de Mysos. El Amodei de entonces y el Amodei de ahora no han cambiado en nada..

 

En la mayoría de los casos se trae, pero esta vez se omitió de manera extraña y así fue procesado. Lo corregiré para que no se toque esto.

 

No es que el equipo que impulsa AX sea malo...
Parece que el problema es crear un equipo de AX y luego decirle: "como ustedes son el equipo de AX, apúrense y automaticen esto con IA"...
Creo que lo mejor sería que las personas del negocio y del dominio lideren, mientras los especialistas en tecnología AX apoyan la introducción de la IA...

 

Como referencia, si ven el contenido del post que menciona a GPT-2 o el año original de publicación, 2019, se darán cuenta de que hay un contexto: así como hace poco Anthropic dijo que no publicaría el modelo Misos por ser demasiado peligroso, antes también hubo quienes decían que OpenAI estaba siendo exagerado con GPT-2.

En el caso de HN, parece que cuando es una publicación antigua tienen la costumbre de ponerle el año al título (no sé si se agrega automáticamente), y creo que estaría bueno que en GeekNews también se mostrara.

 

¿Será que Sam Altman se está identificando emocionalmente con Oppenheimer? Si es riesgoso, creo que tendría más sentido publicarlo después de reforzar su seguridad, así que recomendar que lo usen no me parece coherente. Creo que el caso de Anthropic Mythos también es igual.

 

Lo que dijo Anthropic me inspiró confianza, pero ¿por qué lo que dijo OpenAI me inspira tan poca confianza?
¿Será porque Anthropic lo demostró con hechos al crear parches para zero-days?
¿O será porque OpenAI ya ha usado este mismo repertorio varias veces?

 

Los drivers de Windows probablemente sean distintos.

 

Cada vez que veo algo así, pienso lo mismo: verificar las firmas no debería hacerlo la plataforma, sino el usuario. El desarrollador debe firmar con su propia clave, y el usuario debe permitir en su dispositivo las claves de desarrolladores confiables para poder usarlas.

No saber esto y pedir que el sistema lo resuelva por uno no tiene sentido. Más allá de si a alguien le interesa o no la informática, si va a usarlo, es un hábito que necesariamente debe tener.
Si usas un teléfono móvil y navegas por internet, no deberías creer ciegamente en lo que diga una página web, un mensaje o una llamada; debes tener la capacidad básica de discernir y elegir.

Con una UI como la de UAC de Windows, donde se puede confirmar con un solo botón si se confiará en un desarrollador específico, incluso alguien que no conozca los conceptos de firma de código y claves podría usarlo.

 

Lo resumiste muy bien. Gracias.