Yo me quedé con Things + Obsidian. Usar Things para el largo plazo y Obsidian para los TODO de corto plazo me resultó lo más simple. Y si hace falta, también puedo crear un TODO con - [ ] y luego pegarlo en Obsidian.
Yo también estuve dando vueltas entre varias herramientas y actualmente uso Todoist + Obsidian.
Para integrarlo con el calendario y poder anotar cosas apenas se me ocurren desde varios dispositivos, Todoist me ha resultado lo más cómodo.
También yo usaba Ubuntu en un VPS de 512 MB de RAM por $2.5 al mes, y me pasé a Debian, y me gustó. Como venía de Ubuntu, ya me resultaba familiar, y además usa menos memoria.
En el caso de OpenAI, no solo usan hardware de NVIDIA, también están usando MI300X de AMD para inferencia; para entrenamiento sí es solo NVIDIA.
En inferencia, están obsesionados con asegurar VRAM como sea en relación con el costo de inversión.
En el caso de Microsoft, pasa lo mismo: para inferencia están mezclando NVIDIA y AMD.
Si lo hubieran hecho en silencio como Google, con un simple show&prove, quizá no habría llegado a este nivel; pero entre lo de “está demasiado aterrador”, “qué onda con la Death Star”, “si es que hicieron una bomba atómica”, y tanto hype por todos lados, me parece que todo esto es un caso de autolesión.
Creo que lo mejor sería que GitHub Copilot se integre en CoreAI para evolucionar más.
Google Keep también es bueno para usarlo de forma sencilla.
Yo me quedé con Things + Obsidian. Usar Things para el largo plazo y Obsidian para los TODO de corto plazo me resultó lo más simple. Y si hace falta, también puedo crear un TODO con
- [ ]y luego pegarlo en Obsidian.'El enfoque de este equipo es desarrollar plataformas y herramientas de IA para Microsoft y sus clientes.'
Aunque a nivel personal no tendrá un gran impacto, GitHub tomará una nueva dirección.
Yo también estuve dando vueltas entre varias herramientas y actualmente uso Todoist + Obsidian.
Para integrarlo con el calendario y poder anotar cosas apenas se me ocurren desde varios dispositivos, Todoist me ha resultado lo más cómodo.
Suena como pesimismo exagerado.
Entiendo las preocupaciones, pero el proceso de avance tecnológico no puede ser siempre ascendente.
También yo usaba Ubuntu en un VPS de 512 MB de RAM por $2.5 al mes, y me pasé a Debian, y me gustó. Como venía de Ubuntu, ya me resultaba familiar, y además usa menos memoria.
Lo leí muy bien. También me deja con muchas cosas para pensar, pero me alegra ver que aun así hay partes que vale la pena intentar.
Últimamente ya casi no reviso todo el RSS en Feedly, y cuando de vez en cuando quiero ver qué hay, uso estos dos:
Lo leí con gusto. Es gracioso y útil.
Si voy a usar Zig, mejor uso C jaja...
Que mi material haya sido presentado en GeekNews. Es un honor para toda la familia.
A mí me aparece: We haven’t opened ordering in your region yet, but we’re looking forward to getting there! We can notify you when ordering opens
https://frame.work/desktop?tab=overview
Parece posible, pero... ¿sale en el cuarto trimestre?
Especialmente en las regiones de Azure en Asia, la proporción de AMD que usa OpenAI es más o menos NVIDIA 8 / AMD 2.
En el caso de OpenAI, no solo usan hardware de NVIDIA, también están usando MI300X de AMD para inferencia; para entrenamiento sí es solo NVIDIA.
En inferencia, están obsesionados con asegurar VRAM como sea en relación con el costo de inversión.
En el caso de Microsoft, pasa lo mismo: para inferencia están mezclando NVIDIA y AMD.
Apoyo a Zig :)
Precisamente porque el autor del post era Gary Marcus, que se dedica a soltar disparates, y eso hizo que...
Y también creo que el error totalmente absurdo de mostrar los benchmarks en la presentación contribuyó a dejar una mala impresión general.
Si lo hubieran hecho en silencio como Google, con un simple show&prove, quizá no habría llegado a este nivel; pero entre lo de “está demasiado aterrador”, “qué onda con la Death Star”, “si es que hicieron una bomba atómica”, y tanto hype por todos lados, me parece que todo esto es un caso de autolesión.