Vaya, creo que era un servicio emblemático para guardar lecturas, y ahora lo van a cerrar. Qué lástima.

 
humblebee 2025-05-23 | comentario padre | en: Anthropic lanza Claude 4 (anthropic.com)

Dice que realizó refactorización sin interrupciones durante 7 horas; si la calidad es buena, incluso podríamos esperar un nivel de trabajo externo avanzado que un desarrollador deje encargado al salir del trabajo y revise al día siguiente 😂

 

Aguanta lo más posible con la vectorización de NumPy; si no alcanza, mete una GPU y pásate a CuPy o Torch, y si aun así no basta, escribe código nativo con Cython o algo por el estilo... pero parece que, en lo posible, es mejor evitar lo nativo. Es pesado.

 

En la práctica, es una derrota total de Apple.

 

Si cumples bien con la fecha límite y los requisitos, en realidad no importa mucho si usaste IA al programar o si, en plan macho alfa, ni siquiera usaste un IDE y escribiste todo solo en el Bloc de notas.

 

Le envié un correo. Gracias.

 

Sigue siendo una función opcional, y es muy probable que el multithreading continúe siendo opcional. (activar la opción, hacer una instalación por separado, etc.)
Yo tampoco uso mucho Type, y probablemente use free-threading por temas de rendimiento, pero creo que será en casos muy limitados.

 

¿Qué clase de futuro habrán visto para tomar una decisión así...?

 

Una gran razón por la que Python era popular es que ni siquiera hacía falta considerar este tipo de multithreading. Si además hay que tomar en cuenta cosas así, terminará convirtiéndose en un lenguaje que la gente común no podrá usar fácilmente.

 

Esto de Python con free threading definitivamente no parece ser nada fácil. Se siente como abrir la caja de Pandora. Existe la posibilidad de que broten todo tipo de bugs de sincronización que hasta ahora estaban ocultos, y además que exploten en tiempo de ejecución solo muy de vez en cuando. Parece que los problemas que daban dolor de cabeza al desarrollar con multithreading ahora también podrían empezar a aparecer en serio en Python. Con solo ver la familia de C, ya queda claro que usar funciones que no son thread-safe causará problemas de inmediato.

 

También existía antes. M Editor, de hecho…
https://www.edm2.com/index.php/Microsoft_Editor

 

Oh...!

 

Cuando pensaba que esto era solo una nueva tecnología, lo miraba con curiosidad,
pero ahora que los empleadores realmente están llevando adelante contrataciones y recortes salariales con este tipo de tecnología como motivo, la verdad es que no me hace sentir nada bien..

 

Parece que, como todavía estamos en una etapa de transición, siguen pasando todo tipo de situaciones.
En adelante puede mejorar más, o quizás siga igual, así que también será divertido ver cómo cambia jaja

 

Vaya, parece que 9to5mac directamente bloqueó el acceso de bots.
Hice un resumen manual. Sigo ajustando el prompt, pero por ahora tiene unas 4 mil letras (800 tokens).

 

He contribuido con traducción personalizada, un cargador de archivos de Excel y listas virtuales. Espero que también mucha gente lo use en Corea. ^^

 

Estoy usando Gemini integrado en GitHub para que revise PR, y a veces pasa justo eso.
Por ejemplo, aunque en la línea de arriba ya se hizo la verificación de null, te deja una revisión diciendo que lo estás usando sin verificar null y te pide agregar exactamente la misma línea que está justo arriba.

 

Además, me hace pensar que todo el conocimiento de contexto, los patrones de trabajo y los resultados esperados y su formato, que una persona va aprendiendo de forma natural al hacer su trabajo,
no solo no se pueden escribir por completo en un prompt, sino que incluso si se pudiera, quizá sería más realista automatizarlo con algoritmos tradicionales de antes del deep learning, en lugar de con una IA compleja como un LLM.

 

Esto está divertido jajaja
Aparte del error, la calidad de los resúmenes de GeekNews es tan buena que siempre me da curiosidad el prompt

 

Cuando lo usas, el vibe coding y los agentes de codificación sí tienen partes claramente convenientes, pero para que de verdad sean útiles hay que mandar prompts extremadamente precisos, y desde el principio también hay muchos proyectos donde simplemente no funcionan bien según la naturaleza del proyecto. Si las funciones están bien divididas en partes pequeñas y simples, como en un servidor web con arquitectura MSA, trabajan bien; pero si intentas arreglar con IA una lógica compleja con muchos módulos enganchados a un gran monolito, tienes que planear las tareas con muchísimo cuidado y redactar muy bien los prompts.