Me pregunto si esto está bien desde el punto de vista de la ética en la experimentación con animales. Veo que alguien también lo señaló en los comentarios de Hacker News.
Creo que la mención en la sección de ejemplo probablemente significa que incluso repositorios grandes como Kubernetes tardan 25 minutos, pero funcionan bien.
Las notas de lanzamiento oficiales de Apple solo dicen una sola línea, que ahora es posible usar "RDMA over Thunderbolt", así que agregué una explicación adicional en GN+.
¿Alguien sabe qué significa emacs? Puede que tenga un significado, pero con esos nombres en acrónimo no se puede saber de un vistazo, y al final es un nombre… Además, a estas alturas ya hay demasiados proyectos como para ponerles nombre solo por su función.
Al final, quienes le dan autoridad a la IA son las personas, pero en la práctica creo que es muy probable que la IA reciba una autoridad y autonomía aún mayores que las de ahora.
Si vemos la tendencia actual, el alcance de lo que se le delega a la IA para que lo haga en lugar de los humanos va aumentando poco a poco. No solo redactar informes o hacer vibe coding, sino que también existe una corriente para permitirle ejercer influencia sobre el mundo fuera de la interfaz de chat, a través de navegadores web o incluso robots.
Entonces, en última instancia, la dirección querrá que la IA reemplace por completo a los humanos en ciertas tareas o áreas, y si eso llega a ser viable, al menos dentro de ese alcance la IA tendrá la misma autoridad y autonomía que una persona.
Por eso, creo que habría que asumir que en algún momento del futuro también es bastante posible que la IA reciba un nivel de autoridad comparable al humano.
Si ese es el caso, entonces inevitablemente se vuelve importante cómo actúa la IA cuando se le da tanta autoridad y autonomía.
Sobre cómo estructurar esto y qué sería deseable, la respuesta de la serie GPT lo resume bastante bien. Dice que hacen falta una delimitación explícita del alcance, separación de permisos, múltiples mecanismos de supervisión antes y después, y varias formas para que los humanos puedan intervenir en la IA. A partir del momento en que entra en juego un ámbito donde es posible la intervención física, de entrada ya sería inapropiado darle autonomía total a la IA. Pero incluso en ese caso, también es posible que con el tiempo se debilite eso de mantener al humano dentro del loop.
Como referencia, en mi trabajo uso IA principalmente en tres áreas: redacción de documentos o correos, análisis de código existente y de issues actuales, y generación y modificación de código según esos issues.
En el caso de documentos o correos, simplemente leo yo mismo el resultado y lo uso tal cual o lo edito por encima, pero cuando entra algo de generación o modificación de código soy mucho más conservador. Si solo le digo por encima “arréglame esto”, la IA a veces interpreta mis instrucciones de forma ambigua o incluso toca por su cuenta partes que ni siquiera mencioné.
Por eso, antes de modificar código siempre le presento primero un documento de especificación siguiendo STICC y lo dejo fijado en el prompt global para que lo apruebe explícitamente; luego hago que el trabajo real de modificación avance únicamente según lo que está en esa especificación, y después de los cambios también reviso yo mismo todos los diff. Y para ejecutar comandos como el build, siempre pido mi aprobación o, directamente, los corro yo manualmente en la terminal.
Así, el problema es que para cosas pequeñas muchas veces me sale más rápido corregirlas yo a mano, pero aun así me parece mejor que dejar que la IA toque cualquier cosa y termine rompiendo algo. Al final, si eso explota en producción, la responsabilidad es mía.
Pensé en la cita, conocida como una frase de Peter Drucker, que contradice la ley de Goodhart:
"Si no puedes medirlo, no puedes gestionarlo (If you can't measure it, you can't manage it)".
Pero al investigar más, incluso en el Drucker Institute dicen que Drucker nunca dijo eso.
Más bien encontré una frase opuesta.
Suponer que si no puedes medir algo, no puedes gestionarlo es un error; es un mito costoso. (It is wrong to suppose that if you can't measure it, you can't manage it—a costly myth) - Edward Deming
Es bastante sugestivo lanzar a una IA la pregunta de cuánto nivel de autonomía o autoridad cree que debería tener.
Cuando un CEO le pregunta a un empleado «¿cuánta autoridad te gustaría que te diera?», ¿se siente como si respondiera «me gustaría tener todo el control de la empresa»? Que eso se considere una buena respuesta o que se vea como la respuesta de un empleado poco socializado dependerá del gusto del CEO, supongo...
Dicho eso, yo creo que la pregunta de cuánta autoridad se le quiere dar a una IA habría que hacérsela, más que a la IA, a los desarrolladores, directivos y personas que la usan.
Me pregunto si esto está bien desde el punto de vista de la ética en la experimentación con animales. Veo que alguien también lo señaló en los comentarios de Hacker News.
Ah, lo revisé por encima. Ya lo corregí. Gracias.
Creo que la mención en la sección de ejemplo probablemente significa que incluso repositorios grandes como Kubernetes tardan 25 minutos, pero funcionan bien.
Lanzamiento de Arti 1.0.0 - una implementación de Tor escrita en Rust
OpenAI introduce silenciosamente "Skills", disponibles en ChatGPT y Codex CLI
Consulta también los comentarios de Hacker News junto con el resumen de GN+
La red por Thunderbolt sí que es realmente cómoda
Como permite conexión en cadena, ni siquiera hace falta un hub
Incluso
awkdifícilmente puede considerarse un nombre basado en su función....Ahora sí parece que va a haber bastantes personas conectando dispositivos Mac para armar una granja de inferencia y ofrecer servicios desde casa.
Todos los nombres decentes ya los está usando alguien.
Si le echa la culpa a GitHub, entonces es solo una crítica forzada al estilo de RMS, jaja
Las notas de lanzamiento oficiales de Apple solo dicen una sola línea, que ahora es posible usar "RDMA over Thunderbolt", así que agregué una explicación adicional en GN+.
Ay, solo revisé el contenido principal y no el título, snif snif
Autor: Te lo dije
Mi gráfica de peso va en aumento.
¿Alguien sabe qué significa
emacs? Puede que tenga un significado, pero con esos nombres en acrónimo no se puede saber de un vistazo, y al final es un nombre… Además, a estas alturas ya hay demasiados proyectos como para ponerles nombre solo por su función.Si completas los créditos de OMSCS, te gradúas. No escribes tesis.
Al final, quienes le dan autoridad a la IA son las personas, pero en la práctica creo que es muy probable que la IA reciba una autoridad y autonomía aún mayores que las de ahora.
Si vemos la tendencia actual, el alcance de lo que se le delega a la IA para que lo haga en lugar de los humanos va aumentando poco a poco. No solo redactar informes o hacer vibe coding, sino que también existe una corriente para permitirle ejercer influencia sobre el mundo fuera de la interfaz de chat, a través de navegadores web o incluso robots.
Entonces, en última instancia, la dirección querrá que la IA reemplace por completo a los humanos en ciertas tareas o áreas, y si eso llega a ser viable, al menos dentro de ese alcance la IA tendrá la misma autoridad y autonomía que una persona.
Por eso, creo que habría que asumir que en algún momento del futuro también es bastante posible que la IA reciba un nivel de autoridad comparable al humano.
Si ese es el caso, entonces inevitablemente se vuelve importante cómo actúa la IA cuando se le da tanta autoridad y autonomía.
Sobre cómo estructurar esto y qué sería deseable, la respuesta de la serie GPT lo resume bastante bien. Dice que hacen falta una delimitación explícita del alcance, separación de permisos, múltiples mecanismos de supervisión antes y después, y varias formas para que los humanos puedan intervenir en la IA. A partir del momento en que entra en juego un ámbito donde es posible la intervención física, de entrada ya sería inapropiado darle autonomía total a la IA. Pero incluso en ese caso, también es posible que con el tiempo se debilite eso de mantener al humano dentro del loop.
Como referencia, en mi trabajo uso IA principalmente en tres áreas: redacción de documentos o correos, análisis de código existente y de issues actuales, y generación y modificación de código según esos issues.
En el caso de documentos o correos, simplemente leo yo mismo el resultado y lo uso tal cual o lo edito por encima, pero cuando entra algo de generación o modificación de código soy mucho más conservador. Si solo le digo por encima “arréglame esto”, la IA a veces interpreta mis instrucciones de forma ambigua o incluso toca por su cuenta partes que ni siquiera mencioné.
Por eso, antes de modificar código siempre le presento primero un documento de especificación siguiendo STICC y lo dejo fijado en el prompt global para que lo apruebe explícitamente; luego hago que el trabajo real de modificación avance únicamente según lo que está en esa especificación, y después de los cambios también reviso yo mismo todos los diff. Y para ejecutar comandos como el build, siempre pido mi aprobación o, directamente, los corro yo manualmente en la terminal.
Así, el problema es que para cosas pequeñas muchas veces me sale más rápido corregirlas yo a mano, pero aun así me parece mejor que dejar que la IA toque cualquier cosa y termine rompiendo algo. Al final, si eso explota en producción, la responsabilidad es mía.
Pensé en la cita, conocida como una frase de Peter Drucker, que contradice la ley de Goodhart:
"Si no puedes medirlo, no puedes gestionarlo (If you can't measure it, you can't manage it)".
Pero al investigar más, incluso en el Drucker Institute dicen que Drucker nunca dijo eso.
Más bien encontré una frase opuesta.
Suponer que si no puedes medir algo, no puedes gestionarlo es un error; es un mito costoso. (It is wrong to suppose that if you can't measure it, you can't manage it—a costly myth) - Edward Deming
Gracias por la buena información :D
Es bastante sugestivo lanzar a una IA la pregunta de cuánto nivel de autonomía o autoridad cree que debería tener. Cuando un CEO le pregunta a un empleado «¿cuánta autoridad te gustaría que te diera?», ¿se siente como si respondiera «me gustaría tener todo el control de la empresa»? Que eso se considere una buena respuesta o que se vea como la respuesta de un empleado poco socializado dependerá del gusto del CEO, supongo... Dicho eso, yo creo que la pregunta de cuánta autoridad se le quiere dar a una IA habría que hacérsela, más que a la IA, a los desarrolladores, directivos y personas que la usan.