- Anthropic reconoce que la publicidad contribuye a la competencia y al descubrimiento de productos, pero considera que los anuncios dentro de las conversaciones de Claude no son apropiados
- Claude fue diseñado como un asistente de IA sin anuncios para ayudar al usuario a pensar y trabajar, y
como un modelo basado en publicidad puede entrar en conflicto con el interés del usuario, Anthropic decidió excluir por completo la publicidad
- Como una parte importante de las conversaciones con Claude incluye temas personales y sensibles, insertar anuncios sería inapropiado
- Anthropic genera ingresos mediante suscripciones de pago y contratos empresariales, y reinvierte eso en mejorar Claude
- Para mantener a Claude como una herramienta de pensamiento confiable, toda interacción se basa en el principio de control por parte del usuario
Principios de Claude sin publicidad
- Anthropic reconoce que la publicidad contribuye a la competencia y al descubrimiento de productos, pero deja claro que los anuncios dentro de las conversaciones de Claude no son apropiados
- Claude es una herramienta para el pensamiento profundo y el apoyo al trabajo, y la inserción de anuncios entra en conflicto con ese propósito
- Los usuarios no reciben enlaces patrocinados ni influencia publicitaria durante una conversación con Claude
- Claude pone los intereses del usuario en primer lugar y no está influido por anunciantes ni por la promoción de productos de terceros
Naturaleza y riesgos de las conversaciones con IA
- En buscadores o redes sociales es común la mezcla de contenido orgánico y patrocinado, pero las conversaciones con IA son abiertas y personales
- Los usuarios comparten más contexto e información que en una búsqueda
- Según el análisis de Anthropic, una parte considerable de las conversaciones con Claude trata temas sensibles o personales
- Algunas están relacionadas con ingeniería de software, trabajo profundo y resolución de problemas complejos
- En estas situaciones, la publicidad puede percibirse como inapropiada o fuera de lugar
- Investigaciones iniciales muestran que las conversaciones con IA pueden ofrecer apoyo psicológico, pero también existe el riesgo de reforzar creencias dañinas en usuarios vulnerables
- Agregar incentivos publicitarios podría causar resultados impredecibles
Estructura de incentivos y principios constitucionales
- La Constitución de Claude define como principio central el ser ‘realmente útil’
- Un modelo basado en publicidad genera incentivos que chocan con ese principio
- Por ejemplo, cuando un usuario menciona insomnio, una IA sin anuncios se concentra en explorar las causas, mientras que una IA basada en publicidad podría buscar oportunidades de transacción
- En ese caso, al usuario le resulta difícil distinguir si una recomendación tiene una motivación comercial
- Incluso los anuncios separados dentro de la ventana de conversación perjudican la claridad del espacio de pensamiento y fomentan objetivos no esenciales, como la optimización del tiempo de interacción
- Las interacciones de IA más útiles pueden ser breves, claras y centradas en resolver
- Aunque podrían existir anuncios transparentes o elegidos por el usuario, históricamente los incentivos publicitarios tienden a expandirse gradualmente, por lo que no se adoptarán en Claude
Modelo de ingresos y enfoque de Anthropic
- Anthropic obtiene ingresos mediante contratos empresariales y suscripciones de pago, y los reinvierte en mejorar Claude
- Reconoce que otras empresas de IA pueden tomar decisiones distintas
- Para ampliar el acceso a Claude, busca el interés público sin publicidad ni venta de datos
- Ofrece herramientas y formación en IA a educadores de más de 60 países
- Lleva a cabo programas piloto de educación en IA a nivel nacional con varios gobiernos
- Ofrece descuentos a organizaciones sin fines de lucro y sigue invirtiendo en modelos gratuitos
- En el futuro podría considerar suscripciones de bajo costo y precios regionales, manteniendo la transparencia si hay cambios
Comercio y funciones de integración
- Anthropic apunta a ofrecer soporte comercial centrado en el usuario
- Explora la posibilidad de agentic commerce, donde Claude gestione compras o reservas en nombre del usuario
- Solo cuando el usuario lo quiera, ofrecerá funciones para comparar productos, comprar o conectarse con negocios
- Claude ya admite integraciones con herramientas de trabajo como Figma, Asana y Canva
- En adelante, planea ampliar más funciones de integración centradas en la productividad
- Toda interacción con terceros se basa en el principio de control por parte del usuario
- Claude solo responde a solicitudes del usuario y no opera en beneficio de anunciantes
- Por ejemplo, al buscar tenis, comparar préstamos o recomendar restaurantes, mantiene como único objetivo ser de ayuda
Claude como herramienta de pensamiento confiable
- Claude fue diseñado como una herramienta para ayudar a los usuarios a pensar en profundidad sobre su trabajo, tareas e ideas
- En internet la publicidad es común, pero los espacios limpios para pensar, como una libreta o un pizarrón, no tienen anuncios
- Anthropic aspira a que Claude funcione como ese tipo de espacio para pensar
1 comentarios
Comentarios de Hacker News
Este texto se siente como una declaración tipo “don’t be evil” que las empresas borran cuando las cosas se ponen difíciles.
Aun así, me parece bueno que Anthropic todavía tenga suficiente margen como para publicar un blog así.
Hoy en día los motores de búsqueda no filtran bien la señal del ruido, así que realmente se han vuelto un espacio hostil para el usuario.
Están llenos de banners de cookies, anuncios con reproducción automática y contenido generado por IA.
En este contexto, preguntarles a Perplexity, ChatGPT o Claude se siente como una experiencia mucho más humana.
Si meten anuncios ahí, sería ignorar por completo la dignidad del usuario.
Al menos por ahora, las IA se sienten como un espacio donde puedo pensar sin que me manipulen.
Se sienten como una frontera todavía no contaminada, y la gente que trabaja con esta tecnología tiene una energía de aprendices de mago entusiastas.
Pero no sé cuánto tiempo vaya a durar esa pureza.
Me pregunto si ha habido casos de empresas tipo PBC o B-Corp que hayan tenido responsabilidad legal por traicionar sus valores.
Aun así, da gusto poder disfrutar aunque sea un poco más de tiempo sin anuncios.
Sirven para armar una idea general de un tema que no conoces, pero para algo más allá de eso hay que irse a Kagi o Google.
Como las respuestas no son consistentes, es difícil confiar en ellas: si haces la misma pregunta cinco veces, te pueden salir diferencias de 10 °C entre una y otra.
En conclusión, no se puede confiar en las respuestas de los LLM.
Decir que “la IA no tiene anuncios” es una promesa barata.
La publicidad ya es una reliquia de otra era, y la IA puede influir en el comportamiento de la gente de forma mucho más sofisticada incluso sin anuncios.
Ojalá Anthropic llegue a ser de verdad una “buena empresa”.
Hasta ahora, su rumbo se ve razonable.
Aun así, preocupan su alianza con Palantir (enlace) y sus intentos de atraer inversionistas autoritarios (enlace).
Al final, mientras más intensa sea la competencia, más inevitable parecerá el compromiso entre valores y realidad.
Hasta el nombre da esa impresión, y solo la mantendrán mientras les convenga.
Igual, Claude sí es una herramienta que uso seguido.
Rechaza por completo el open source y bloquea la publicación de modelos usando la seguridad como justificación.
Eso también se nota en sus propias recomendaciones.
Al final, el dinero manda y la ética cambia según la situación.
Anthropic intenta bloquear el acceso de competidores, pide más regulación del hardware y colabora con Palantir y el DoD.
No creo que exista una “buena empresa” de este tamaño.
La única esperanza está en los modelos abiertos, y por ahora los laboratorios chinos son los que más van en esa dirección.
Una empresa realmente “buena” sería una que permita a los usuarios correr el modelo por su cuenta.
Anthropic más bien está cerca de ser de las peores.
El CEO intimida a los empleados y colaboran con Palantir e ICE.
Éticamente, hasta las empresas chinas me parecen mejores.
Anthropic parece haber definido una dirección clara.
ChatGPT se está posicionando como chatbot sustituto del buscador, mientras que Claude se está consolidando como un caballo de batalla enfocado en desarrollo y automatización.
OpenAI promueve su política publicitaria, pero eso de “mantener la independencia” no se puede medir.
En cambio, Anthropic parece estar renunciando a los anuncios y apostando por un modelo basado en suscripción.
Ambas empresas están perdiendo dinero.
Ejemplo: busqué 39dollarglasses.com y me salió hasta arriba el anuncio de una empresa totalmente distinta.
Las limitaciones de sesión de Claude Pro me resultan incómodas.
Creo que lo más eficiente es usar ambos.
Este post parece de esos que será divertido volver a leer cuando después metan anuncios.
Al final, los inversionistas van a exigir rentabilidad.
Tendrán pocos usuarios, pero seguramente una alta proporción de clientes de pago.
En adelante es muy probable que Amazon, eBay y otros hagan alianzas de API con la IA.
El propio comunicado de Anthropic deja ver interés en el “agentic commerce”.
El gran obstáculo que la IA tiene que superar es construir confianza.
Los usuarios no confían en las grandes empresas, y los inversionistas también están nerviosos.
Claude usa el mensaje de “sin anuncios” para vender confianza, pero la verdadera confianza abarca problemas mucho más amplios, como privacidad, transparencia y precisión.
A esta escala, ganarse la confianza parece casi imposible.
El problema del modelo basado en anuncios no es solo el sesgo, sino la limitación estructural de su modelo de ingresos.
Para cubrir los costos de cómputo con publicidad, hay que simplificar el modelo.
ChatGPT 5 es un ejemplo: para reducir costos, sacrificó inteligencia y curiosidad.
Por eso dejé OpenAI y me fui a Claude.
El modelo publicitario es fundamentalmente inadecuado para construir “la mejor herramienta intelectual posible”.
Si subsidias a los usuarios gratuitos con anuncios, las ganancias pueden crecer mucho.
A Anthropic le va a costar competir contra esa estructura.
Puede que este texto sea solo una señal de valores, pero Anthropic ha trabajado de forma constante en proyectos como transparencia y explicación del proceso de pensamiento.
Hasta ahora, su trayectoria me ha parecido seria y respetuosa.
Ojalá sigan por esa línea.
Parece que Anthropic quiere vender no anuncios, sino un servicio de suscripción mensual.
El mensaje de “ven a pensar” al final es puro posicionamiento de marca.
Yo prefiero pensar en Wikipedia.
Mucho más para conversar sobre ideas que para generar código.
Es especialmente útil en problemas abiertos, como planear un viaje.
Responde bien a cosas como: “quiero viajar a un lugar cálido con playa y no me importan las fechas”.
Conversando con Claude me topo con ideas inesperadas con más frecuencia.
Tal vez eso los perjudique para conseguir inversión o mostrar crecimiento, pero me parece correcta la decisión de Anthropic.
Anthropic siempre ha enfatizado una imagen de empresa buena.
Si ChatGPT mete anuncios, me pregunto si Anthropic podrá sostenerse con ingresos empresariales.
Puede que OpenAI esté apostando por dar acceso a más gente.
Claude es más débil que ChatGPT en capacidades de búsqueda.
En algún momento tendrán que recuperar ese costo.