3 puntos por GN⁺ 2025-09-01 | 3 comentarios | Compartir por WhatsApp
  • Google introdujo resúmenes generados por IA (AI Overviews) en los resultados de búsqueda, que a menudo extraen contenido de los sitios y les quitan tráfico
  • Los operadores de sitios prácticamente solo tienen opciones extremas como bloquear los snippets (max-snippet:0, nosnippet) o un bloqueo parcial (data-nosnippet), por lo que en la práctica quedan atrapados en un dilema sin salida
  • Del lado del usuario, solo existen medidas de evasión limitadas e incompletas, como desactivar la configuración de Search Labs, usar parámetros en la URL o extensiones
  • Las autoridades regulatorias de la UE y del Reino Unido están investigando actualmente la naturaleza anticompetitiva de Google AI Overviews y el daño a los publishers, y consideran regulaciones como compartir tráfico y un opt-out justo
  • Por ahora, la única respuesta realmente práctica para los publishers es max-snippet:0, pero tiene la desventaja crítica de reducir el CTR, lo que ha generado críticas de que se trata de un diseño de dark pattern por parte de Google

El problema de Google AI Overviews

  • Recientemente, Google introdujo en los resultados de búsqueda resúmenes con IA (SGE: Search Generative Experience) generados automáticamente por IA
  • Esta función busca mejorar la experiencia del usuario analizando el contenido principal de los sitios web, resumiéndolo brevemente y mostrándolo directamente
  • Sin embargo, muchos dueños de sitios web ahora enfrentan el problema de que los usuarios consumen solo el contenido resumido sin visitar el sitio original
  • Como resultado, esto está llevando a una disminución del tráfico orgánico (organic traffic) de los sitios web

Impacto de los resúmenes con IA de Google

  • Los resúmenes con IA resumen automáticamente el contenido sin el consentimiento de los propietarios de los sitios web y lo muestran en la parte superior de la búsqueda
  • Los usuarios tienden cada vez más a ver solo el resumen y no hacer clic en el sitio original
  • Como consecuencia, la efectividad de las estrategias tradicionales de SEO se debilita y esto perjudica a los operadores de sitios

Cómo pueden responder los webmasters

  • 1. max-snippet:0
    • <meta name="robots" content="max-snippet:0">
    • Bloquea todos los snippets y resúmenes con IA, por lo que en los resultados de búsqueda solo se muestran el título y la URL
      • Esto tiene la desventaja de que puede reducir en gran medida la tasa de clics (CTR)
    • Por ahora es el método más efectivo, pero no es una solución perfecta
  • 2. nosnippet
    • <meta name="robots" content="nosnippet">
    • Tiene el mismo efecto que max-snippet:0: elimina por completo la descripción o resumen en los resultados de búsqueda
      • Como resultado, la lista de resultados puede volverse monótona y menos atractiva
    • Evita los resúmenes con IA, pero podría llevar a una menor visibilidad en búsqueda
  • 3. data-nosnippet
    • <span data-nosnippet>…</span>
    • Permite excluir selectivamente contenido específico
      • Sin embargo, Google aún puede usar otro texto para sus resúmenes, por lo que es imposible tener control total
    • Se puede aplicar a elementos HTML (span, div, section)
  • 4. Alternativas del lado del usuario (solo afectan a cuentas personales)
    • Opt-out de Search Labs: los usuarios que iniciaron sesión pueden desactivar “AI Overviews and more”
      • Esto solo se aplica a la cuenta del usuario y no afecta la forma en que el sitio se muestra a otras personas
    • Modificadores de URL: agregar &udm=14, -AR, -noai a la consulta de búsqueda
    • Extensiones del navegador: se pueden usar herramientas como Bye Bye Google AI
      • Puede dejar de funcionar cuando Google haga actualizaciones
    • Hack de Reddit: se ha propuesto agregar groserías para esquivar los resúmenes con IA
      • Es una solución temporal poco práctica
    • En iOS, se puede desactivar la visualización de Gemini en la app de Google, usar la pestaña Web o recurrir a navegadores alternativos como Safari o DuckDuckGo
  • 5. Esperanza regulatoria: investigaciones en la UE y el Reino Unido
    • UE
      • Independent Publishers Alliance, Movement for an Open Web y Foxglove Legal, entre otros, presentaron una denuncia antimonopolio ante la Comisión Europea
      • Alegan que AI Overviews provoca abuso de contenido, desvío de tráfico y falta de un opt-out justo
    • Reino Unido
      • La Competition and Markets Authority (CMA) está investigando si los resúmenes con IA restringen la competencia y perjudican a los publishers
      • Está considerando medidas como atribución obligatoria de fuentes, reparto de tráfico y límites al autopreferenciamiento de Google

La esencia del problema

  • Dilema del publisher: si no bloquea los snippets, la IA extrae el contenido y provoca pérdida de tráfico; si los bloquea, cae la visibilidad en búsqueda
  • Falta de control del usuario: las alternativas son incómodas, incompletas y poco consistentes
  • Críticas de dark pattern: el diseño estructural de Google se considera un diseño manipulador que obliga a los publishers a renunciar a algo importante
    • Se trata de un dark pattern típico que fuerza a los publishers a elegir entre opciones desfavorables

Conclusión

  • Hasta que los reguladores obliguen a un cambio, la única opción actual para los publishers es max-snippet:0, pero viene acompañada de una grave pérdida de visibilidad
    • Los propietarios de sitios web deben elegir injustamente entre bloquear los resúmenes con IA y perder visibilidad
  • La política de Google constituye una estructura de elección forzada sin salida, es decir, un dark pattern típico
  • Las decisiones futuras de los reguladores de la UE y el Reino Unido son la única esperanza de cambiar la situación, pero no representan una solución inmediata

3 comentarios

 
laeyoung 2025-09-01

Sobre esto, también conviene leer el artículo ¿El fin de la era del SEO? El inicio de la optimización de marketing para agentes de IA.

Si ves Reddit sobre SEO, sí aparecen muchas publicaciones de gente expresando su preocupación porque, aunque la visibilidad en Google sigue igual, el tráfico ha bajado mucho por el zero click.

 
crawler 2025-09-01

> Would you consider this a fair feature—or a classic example of dark pattern engineering? Let us know in the comments.

De verdad dice que dejes un comentario en el cuerpo del texto, pero no parece que el sitio tenga función de comentarios.
Si es un texto escrito con IA para bloquear a la IA, entonces es un artículo bastante contradictorio.

 
GN⁺ 2025-09-01
Opinión de Hacker News
  • Siento que es el fenómeno de "portal/intermediario" que se ha venido extendiendo a todos los ámbitos durante las últimas décadas. Una tercera capa se interpone entre consumidores y productores, haciendo las cosas más cómodas para ambos lados, pero ahora se vuelve necesario depender de esa capa. Cuando haces un pedido en Amazon, ya no te comunicas directamente con el vendedor; cuando pides comida, tampoco le pagas directamente al restaurante. Al buscar información en la web, ya no lidias con el estilo individual del autor, la navegación, la publicidad, etc. Desde la perspectiva del dueño del contenido, esta estructura reduce las visitas a la página y golpea los ingresos por anuncios, y a diferencia de Amazon o las apps de reparto, las pérdidas publicitarias causadas por los resúmenes de Google no tienen compensación. Como la mayor parte del contenido en línea se sostiene con publicidad, y los ingresos publicitarios también son vitales para Google, aun así están empujando esta evolución porque sienten que no les queda otra de cara al futuro. Parece que Google solo está concentrado en conservar su lugar en el futuro

    • De hecho, me llamó la atención la idea de que este cambio beneficia a ambos lados. Es cierto que en la transición una de las partes sale perjudicada, pero al final creo que los beneficios para consumidores y plataforma son mayores
  • Me molesta que Google y otras IA raspen y reprocesen sin permiso material con derechos de autor de mi sitio web de productos de software. Pero si los bloqueo, la probabilidad de que mi contenido sea mencionado en sus resúmenes de IA se vuelve casi nula

    • Bloquearlos de esta forma puede ser incluso peor en resultados sobre mi producto o empresa, porque el resumen de IA podría terminar apoyándose en una fuente que ni siquiera sería el segundo resultado. Por ejemplo, en una búsqueda como "cómo retirar dinero de PayPal", si el segundo sitio es un dominio negativo tipo "PayPal apesta", excluir el sitio oficial del resumen puede volverse un dolor de cabeza aún mayor. En conclusión, a los publishers probablemente les conviene simplemente permitirlo. Si te preocupa la caída de tráfico, el enlace de "source" que aparece en el resumen se muestra antes que cualquier otro resultado. Si te preocupa la información falsa, se puede resolver con reportes de exactitud o corrigiendo el contenido. Además, Google debería permitir hacer opt-out por separado de los resúmenes de IA y de los snippets, y si te preocupan los resúmenes de IA, los snippets también deberían preocuparte del mismo modo
    • Me da ansiedad pensar que en el futuro Google pueda decirme que pague si quiero que describan a mi empresa de forma más positiva que a mis competidores, o que me contacten para cobrarme por borrar información falsa generada injustamente
    • Si es un sitio que vende algo directamente, creo que en realidad sí conviene aparecer en los resúmenes de IA
  • No entiendo cómo esta función de resúmenes de IA no va a canibalizar los ingresos futuros de Google. Google gana dinero enviando tráfico a sitios mediante anuncios, pero con este tipo de resúmenes está volviendo innecesarios a los propios sitios web. Entonces, ¿quién va a querer crear sitios sin visitantes?

    • Google ya tiene la tecnología para insertar anuncios de productos y servicios dentro de los resúmenes de IA. Un caso real descrito en su investigación muestra ejemplos donde, al buscar "vacaciones", se mencionaban por separado hoteles y aerolíneas. El enlace a ese paper está aquí
    • El 99% de los ingresos se concentra en búsquedas con intención clara de compra, como "buy macbook" o "book trip to dc". En las búsquedas informativas casi no hay ingresos publicitarios
    • De hecho, se puede comprobar porque las consultas que realmente generan dinero son una minoría muy pequeña, y en la mayoría de las búsquedas ni siquiera hay pujas publicitarias
    • En realidad, Google teme más que tecnologías como ChatGPT le quiten su lugar. Por eso, ofrecerle al usuario la información que quiere de inmediato es la mejor forma de mantenerse vigente. En mi opinión, los LLM son imperfectos, pero para preguntas ambiguas, integración de información, traducción y cosas así, son una tecnología muy superior a los motores de búsqueda. Cuando quieres obtener información y no encontrar una página específica, el ideal se parece mucho más a los LLM. No me parecería raro que los motores de búsqueda desaparezcan en los próximos 10 años
    • Quizá Google también adoptó este cambio a la fuerza, por la realidad de que los servicios basados en LLM se están comiendo cada vez más terreno. Ver que Google puso los resúmenes de IA por encima de los anuncios deja ver lo desesperado que está
  • En mi sitio personal bloqueé con configuración de Apache todo: indexación, snippets, traducción e indexación de imágenes. Aun así, Internet Archive lo ignoró y raspó el sitio, y aunque pedí varias veces que lo borraran, nunca me hicieron caso. Ahora además estoy frenando más scraping con Anubis. (Ese sitio es un diario público que empecé en 2000, así que no quiero que sea fácil de encontrar en buscadores)

    • No entiendo querer publicar algo en internet y al mismo tiempo no querer que quede respaldado. Si algún día el dominio desaparece y quieres volver a ver eso, que quede en Internet Archive más bien sería una suerte. Una vez que lo subes a internet, en esencia ya es público
    • Lo que más me frustra es que Internet Archive simplemente no responde a mi solicitud. Hay excepciones para eliminar contenido ilegal (difamación, secretos de Estado, cierto material pornográfico, etc.), pero la regla general es que si tú mismo lo publicaste, no debería permitirse borrarlo del registro histórico. Si de verdad quisiera ocultar información personal, la habría puesto detrás de un login. El sitio sigue existiendo y alguien lo sigue rastreando
    • Los snapshots tienen un campo llamado "why?". En la práctica, además de Internet Archive, puede que Common Crawl, Archive Team u otros hayan empujado mi sitio allí. Hay que revisar la razón para identificar con precisión al responsable
    • Intenta pedir la eliminación o exclusión de Internet Archive con robots.txt. Esa política ha cambiado varias veces, pero en los últimos años han vuelto a respetar robots.txt. Consulta el FAQ
  • En cierto sentido, publicar consiste en hacer algo público para que la gente tenga cierta libertad de usarlo. Esa libertad puede beneficiar o no al sitio. Cada vez que una gran plataforma como Google cambia, los publishers de contenido siempre han tenido que adaptarse. Los resúmenes de IA son parte de ese proceso de cambio

    • Me parece una visión algo arrogante. Yo he publicado software bajo condiciones de licencia. El simple hecho de hacerlo público no significa que cualquiera pueda usarlo para cualquier propósito
    • Mi premisa es que publico manteniendo los derechos de autor sobre mi contenido. Eso no significa que esté dando libertad para republicarlo con fines comerciales. Tal vez venga un futuro donde haya que esconder el contenido detrás de un login, lo cual sería un futuro bastante amargo para la web
    • Desde la Ley de Anne de 1710 (la primera ley de copyright), incluso la información distribuida públicamente está sujeta a reglas
    • Yo publico mis textos esperando que la gente los lea directamente, no para que Google haga resúmenes de IA mediocres. Al final, las decisiones de Google están orientadas a beneficiar a Google
    • Publicar no debería significar ceder todos los derechos. Mucha gente escribe para reunir lectores con intereses afines. Cuando se mete un intermediario en medio, la conexión entre lector y autor puede dañarse. Si quiero resumir algo, prefiero hacerlo de la forma que yo quiera, pero la mayoría de los autores no quiere resúmenes hechos por LLM. Además, los LLM tienen muchos sesgos y pueden resumir de forma absurda, por ejemplo eliminando con sus propios filtros párrafos que sí son importantes. Hay pocas cosas tan dañinas para una idea como que se transmita en una versión debilitada y distorsionada de mi opinión
  • En la última frase de esta entrada del blog dice "deja un comentario", pero no se ve un área de comentarios, así que me pregunto si no habrá sido generada por IA

  • Me pregunto si esto también funciona en Perplexity, OpenAI, Claude, etc.

  • Creo que sería mejor para todos si Google citara las fuentes con claridad, como hace Perplexity. Podría enlazar al original, dar crédito y además mejorar la UX

    • Google sí cita, pero de una forma tan poco visible que usa un símbolo Unicode de un solo carácter con aspecto de "enlace". Y al hacer clic no te lleva directo a la página fuente, sino que abre un panel lateral, donde muchas veces hay varias fuentes. Técnicamente esa cita es el primer enlace de la página de resultados, pero en la práctica para llegar a mi página hay que hacer dos clics. Sería mejor que las citas fueran más visibles, que usaran el título de la página como anchor text y que fueran enlaces directos. Si hay varias citas, estaría bien que el panel lateral apareciera abierto desde el inicio o que todas quedaran visibles en la página principal
  • En el futuro, mi especialidad será enseñar cómo lograr que los LLM resuman bien los sitios web de empresas. Hace falta este tipo de contenido guía, detallado y fiel

  • Pegué el título y el dominio de este artículo y el resultado fue distinto. Imagen de referencia