- Google introdujo resúmenes generados por IA (AI Overviews) en los resultados de búsqueda, que a menudo extraen contenido de los sitios y les quitan tráfico
- Los operadores de sitios prácticamente solo tienen opciones extremas como bloquear los snippets (
max-snippet:0, nosnippet) o un bloqueo parcial (data-nosnippet), por lo que en la práctica quedan atrapados en un dilema sin salida
- Del lado del usuario, solo existen medidas de evasión limitadas e incompletas, como desactivar la configuración de Search Labs, usar parámetros en la URL o extensiones
- Las autoridades regulatorias de la UE y del Reino Unido están investigando actualmente la naturaleza anticompetitiva de Google AI Overviews y el daño a los publishers, y consideran regulaciones como compartir tráfico y un opt-out justo
- Por ahora, la única respuesta realmente práctica para los publishers es
max-snippet:0, pero tiene la desventaja crítica de reducir el CTR, lo que ha generado críticas de que se trata de un diseño de dark pattern por parte de Google
El problema de Google AI Overviews
- Recientemente, Google introdujo en los resultados de búsqueda resúmenes con IA (SGE: Search Generative Experience) generados automáticamente por IA
- Esta función busca mejorar la experiencia del usuario analizando el contenido principal de los sitios web, resumiéndolo brevemente y mostrándolo directamente
- Sin embargo, muchos dueños de sitios web ahora enfrentan el problema de que los usuarios consumen solo el contenido resumido sin visitar el sitio original
- Como resultado, esto está llevando a una disminución del tráfico orgánico (organic traffic) de los sitios web
Impacto de los resúmenes con IA de Google
- Los resúmenes con IA resumen automáticamente el contenido sin el consentimiento de los propietarios de los sitios web y lo muestran en la parte superior de la búsqueda
- Los usuarios tienden cada vez más a ver solo el resumen y no hacer clic en el sitio original
- Como consecuencia, la efectividad de las estrategias tradicionales de SEO se debilita y esto perjudica a los operadores de sitios
Cómo pueden responder los webmasters
- 1.
max-snippet:0
<meta name="robots" content="max-snippet:0">
- Bloquea todos los snippets y resúmenes con IA, por lo que en los resultados de búsqueda solo se muestran el título y la URL
- Esto tiene la desventaja de que puede reducir en gran medida la tasa de clics (CTR)
- Por ahora es el método más efectivo, pero no es una solución perfecta
- 2.
nosnippet
<meta name="robots" content="nosnippet">
- Tiene el mismo efecto que
max-snippet:0: elimina por completo la descripción o resumen en los resultados de búsqueda
- Como resultado, la lista de resultados puede volverse monótona y menos atractiva
- Evita los resúmenes con IA, pero podría llevar a una menor visibilidad en búsqueda
- 3.
data-nosnippet
<span data-nosnippet>…</span>
- Permite excluir selectivamente contenido específico
- Sin embargo, Google aún puede usar otro texto para sus resúmenes, por lo que es imposible tener control total
- Se puede aplicar a elementos HTML (
span, div, section)
- 4. Alternativas del lado del usuario (solo afectan a cuentas personales)
- Opt-out de Search Labs: los usuarios que iniciaron sesión pueden desactivar “AI Overviews and more”
- Esto solo se aplica a la cuenta del usuario y no afecta la forma en que el sitio se muestra a otras personas
- Modificadores de URL: agregar
&udm=14, -AR, -noai a la consulta de búsqueda
- Extensiones del navegador: se pueden usar herramientas como Bye Bye Google AI
- Puede dejar de funcionar cuando Google haga actualizaciones
- Hack de Reddit: se ha propuesto agregar groserías para esquivar los resúmenes con IA
- Es una solución temporal poco práctica
- En iOS, se puede desactivar la visualización de Gemini en la app de Google, usar la pestaña Web o recurrir a navegadores alternativos como Safari o DuckDuckGo
- 5. Esperanza regulatoria: investigaciones en la UE y el Reino Unido
- UE
- Independent Publishers Alliance, Movement for an Open Web y Foxglove Legal, entre otros, presentaron una denuncia antimonopolio ante la Comisión Europea
- Alegan que AI Overviews provoca abuso de contenido, desvío de tráfico y falta de un opt-out justo
- Reino Unido
- La Competition and Markets Authority (CMA) está investigando si los resúmenes con IA restringen la competencia y perjudican a los publishers
- Está considerando medidas como atribución obligatoria de fuentes, reparto de tráfico y límites al autopreferenciamiento de Google
La esencia del problema
- Dilema del publisher: si no bloquea los snippets, la IA extrae el contenido y provoca pérdida de tráfico; si los bloquea, cae la visibilidad en búsqueda
- Falta de control del usuario: las alternativas son incómodas, incompletas y poco consistentes
- Críticas de dark pattern: el diseño estructural de Google se considera un diseño manipulador que obliga a los publishers a renunciar a algo importante
- Se trata de un dark pattern típico que fuerza a los publishers a elegir entre opciones desfavorables
Conclusión
- Hasta que los reguladores obliguen a un cambio, la única opción actual para los publishers es
max-snippet:0, pero viene acompañada de una grave pérdida de visibilidad
- Los propietarios de sitios web deben elegir injustamente entre bloquear los resúmenes con IA y perder visibilidad
- La política de Google constituye una estructura de elección forzada sin salida, es decir, un dark pattern típico
- Las decisiones futuras de los reguladores de la UE y el Reino Unido son la única esperanza de cambiar la situación, pero no representan una solución inmediata
3 comentarios
Sobre esto, también conviene leer el artículo ¿El fin de la era del SEO? El inicio de la optimización de marketing para agentes de IA.
Si ves Reddit sobre SEO, sí aparecen muchas publicaciones de gente expresando su preocupación porque, aunque la visibilidad en Google sigue igual, el tráfico ha bajado mucho por el
zero click.> Would you consider this a fair feature—or a classic example of dark pattern engineering? Let us know in the comments.
De verdad dice que dejes un comentario en el cuerpo del texto, pero no parece que el sitio tenga función de comentarios.
Si es un texto escrito con IA para bloquear a la IA, entonces es un artículo bastante contradictorio.
Opinión de Hacker News
Siento que es el fenómeno de "portal/intermediario" que se ha venido extendiendo a todos los ámbitos durante las últimas décadas. Una tercera capa se interpone entre consumidores y productores, haciendo las cosas más cómodas para ambos lados, pero ahora se vuelve necesario depender de esa capa. Cuando haces un pedido en Amazon, ya no te comunicas directamente con el vendedor; cuando pides comida, tampoco le pagas directamente al restaurante. Al buscar información en la web, ya no lidias con el estilo individual del autor, la navegación, la publicidad, etc. Desde la perspectiva del dueño del contenido, esta estructura reduce las visitas a la página y golpea los ingresos por anuncios, y a diferencia de Amazon o las apps de reparto, las pérdidas publicitarias causadas por los resúmenes de Google no tienen compensación. Como la mayor parte del contenido en línea se sostiene con publicidad, y los ingresos publicitarios también son vitales para Google, aun así están empujando esta evolución porque sienten que no les queda otra de cara al futuro. Parece que Google solo está concentrado en conservar su lugar en el futuro
Me molesta que Google y otras IA raspen y reprocesen sin permiso material con derechos de autor de mi sitio web de productos de software. Pero si los bloqueo, la probabilidad de que mi contenido sea mencionado en sus resúmenes de IA se vuelve casi nula
No entiendo cómo esta función de resúmenes de IA no va a canibalizar los ingresos futuros de Google. Google gana dinero enviando tráfico a sitios mediante anuncios, pero con este tipo de resúmenes está volviendo innecesarios a los propios sitios web. Entonces, ¿quién va a querer crear sitios sin visitantes?
En mi sitio personal bloqueé con configuración de Apache todo: indexación, snippets, traducción e indexación de imágenes. Aun así, Internet Archive lo ignoró y raspó el sitio, y aunque pedí varias veces que lo borraran, nunca me hicieron caso. Ahora además estoy frenando más scraping con Anubis. (Ese sitio es un diario público que empecé en 2000, así que no quiero que sea fácil de encontrar en buscadores)
robots.txt. Esa política ha cambiado varias veces, pero en los últimos años han vuelto a respetarrobots.txt. Consulta el FAQEn cierto sentido, publicar consiste en hacer algo público para que la gente tenga cierta libertad de usarlo. Esa libertad puede beneficiar o no al sitio. Cada vez que una gran plataforma como Google cambia, los publishers de contenido siempre han tenido que adaptarse. Los resúmenes de IA son parte de ese proceso de cambio
En la última frase de esta entrada del blog dice "deja un comentario", pero no se ve un área de comentarios, así que me pregunto si no habrá sido generada por IA
Me pregunto si esto también funciona en Perplexity, OpenAI, Claude, etc.
Creo que sería mejor para todos si Google citara las fuentes con claridad, como hace Perplexity. Podría enlazar al original, dar crédito y además mejorar la UX
En el futuro, mi especialidad será enseñar cómo lograr que los LLM resuman bien los sitios web de empresas. Hace falta este tipo de contenido guía, detallado y fiel
Pegué el título y el dominio de este artículo y el resultado fue distinto. Imagen de referencia