Posicionar desinformación en Google cuesta menos que una campaña de publicidad

Posicionar desinformación en Google cuesta menos que una campaña de publicidad

Un experimento reciente demostró que colocar contenido falso en los primeros resultados de Google es operativamente trivial. Lo que eso revela sobre la arquitectura de confianza en la que operan los negocios es mucho más perturbador que el experimento mismo.

Andrés MolinaAndrés Molina18 de marzo de 20267 min
Compartir

El experimento que nadie quería confirmar

Roger Montti, editor senior de Search Engine Journal, publicó a mediados de marzo de 2026 los resultados de un experimento que la industria del marketing digital llevaba tiempo sospechando pero prefería no nominar directamente: optimizar contenido falso con técnicas estándar de posicionamiento en buscadores es, en sus propias palabras, trivialmente sencillo. El contenido desinformativo no solo alcanzó posiciones prominentes en Google con rapidez, sino que además se propagó hacia otros sitios, amplificando su alcance de forma orgánica.

No hubo recursos extraordinarios. No hubo acceso privilegiado a los algoritmos. Solo la aplicación metódica de las mismas herramientas que cualquier equipo de marketing usa a diario para posicionar un artículo de blog o una página de producto.

El caso no es aislado. El desarrollador del proyecto NanoClaw, con más de 18.000 estrellas en GitHub y cobertura de prensa verificable, reportó en marzo de 2026 que Google posicionaba un sitio impostor por encima del proyecto legítimo. Un test independiente de Edward Sturm mostró que un video sobre una táctica de SEO alcanzó el primer lugar en Google en menos de 24 horas tras publicarse en plataformas de contenido generado por usuarios, acumulando más de 18.000 visualizaciones en Instagram Reels. El patrón es consistente: la velocidad de adopción del algoritmo supera con creces su capacidad de verificación.

Cuando el algoritmo premia la ejecución, no la verdad

Para un analista de comportamiento del consumidor, este fenómeno no describe una falla técnica de Google. Describe una falla estructural en cómo los líderes empresariales han concebido su estrategia de visibilidad digital, asumiendo que el mejor contenido gana por mérito propio.

Esa suposición nunca fue completamente cierta, pero en 2026 es operativamente peligrosa. El estudio de SISTRIX sobre más de 100 millones de palabras clave en Alemania reveló que los AI Overviews de Google redujeron la tasa de clics en el primer resultado orgánico del 27% al 11%, una caída del 59%. Esto significa que incluso el contenido que logra posicionarse correctamente recibe una fracción del tráfico histórico. El espacio de atención se contrajo mientras que el costo de invadir ese espacio con contenido falso se mantuvo bajo.

Lo que emerge es una geometría de incentivos perversa: los actores que invierten en autenticidad y rigor reciben menos tráfico que antes, mientras que los actores que invierten en manipulación técnica acceden al mismo inventario de atención con menor fricción operativa. Para una empresa que ha construido su pipeline de clientes sobre el SEO orgánico, esto no es una anomalía del algoritmo; es una amenaza directa a la economía de su canal de adquisición.

El modelo E-E-A-T de Google, que prioriza experiencia, expertise, autoridad y confianza, existe precisamente para crear una barrera contra este tipo de manipulación. Pero la evidencia reciente sugiere que esa barrera tiene el espesor de una política bien redactada y la resistencia de una hoja de papel ante quien conoce las reglas técnicas del sistema.

La psicología del consumidor que nadie está leyendo bien

Aquí es donde los líderes corporativos cometen el error más costoso: confunden la confianza del algoritmo con la confianza del consumidor, como si fueran la misma variable. No lo son, y la diferencia tiene consecuencias financieras directas.

El barómetro de confianza de Edelman 2024 documentó que el 88% de los consumidores cita la confianza como factor determinante en sus decisiones de compra. Eso no es un dato de branding; es una métrica de conversión. Cuando un consumidor encuentra contenido falso sobre una categoría de producto, no solo descarta ese contenido específico. Activa un estado de ansiedad generalizada hacia toda la categoría, incluyendo las marcas legítimas que la habitan.

Esto es lo que los algoritmos no pueden medir y los equipos de marketing frecuentemente ignoran: la desinformación que no afecta directamente a tu marca puede erosionar la demanda de toda tu categoría. El mecanismo es conductual, no técnico. Cuando el usuario percibe que el entorno informativo de una categoría es poco confiable, su heurística de evaluación se vuelve más conservadora. Tarda más en decidir. Exige más señales de verificación. Abandona el proceso de compra con mayor frecuencia. El costo de ese abandono no aparece en ningún dashboard de SEO, pero sí aparece en las tasas de conversión.

La proliferación de contenido generado por usuarios en los resultados de Google, incluyendo foros, Reddit y videos cortos, no es un capricho del algoritmo. Es la respuesta adaptativa del sistema a la percepción del consumidor de que los blogs tradicionales están contaminados por contenido generado automáticamente sin supervisión editorial. El usuario migra hacia formatos que percibe como más difíciles de falsificar. Las marcas que no entienden este desplazamiento perceptual seguirán optimizando para un canal cuya credibilidad percibida está en declive estructural.

Lo que los líderes deben auditar antes de que otro lo haga por ellos

La discusión técnica sobre qué tan fácil es posicionar desinformación en Google es relevante para los equipos de SEO. Para el C-Level, la pregunta operativa es diferente y más urgente: ¿cuánto del capital reputacional de mi empresa descansa sobre un canal que un actor malicioso puede erosionar con recursos menores a los de una campaña pagada de alcance moderado?

Los datos disponibles permiten construir un escenario concreto. Si el tráfico orgánico hacia la posición uno cayó un 59% por la introducción de AI Overviews, y simultáneamente ese mismo espacio es vulnerable a ocupación por contenido falso, las empresas que no diversificaron sus fuentes de credibilidad antes de 2025 están operando con un colchón de confianza mucho más delgado de lo que sus métricas de tráfico sugieren.

La diversificación no es conceptual. Tiene componentes específicos: verificación de autoría con identidades rastreables, presencia activa en foros y comunidades donde el consumidor ya está filtrando señales, y estructuras de contenido que dejen evidencia verificable de experiencia directa, no solo de conocimiento declarado. Edward Sturm y otros especialistas han documentado que revelar la identidad del creador ya no es solo una buena práctica ética; es una barrera técnica contra ser catalogado como táctica de sombrero negro por los propios algoritmos.

Lo que este experimento expone con más claridad que cualquier vulnerabilidad técnica es el costo de haber apostado toda la estrategia de visibilidad a hacer brillar el contenido propio, sin construir simultáneamente las estructuras que apagarían la desconfianza del consumidor ante un entorno informativo cada vez más ruidoso. Los líderes que siguen midiendo el éxito de su estrategia de contenidos exclusivamente por el volumen de tráfico orgánico están confundiendo el mapa con el territorio: el mapa puede mostrar que estás en el primer lugar, mientras el territorio ya cambió de propietario.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar