El SEO cloaking es una técnica en la que el sitio web muestra contenido diferente a los motores de búsqueda que a los usuarios normales del sitio web.
Es una técnica de black hat utilizada para engañar a los motores de búsqueda. El objetivo es obtener rankings más altos en la página de resultados o redirigir a los usuarios a páginas o sitios web no deseados.
Como mencionamos anteriormente, esta es una técnica de black hat diseñada para mostrar un tipo de contenido a los visitantes y otro a Googlebot y otros bots o arañas de motores de búsqueda. Esto se conoce como cloaking y es un intento de engañar a los bots de los motores de búsqueda haciéndoles creer que la página tiene un contenido diferente al que realmente se muestra.
Hoy en día, es una violación masiva de las directrices de calidad de Google. Cualquier sitio que se encuentre en violación probablemente será degradado en los rankings o desindexado por completo.
Un ejemplo de cloaking podría ser; un sitio web infectado que muestra contenido flash o de video a los usuarios normales, pero texto a los motores de búsqueda. El contenido del texto podría ser sobre remodelación del hogar, pero el video podría mostrar pornografía.
Por supuesto, esto se convirtió en un gran problema para los motores de búsqueda. Los usuarios estaban insatisfechos con la experiencia de usuario engañosa y de mala calidad. Y como sabemos, Google quiere que los usuarios vuelvan, así que este era un problema que debía solucionarse.
Originalmente era una técnica de SEO de black hat utilizada para obtener un impulso rápido en los rankings. Hoy en día es una técnica popular entre los hackers. Cuando los hackers infiltran un sitio web, pueden inyectar enlaces y código en tus páginas web que solo son vistos por bots y no por visitantes normales. Alternativamente, pueden redirigir a los usuarios a otro sitio web sin el conocimiento del webmaster, básicamente robando el tráfico del sitio web. Los propietarios genuinos de sitios web nunca permitirían conscientemente el cloaking porque las consecuencias podrían ser muy severas si los motores de búsqueda lo detectan.
Usar los datos del usuario para devolver información ligeramente diferente es una técnica perfectamente legítima. Por ejemplo, con la geolocalización, cuando deseas que los usuarios de una ciudad, estado o país diferente reciban una versión diferente de tu sitio. Esto podría ser por idioma, moneda, publicidad local, etc.
Servir diferentes versiones de páginas a dispositivos móviles y escritorios también es perfectamente normal. Solo se vuelve anormal cuando se sirven diferentes tipos de contenido al motor de búsqueda y al usuario. Esto es cuando un sitio web es probable que sea penalizado ya que la intención es engañar al motor de búsqueda y al usuario.
Un user agent es el software utilizado para acceder a un sitio web. Tu navegador es un user agent. Una técnica utilizada frecuentemente en servidores Linux es secuestrar el archivo .htaccess e insertar código en el módulo mod_rewrite. Este módulo tiene la capacidad de distinguir visitantes normales de bots de motores de búsqueda utilizando el atributo UserAgentName del valor {HTTP_USER_AGENT} que Apache devuelve. Luego simplemente sirve dos versiones diferentes del contenido de una página: una para ti y otra totalmente diferente para los bots de los motores de búsqueda. Otra variación es enfocarse específicamente en la dirección IP de Googlebot y servirle contenido diferente cuando se detecta.
El cloaking requiere conocimientos de programación, pero a menudo se utilizan herramientas y plugins de black hat. Las técnicas más comunes son:
1.- Detección de dirección IP
La dirección IP de un usuario acompaña cada solicitud de user agent enviada a un servidor web. Los sistemas pueden interceptar esto y redirigir la solicitud del usuario a cualquier página que elijan, en ese sitio web o en cualquier otro.
2.- Intercepción de user-agent
Tu navegador es un ejemplo de user agent. Tanto las arañas como los rastreadores son otros ejemplos. Básicamente, los user agents son el mecanismo que interactúa con un sitio web para recuperar datos, como páginas web. Los servidores web pueden identificar el tipo de user agent y servir contenido en consecuencia.
3.- Capacidad de JavaScript
Los navegadores de los usuarios generalmente tienen JavaScript habilitado, mientras que los rastreadores de motores de búsqueda no. Esto facilita la detección de si JS está habilitado o no, y luego servir diferentes páginas a los bots de los motores de búsqueda.
4.- Prueba del encabezado HTTP Accept-Language
El atributo ‘HTTP Accept-Language’ de una solicitud de usuario informa al sistema cuando el usuario es un motor de búsqueda. Luego, la lógica de cloaking simplemente sirve una página web diferente.
5.- Verificación del HTTP_REFERER
De manera similar, el atributo del encabezado ‘HTTP_REFERER’ de una solicitud de usuario revela cuando un rastreador de motores de búsqueda es el user agent. Así, permitiendo que se sirvan diferentes versiones de páginas web.
6.- Ocultación de texto o enlaces
Aunque esto no es como las otras técnicas de cloaking en el sentido técnico, es un intento de manipular los motores de búsqueda y se considera igualmente indeseable.
Ejemplos son:
Debido a que los hackers pueden penetrar un sitio web e instalar código de cloaking, necesitas comprobar periódicamente tu sitio web como parte de las mejores prácticas del webmaster.
Puedes usar la prueba de disponibilidad del sitio web de Labrika, que se encuentra en la auditoría técnica del sitio. Habrá una advertencia visible en esta auditoría, si hay problemas de cloaking sospechados en tu sitio web.
Alternativamente, puedes usar la herramienta de inspección de URL en Google. Esto te mostrará cómo Google ve tus páginas, y luego puedes hacer cualquier corrección al contenido o código de la página. Una búsqueda rápida de “verificador de cloaking de sitios web” revela muchas herramientas gratuitas que pueden realizar una verificación instantánea. Alternativamente, los servicios profesionales de mantenimiento de sitios web realizan estas verificaciones como parte de un paquete de servicios, brindándote tranquilidad. También puedes configurar alertas de hacking de Google o en Google Search Console.
Una vez que sabes que tienes un problema de cloaking en tu sitio web, puede ser el momento de llamar a un profesional. Saber qué buscar o cómo solucionarlo puede ser laborioso y técnico. Es probable que requiera asistencia profesional para solucionarlo y luego asegurarse de que no haya más problemas. Los problemas de cloaking requieren atención urgente ya que pueden costarte rankings, y por lo tanto dinero, muy rápidamente. Comprobar el cloaking debería convertirse en una parte regular de las mejores prácticas de tu webmaster en el futuro.
Para mayor facilidad y tranquilidad, esto se puede realizar en la auditoría técnica del sitio > prueba de disponibilidad del sitio web con nosotros aquí en Labrika.