Cómo desindexar páginas del sitio web

La desindexación se puede hacer de dos maneras.

El primer método es desindexar las URL de la página de su sitio web con el archivo robots.txt, que es la mejor manera de hacerlo.

Como Nikunj Tamboli sugirió tener en cuenta, ya que sus URL contienen la categoría principal, tenga cuidado al hacer esto, ya que toda la categoría podría ser desindexada por Google.

No permitir: / comida / itemlist / tag / shrimp

No permitir: / aproximadamente / 16-páginas / 82-sobre-us-2

Carpeta o categoría específica

No permitir: / comida /

Antes de implementar el archivo robots.txt en su sitio web, abra el webmaster de google y haga clic en robots y escriba la URL que desea deindexar.

Si su archivo es deindex, mostrará la url en color rojo, esto se mostrará después de implementar el archivo de robots.

El segundo método solo es aplicable cuando desea eliminar completamente la página de su sitio web.

Esto se puede hacer a través de la herramienta de rechazo de webmasters usando esta herramienta, puede eliminar y ocultar las URL de su sitio web que no desea mostrar en Google.

Pero en tu caso el primer método es la mejor manera de hacerlo.

Diversión con robots.txt

Uno de los temas más aburridos en SEO técnico es robots.txt. Rara vez hay un problema interesante que deba resolverse en el archivo, y la mayoría de los errores provienen de no entender las directivas o de los errores tipográficos. El propósito general de un archivo robots.txt es simplemente sugerir a los rastreadores dónde pueden y dónde no pueden ir.

Partes básicas del archivo robots.txt.

  • User-agent : especifica qué robot.
  • No permitir : sugiere que los robots no se desplacen por esta área.
  • Permitir : permite a los robots rastrear esta área.
  • Rastreo de demora : le dice a los robots que esperen unos segundos antes de continuar con el rastreo.
  • Mapa del sitio : especifica la ubicación del mapa del sitio.
  • Noindex : le dice a Google que elimine páginas del índice.

Muchas empresas han hecho cosas creativas con sus archivos robots.txt. ¡Echa un vistazo a los siguientes ejemplos!

NIKE, Inc.- Inspiración e innovación para todos los atletas del mundo. tiene una buena versión de su eslogan dentro de su archivo robots.txt, “simplemente rastrearlo”, pero también incluyeron su logotipo.

http://www.seerinteractive.com/r

Tecnologías de nociones

Puede hacerlo mediante robot.txt en el directorio raíz, pero asegúrese de que la sintaxis y la ruta de Disallow sean correctas.

Otra forma es mediante el uso de metaetiquetas Noindex.

Noindex es una etiqueta meta que puede poner en la sección de encabezado de sus páginas web. Significa que cuando el motor de búsqueda llega a una página con la metaetiqueta Noindex, lo rastreará pero no indexará. Link juice se puede pasar / no a otras páginas usando FOLLOW / NOFOLLOW.

Por ejemplo,

También puede desindexar páginas web con la herramienta webmaster de Google.

Espero que esta información haya sido útil. Haga un voto para que otros también puedan beneficiarse. Saludos !!

Hay dos partes para desindexar las páginas del sitio web.

¿En qué sitio web?

Si es wordpress, siga estos pasos.

Parte 1: Páginas sin indexación

1. Instalar el plugin ‘WP Robots Meta’ de Yoast

2. Abre phpMyAdmin

3. Elija su base de datos de WordPress

5. Elige mostrar solo las publicaciones ‘verdaderas’

6. Comience su trabajo

7. confirmar

Parte 2: Obtener las páginas rastreadas

Inclúyalos en su sitemap (s)

Elimine el bit de ‘Última modificación’ de su sitemap (s)

Forzar a Google a re-rastrear las páginas de su sitio

Para más detalles visítenos: Agencia de publicidad en Bangalore | Empresa publicitaria de cine en Bangalore | Empresa de modelado 3D en Bangalore | VFX Company En Bangalore

No, tiene que cambiar el archivo robots.txt inmediatamente al ver su archivo que no permitió la categoría / comida / & / sobre / si no desea que se indexe toda la categoría, no hay problema.

Pero la forma correcta de las URL individuales sería

no permitir: / comida / itemlist / tag / shrimp

no permitir: / aproximadamente / 16-páginas / 82-sobre-us-2

Puede usar la herramienta Robots.txt Analyzer para verificar si su archivo robots.txt está bloqueando solo ciertas páginas y no toda la sección.

buena pregunta pero en qué idioma usted desarrolló su sitio web depende de eso. Según la información dada, su sitio está en joomla. así que siga el camino dado a continuación:

Vaya al panel c de su sitio web> administrador de archivos> html público> su sitio web para> robot.txt. Para más detalles contáctenos: http://www.infinitesolution.in/p