Como hacer que una pagina no se indexe con seo

Como hacer que una pagina no se indexe con seo

Tabla de Contenidos

Yoast seo noindex

Robots.txt debe ser su primera parada para los patrones de URL que coinciden con varios archivos. Puede ver la sintaxis aquí y más detallada aquí. El archivo robots.txt debe colocarse en la carpeta raíz de su dominio, es decir, en http://www.yourdomain.com/robots.txt , y contendría algo como:

Nota 2: Si ya tiene páginas indexadas y archivadas, y bloquea las páginas a través de robots.txt y al mismo tiempo añade la etiqueta meta a las mismas páginas, entonces el robots.txt impedirá que los motores de búsqueda vean la etiqueta meta actualizada.

Las etiquetas META de REP le ofrecen un control útil sobre cómo se indexa cada página web de su sitio. Pero sólo funciona para las páginas HTML. ¿Cómo puede controlar el acceso a otros tipos de documentos, como los archivos PDF de Adobe, los archivos de vídeo y audio y otros tipos? Bueno, ahora la misma flexibilidad para especificar etiquetas por URL está disponible para todos los demás tipos de archivos.

Hemos ampliado nuestra compatibilidad con las etiquetas META para que puedan asociarse a cualquier archivo. Basta con añadir cualquier etiqueta META compatible a una nueva directiva X-Robots-Tag en el encabezado HTTP utilizado para servir el archivo. Aquí hay algunos ejemplos ilustrativos:

Evitar que los motores de búsqueda indexen

Algunos usuarios pueden ver un cambio en algunos informes. En algunos casos, esto significa una reagrupación de todos los elementos de tres categorías (válido, advertencia y no válido) en dos categorías (válido y no válido). También puede significar que la tabla de la página de inicio del informe muestra ahora sólo los elementos no válidos. Si su informe tiene un aspecto muy diferente al de la última vez que lo utilizó, puede conocer los cambios aquí.

Si utilizas un servicio de alojamiento de sitios como Wix o SquareSpace, es probable que tu servicio de alojamiento informe a Googe cada vez que publiques o actualices una página. Consulta la documentación de tu servicio de alojamiento para saber cómo publicar tus páginas y hacerlas localizables por los motores de búsqueda.

La página de nivel superior del informe muestra un gráfico y un recuento de tus páginas indexadas y no indexadas (pero encontradas), así como tablas que muestran las razones por las que las URLs no pudieron ser indexadas, u otras mejoras de indexación.

Lo ideal es que el recuento de páginas indexadas válidas aumente gradualmente a medida que el sitio crece. Si observa caídas o picos, consulte la sección de solución de problemas. La tabla de estado en la página de resumen está agrupada y ordenada por “estado + razón”.

Palaute

En mi opinión, WordPress es uno de los medios más fáciles y rentables para crear sitios web. Ofrece interfaces fáciles de usar, una poderosa extensibilidad y una sólida base de soporte para usuarios y desarrolladores. Una de las desventajas, sin embargo, es que requiere una personalización bastante mundana antes de ser adecuado para la mayoría de las empresas. La ventaja es que se trata de personalizaciones rápidas que no implican ningún tipo de codificación y que pueden convertir rápidamente su sitio web en un tesoro optimizado para el SEO. WordPress se adapta a una amplia gama de usos y, por lo tanto, a menudo se ve que tiene un poco de hinchazón. Un ejemplo de ello son los archivos de autor generados automáticamente, los archivos basados en la fecha, los archivos de categorías de subpáginas y los archivos basados en etiquetas.

Un archivo Robots.txt es utilizado por los navegadores web para aplicar reglas de seguridad y basadas en el contenido. Esto puede ayudar a evitar que los usuarios accedan a directorios con información privada, servir diferentes contenidos a los usuarios en función del navegador o la referencia, y puede indicar a los motores de búsqueda dónde se encuentran sus mapas de sitio y qué tipos de contenido no quiere indexar. En la mayoría de los sitios web, este archivo se edita mediante una conexión FTP a través de un editor de texto como Notepad++. Esto funciona bien, pero cuando intentas ponerte a trabajar a veces aprender la interfaz de otro programa es una tarea desalentadora. Aquí es donde Yoast interviene y ofrece un poco de extensibilidad muy útil. Una vez instalado, el plugin Yoast registrará un menú ‘SEO’ en la barra de herramientas de la izquierda de WordPress. Haz clic en el menú “Herramientas” y aparecerá una pantalla con la opción “Editor de archivos”. Una vez que haya encontrado esta pantalla, deberá hacer clic en el enlace “Editor de archivos”, que le llevará a otra pantalla.  Vea el diagrama de abajo para la dirección visual:

Etiqueta Noindex

Pero, si bien es cierto que la publicación de más páginas que son relevantes para una palabra clave en particular (suponiendo que también son de alta calidad) mejorará su clasificación para esa palabra clave, a veces hay realmente más valor en mantener ciertas páginas de su sitio web fuera del índice de un motor de búsqueda.

¿Por qué no? Porque cualquier persona que encuentre su página de agradecimiento en la búsqueda puede acceder a sus ofertas de generación de clientes potenciales directamente, sin tener que proporcionarle su información para pasar por su formulario de captación de clientes potenciales. Cualquier vendedor que entienda el valor de las páginas de aterrizaje comprende lo importante que es capturar a esos visitantes como clientes potenciales primero, antes de que puedan acceder a sus ofertas.

Y lo que es peor, puede que incluso descubra que algunas de sus páginas de mayor ranking para algunas de sus palabras clave de cola larga podrían ser sus páginas de agradecimiento, lo que significa que podría estar invitando a cientos de clientes potenciales a pasar por alto sus formularios de captación de clientes potenciales. Esa es una razón bastante convincente para querer eliminar algunas de sus páginas web de las SERP.

Una forma de eliminar una página de los resultados de los motores de búsqueda es añadir un archivo robots.txt a su sitio. La ventaja de utilizar este método es que puede tener más control sobre lo que permite a los robots indexar. ¿El resultado? Puede mantener proactivamente el contenido no deseado fuera de los resultados de búsqueda.