Skip to content Skip to footer

Rastreo Capitulo 2 – CÓMO FUNCIONAN LOS MOTORES DE BÚSQUEDA: INDEXACIÓN Y CLASIFICACIÓN

Como mencionamos en el Capítulo 1 , los motores de búsqueda son contestadoras automáticas. Existen para descubrir, comprender y organizar el contenido de Internet con el fin de ofrecer los resultados más relevantes a las preguntas que hacen los buscadores.

Para aparecer en los resultados de búsqueda, su contenido primero debe ser visible para los motores de búsqueda. Podría decirse que es la pieza más importante del rompecabezas de SEO: si no se puede encontrar su sitio, no hay forma de que aparezca en las SERP (página de resultados del motor de búsqueda).

¿Cómo funcionan los motores de búsqueda?

Los motores de búsqueda tienen tres funciones principales:

  1. Rastrear: busque contenido en Internet, revisando el código / contenido de cada URL que encuentre.
  2. Índice: almacena y organiza el contenido encontrado durante el proceso de rastreo. Una vez que una página está en el índice, está en ejecución para mostrarse como resultado de las consultas relevantes.
  3. Clasificación: proporcione las piezas de contenido que mejor responderán a la consulta de un buscador, lo que significa que los resultados están ordenados de más relevante a menos relevante.

¿Qué es el rastreo de motores de búsqueda?

El rastreo es el proceso de descubrimiento en el que los motores de búsqueda envían un equipo de robots (conocidos como rastreadores o arañas) para encontrar contenido nuevo y actualizado. El contenido puede variar, puede ser una página web, una imagen, un video, un PDF, etc., pero independientemente del formato, el contenido se descubre mediante enlaces.

¿Qué significa esa palabra?

¿Tiene problemas con alguna de las definiciones de esta sección? Nuestro glosario de SEO tiene definiciones específicas de cada capítulo para ayudarlo a mantenerse al día.Ver las definiciones del Capítulo 2 

Los robots de los motores de búsqueda, también llamados arañas, se arrastran de una página a otra para encontrar contenido nuevo y actualizado. Rastreo

El robot de Google comienza buscando algunas páginas web y luego sigue los enlaces de esas páginas web para encontrar nuevas URL. Al saltar a lo largo de esta ruta de enlaces, el rastreador puede encontrar contenido nuevo y agregarlo a su índice llamado Caffeine , una base de datos masiva de URL descubiertas, para luego recuperarlo cuando un buscador está buscando información de que el contenido de esa URL es un buen partido para.

¿Qué es un índice de motor de búsqueda?

Los motores de búsqueda procesan y almacenan la información que encuentran en un índice, una enorme base de datos de todo el contenido que han descubierto y consideran lo suficientemente bueno para servir a los buscadores.

Ranking de motores de búsqueda

Cuando alguien realiza una búsqueda, los motores de búsqueda recorren su índice en busca de contenido altamente relevante y luego ordenan ese contenido con la esperanza de resolver la consulta del buscador. Este orden de los resultados de búsqueda por relevancia se conoce como clasificación. En general, puede asumir que cuanto más alto se clasifica un sitio web, más relevante cree el motor de búsqueda que el sitio es para la consulta.

Es posible bloquear los rastreadores de los motores de búsqueda en parte o en todo su sitio, o indicar a los motores de búsqueda que eviten almacenar determinadas páginas en su índice. Si bien puede haber razones para hacer esto, si desea que los buscadores encuentren su contenido, primero debe asegurarse de que sea accesible para los rastreadores y que sea indexable. De lo contrario, es casi invisible.

Al final de este capítulo, tendrá el contexto que necesita para trabajar con el motor de búsqueda, ¡en lugar de contra él!

En SEO, no todos los motores de búsqueda son iguales

Muchos principiantes se preguntan sobre la importancia relativa de determinados motores de búsqueda. La mayoría de la gente sabe que Google tiene la mayor cuota de mercado, pero ¿qué importancia tiene optimizar para Bing, Yahoo y otros? La verdad es que a pesar de la existencia de más de 30 motores de búsqueda web importantes , la comunidad SEO realmente solo presta atención a Google. ¿Por qué? La respuesta corta es que Google es donde la gran mayoría de la gente busca en la web. Si incluimos Google Imágenes, Google Maps y YouTube (una propiedad de Google), más del 90% de las búsquedas web se realizan en Google, eso es casi 20 veces Bing y Yahoo combinados.

Rastreo: ¿Pueden los motores de búsqueda encontrar sus páginas?

Como acaba de aprender, asegurarse de que su sitio sea rastreado e indexado es un requisito previo para aparecer en las SERP. Si ya tiene un sitio web, puede ser una buena idea comenzar viendo cuántas de sus páginas hay en el índice. Esto proporcionará una gran información sobre si Google está rastreando y encontrando todas las páginas que desea, y ninguna que no.

Una forma de comprobar sus páginas indexadas es “sitio: sudominio.com”, un operador de búsqueda avanzada . Dirígete a Google y escribe “sitio: tudominio.com” en la barra de búsqueda. Esto devolverá los resultados que Google tiene en su índice para el sitio especificado:

Una captura de pantalla de un sitio: búsqueda de AmarteAgency.com en Google, que muestra el número de resultados debajo del cuadro de búsqueda. Rastreo.

El número de resultados que muestra Google (consulte “Acerca de XX resultados” más arriba) no es exacto, pero le da una idea sólida de qué páginas están indexadas en su sitio y cómo se muestran actualmente en los resultados de búsqueda.

Para obtener resultados más precisos, supervise y utilice el informe Cobertura del índice en Google Search Console. Puede registrarse para obtener una cuenta gratuita de Google Search Console si no tiene una. Con esta herramienta, puede enviar mapas de sitio para su sitio y controlar cuántas páginas enviadas se han agregado realmente al índice de Google, entre otras cosas.

Si no aparece en ningún lugar de los resultados de la búsqueda, existen algunas razones posibles por las que:

  • Su sitio es nuevo y aún no se ha rastreado.
  • Su sitio no está vinculado a ningún sitio web externo.
  • La navegación de su sitio hace que sea difícil para un robot rastrearlo de manera efectiva.
  • Su sitio contiene un código básico llamado directivas del rastreador que bloquea los motores de búsqueda.
  • Google ha penalizado su sitio por tácticas de spam.

Indique a los motores de búsqueda cómo rastrear su sitio

Si usó Google Search Console o el operador de búsqueda avanzada “site: dominio.com” y descubrió que algunas de sus páginas importantes faltan en el índice y / o algunas de sus páginas no importantes se han indexado por error, hay algunas optimizaciones que puede implementar para orientar mejor al robot de Google cómo desea que se rastree su contenido web. Decirle a los motores de búsqueda cómo rastrear su sitio puede brindarle un mejor control de lo que termina en el índice.

La mayoría de la gente piensa en asegurarse de que Google pueda encontrar sus páginas importantes, pero es fácil olvidar que es probable que haya páginas que no desea que Googlebot encuentre. Estos pueden incluir cosas como URL antiguas que tienen contenido delgado, URL duplicadas (como parámetros de clasificación y filtrado para comercio electrónico), páginas de códigos de promoción especiales, páginas de prueba o de ensayo, etc.

Para desviar al robot de Google de determinadas páginas y secciones de su sitio, utilice robots.txt.

Robots.txt

Los archivos robots.txt se encuentran en el directorio raíz de los sitios web (por ejemplo, sudominio.com/robots.txt) y sugieren qué partes de los motores de búsqueda de su sitio deben y no deben rastrear, así como la velocidad a la que rastrean su sitio. , a través de directivas específicas de robots.txt .

Cómo trata Googlebot los archivos robots.txt

  • Si Googlebot no puede encontrar un archivo robots.txt para un sitio, procede a rastrear el sitio.
  • Si el robot de Google encuentra un archivo robots.txt para un sitio, generalmente seguirá las sugerencias y procederá a rastrear el sitio.
  • Si Googlebot encuentra un error al intentar acceder al archivo robots.txt de un sitio y no puede determinar si existe o no, no rastreará el sitio.

¡Optimice el presupuesto de rastreo!

El presupuesto de rastreo es la cantidad promedio de URL que el robot de Google rastreará en su sitio antes de salir, por lo que la optimización del presupuesto de rastreo garantiza que el robot de Google no pierda el tiempo rastreando sus páginas sin importancia con el riesgo de ignorar sus páginas importantes. El presupuesto de rastreo es más importante en sitios muy grandes con decenas de miles de URL , pero nunca es una mala idea bloquear a los rastreadores para que no accedan al contenido que definitivamente no le importa. Solo asegúrese de no bloquear el acceso de un rastreador a las páginas en las que ha agregado otras directivas, como las etiquetas canónicas o noindex. Si Googlebot está bloqueado en una página, no podrá ver las instrucciones de esa página.

No todos los robots web siguen el archivo robots.txt. Las personas con malas intenciones (por ejemplo, raspadores de direcciones de correo electrónico) crean bots que no siguen este protocolo. De hecho, algunos delincuentes utilizan archivos robots.txt para encontrar dónde ha ubicado su contenido privado. Aunque puede parecer lógico bloquear a los rastreadores de páginas privadas, como las páginas de inicio de sesión y de administración, para que no aparezcan en el índice, colocar la ubicación de esas URL en un archivo robots.txt de acceso público también significa que las personas con malas intenciones puede encontrarlos más fácilmente. Es mejor NoIndex estas páginas y guardarlas detrás de un formulario de inicio de sesión en lugar de colocarlas en su archivo robots.txt.

Puede leer más detalles sobre esto en la sección de robots.txt de nuestro Centro de aprendizaje .

Definición de parámetros de URL en GSC

Algunos sitios (más comunes con el comercio electrónico) hacen que el mismo contenido esté disponible en varias URL diferentes agregando ciertos parámetros a las URL. Si alguna vez ha comprado en línea, es probable que haya reducido su búsqueda a través de filtros. Por ejemplo, puede buscar “zapatos” en Amazon y luego refinar su búsqueda por tamaño, color y estilo. Cada vez que refina, la URL cambia ligeramente:

https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id= 32 & highlight = green + dress & cat_id = 1 & sessionid = 123 $ affid = 43

¿Cómo sabe Google qué versión de la URL debe servir a los buscadores? Google hace un buen trabajo al determinar la URL representativa por sí solo, pero puede usar la función de parámetros de URL en Google Search Console para decirle a Google exactamente cómo desea que traten sus páginas. Si utiliza esta función para decirle al robot de Google que “no rastree ninguna URL con el parámetro ____”, entonces básicamente le está pidiendo que oculte este contenido del robot de Google, lo que podría provocar la eliminación de esas páginas de los resultados de búsqueda. Eso es lo que desea si esos parámetros crean páginas duplicadas, pero no es ideal si desea que esas páginas se indexen.

¿Pueden los rastreadores encontrar todo su contenido importante?

Ahora que conoce algunas tácticas para garantizar que los rastreadores de los motores de búsqueda se mantengan alejados de su contenido sin importancia, conozcamos las optimizaciones que pueden ayudar al robot de Google a encontrar sus páginas importantes.

A veces, un motor de búsqueda podrá encontrar partes de su sitio rastreando, pero otras páginas o secciones pueden quedar ocultas por una razón u otra. Es importante asegurarse de que los motores de búsqueda puedan descubrir todo el contenido que desea indexar, y no solo su página de inicio.

Pregúntese esto: ¿Puede el rastreo bot a través de su sitio web, y no sólo a él?

Una puerta tapiada, que representa un sitio al que se puede rsatrear pero no a través de él.

¿Su contenido está oculto detrás de los formularios de inicio de sesión?

Si requiere que los usuarios inicien sesión, completen formularios o respondan encuestas antes de acceder a cierto contenido, los motores de búsqueda no verán esas páginas protegidas. Un rastreador definitivamente no va a iniciar sesión.

¿Confía en los formularios de búsqueda?

Los robots no pueden utilizar formularios de búsqueda. Algunas personas creen que si colocan un cuadro de búsqueda en su sitio, los motores de búsqueda podrán encontrar todo lo que buscan sus visitantes.

¿El texto está oculto dentro del contenido que no es texto?

Los formularios de medios que no son de texto (imágenes, videos, GIF, etc.) no deben usarse para mostrar el texto que desea indexar. Si bien los motores de búsqueda están mejorando en el reconocimiento de imágenes, no hay garantía de que puedan leerlas y comprenderlas todavía. Siempre es mejor agregar texto dentro del marcado <HTML> de su página web.

¿Pueden los motores de búsqueda seguir la navegación de su sitio?

Así como un rastreador necesita descubrir su sitio a través de enlaces de otros sitios, necesita una ruta de enlaces en su propio sitio para guiarlo de una página a otra. Si tiene una página que desea que los motores de búsqueda encuentren pero no está vinculada desde ninguna otra página, es casi invisible. Muchos sitios cometen el error crítico de estructurar su navegación de maneras inaccesibles para los motores de búsqueda, lo que dificulta su capacidad para aparecer en los resultados de búsqueda.

Una descripción de cómo los rastreadores pueden encontrar las páginas a las que están vinculadas, mientras que una página a la que no está vinculada en la navegación del sitio existe como una isla, imposible de descubrir.

Errores de navegación habituales que pueden impedir que los rastreadores vean todo su sitio:

  • Tener una navegación móvil que muestra resultados diferentes a la navegación de su escritorio
  • Cualquier tipo de navegación donde los elementos del menú no están en el HTML, como navegaciones habilitadas para JavaScript. Google ha mejorado mucho en el rastreo y la comprensión de Javascript, pero todavía no es un proceso perfecto . La forma más segura de asegurarse de que Google encuentre, comprenda e indexe algo es poniéndolo en HTML.
  • La personalización, o mostrar una navegación única a un tipo específico de visitante en comparación con otros, podría parecer un encubrimiento para un rastreador de motor de búsqueda.
  • Olvidar el enlace a una página principal de su sitio web a través de su navegación; recuerde, los enlaces son las rutas que siguen los rastreadores hacia nuevas páginas.

Por eso es esencial que su sitio web tenga una navegación clara y estructuras de carpetas URL útiles.

¿Tiene una arquitectura de información limpia?

La arquitectura de la información es la práctica de organizar y etiquetar el contenido de un sitio web para mejorar la eficiencia y la capacidad de búsqueda de los usuarios. La mejor arquitectura de información es intuitiva, lo que significa que los usuarios no deberían tener que pensar mucho para navegar por su sitio web o para encontrar algo.

¿Está utilizando mapas de sitio?

Un mapa del sitio es exactamente lo que parece: una lista de URL en su sitio que los rastreadores pueden usar para descubrir e indexar su contenido. Una de las formas más fáciles de asegurarse de que Google encuentre sus páginas de mayor prioridad es crear un archivo que cumpla con los estándares de Google y enviarlo a través de Google Search Console. Si bien enviar un mapa del sitio no reemplaza la necesidad de una buena navegación del sitio, ciertamente puede ayudar a los rastreadores a seguir una ruta hacia todas sus páginas importantes.

Asegúrese de haber incluido solo las URL que desea que los motores de búsqueda indexen y asegúrese de dar instrucciones coherentes a los rastreadores. Por ejemplo, no incluya una URL en su mapa del sitio si ha bloqueado esa URL a través de robots.txt o incluya URL en su mapa del sitio que estén duplicadas en lugar de la versión canónica preferida (proporcionaremos más información sobre canonicalización en el capítulo 5 !).Más información sobre los mapas de sitio XML 

Si su sitio no tiene otros sitios vinculados a él, es posible que aún pueda indexarlo enviando su mapa del sitio XML en Google Search Console. No hay garantía de que incluyan una URL enviada en su índice, ¡pero vale la pena intentarlo!

¿Los rastreadores reciben errores cuando intentan acceder a sus URL?

En el proceso de rastreo de las URL de su sitio, un rastreador puede encontrar errores. Puede ir al informe “Errores de rastreo” de Google Search Console para detectar las URL en las que esto podría estar sucediendo; este informe le mostrará los errores del servidor y los errores no encontrados. Los archivos de registro del servidor también pueden mostrarle esto, así como un tesoro de otra información, como la frecuencia de rastreo, pero debido a que acceder y analizar los archivos de registro del servidor es una táctica más avanzada, no lo discutiremos en profundidad en la Guía para principiantes.

Antes de que pueda hacer algo significativo con el informe de errores de rastreo, es importante comprender los errores del servidor y los errores “no encontrados”.

Códigos 4xx: cuando los rastreadores de los motores de búsqueda no pueden acceder a su contenido debido a un error del cliente

Los errores 4xx son errores del cliente, lo que significa que la URL solicitada contiene una sintaxis incorrecta o no se puede cumplir. Uno de los errores 4xx más comunes es el error “404 – no encontrado”. Estos pueden ocurrir debido a un error tipográfico en la URL, una página eliminada o un redireccionamiento roto, solo por nombrar algunos ejemplos. Cuando los motores de búsqueda alcanzan un 404, no pueden acceder a la URL. Cuando los usuarios llegan a un 404, pueden frustrarse y marcharse.

Códigos 5xx: cuando los rastreadores de los motores de búsqueda no pueden acceder a su contenido debido a un error del servidor

Los errores 5xx son errores del servidor, lo que significa que el servidor en el que se encuentra la página web no cumplió con la solicitud del buscador o del motor de búsqueda para acceder a la página. En el informe “Error de rastreo” de Google Search Console, hay una pestaña dedicada a estos errores. Por lo general, esto sucede porque se agotó el tiempo de espera de la solicitud de la URL, por lo que Googlebot abandonó la solicitud. Consulte la documentación de Google para obtener más información sobre cómo solucionar problemas de conectividad del servidor.

Afortunadamente, hay una manera de decirles a los buscadores y motores de búsqueda que su página se ha movido: la redirección 301 (permanente).

¡Cree páginas 404 personalizadas!

Personalice su página 404 agregando enlaces a páginas importantes en su sitio, una función de búsqueda del sitio e incluso información de contacto. Esto debería hacer que sea menos probable que los visitantes reboten en su sitio cuando lleguen a un 404.Obtenga más información sobre las páginas 404 personalizadas 

Una representación de la redirección de una página a otra.


Supongamos que mueve una página de example.com/young-dogs/ a example.com/puppies/ . Los motores de búsqueda y los usuarios necesitan un puente para cruzar de la antigua URL a la nueva. Ese puente es un redireccionamiento 301.

Cuando implementas un 301:Cuando no implementa un 301:
Equidad de enlaceTransfiere la equidad del enlace de la ubicación anterior de la página a la nueva URL.Sin un 301, la autoridad de la URL anterior no se transfiere a la nueva versión de la URL.
IndexaciónAyuda a Google a encontrar e indexar la nueva versión de la página.La presencia de errores 404 en su sitio por sí sola no daña el rendimiento de la búsqueda, pero dejar que las páginas 404 de clasificación / tráfico puede resultar en que caigan fuera del índice, y que las clasificaciones y el tráfico vayan con ellos.
Experiencia de usuarioGarantiza que los usuarios encuentren la página que buscan.Permitir que sus visitantes hagan clic en enlaces inactivos los llevará a páginas de error en lugar de a la página deseada, lo que puede resultar frustrante.

El código de estado 301 en sí mismo significa que la página se ha movido permanentemente a una nueva ubicación, así que evite redirigir las URL a páginas irrelevantes: URL donde el contenido de la URL anterior en realidad no se encuentra. Si una página está clasificada para una consulta y la 301 a una URL con contenido diferente, podría caer en la posición de clasificación porque el contenido que la hizo relevante para esa consulta en particular ya no está allí. Los 301 son poderosos: mueva las URL de manera responsable.

También tiene la opción de redireccionar 302 una página, pero esto debe reservarse para movimientos temporales y en los casos en que pasar la equidad del enlace no sea una gran preocupación. Los 302 son como un desvío de la carretera. Estás desviando tráfico temporalmente a través de una ruta determinada, pero no será así para siempre.

¡Cuidado con las cadenas de redireccionamiento!

Puede resultar difícil para el robot de Google acceder a su página si tiene que pasar por varios redireccionamientos. Google las denomina “cadenas de redireccionamiento” y recomienda limitarlas tanto como sea posible. Si redirige example.com/1 a example.com/2, luego decide redirigirlo a example.com/3, es mejor eliminar al intermediario y simplemente redirigir example.com/1 a example.com/3.

Una vez que se haya asegurado de que su sitio esté optimizado para la capacidad de rastreo, el siguiente orden del día es asegurarse de que se pueda indexar.

Indexación: ¿Cómo interpretan y almacenan los motores de búsqueda sus páginas?

Una vez que se haya asegurado de que su sitio haya sido rastreado, el siguiente orden del día es asegurarse de que se pueda indexar. Así es, el hecho de que un motor de búsqueda pueda descubrir y rastrear su sitio no significa necesariamente que se almacenará en su índice. En la sección anterior sobre rastreo, analizamos cómo los motores de búsqueda descubren sus páginas web. El índice es donde se almacenan las páginas descubiertas. Una vez que un rastreador encuentra una página, el motor de búsqueda la representa como lo haría un navegador. En el proceso de hacerlo, el motor de búsqueda analiza el contenido de esa página. Toda esa información se almacena en su índice.

Un robot que almacena un libro en una biblioteca.

Siga leyendo para conocer cómo funciona la indexación y cómo puede asegurarse de que su sitio se incluya en esta importante base de datos.

¿Puedo ver cómo un rastreador de Googlebot ve mis páginas?

Sí, la versión en caché de su página reflejará una instantánea de la última vez que Googlebot la rastreó.

Google rastrea y almacena en caché las páginas web en diferentes frecuencias. Los sitios más establecidos y conocidos que publican con frecuencia, como https://www.nytimes.com , se rastrearán con más frecuencia.

Puede ver cómo se ve su versión en caché de una página haciendo clic en la flecha desplegable junto a la URL en el SERP y eligiendo “En caché”:

También puede ver la versión de solo texto de su sitio para determinar si su contenido importante se rastrea y almacena en caché de manera efectiva.

¿Se eliminan alguna vez las páginas del índice?

Sí, las páginas se pueden eliminar del índice. Algunas de las principales razones por las que se puede eliminar una URL incluyen:

  • La URL muestra un error “no encontrado” (4XX) o un error del servidor (5XX). Esto podría ser accidental (la página se movió y no se configuró una redirección 301) o intencional (la página se eliminó y 404 modificó para eliminarlo del índice)
  • La URL tenía una metaetiqueta noindex agregada: los propietarios del sitio pueden agregar esta etiqueta para indicar al motor de búsqueda que omita la página de su índice.
  • La URL ha sido penalizada manualmente por violar las Directrices para webmasters del motor de búsqueda y, como resultado, se eliminó del índice.
  • Se ha bloqueado el rastreo de la URL con la adición de una contraseña requerida antes de que los visitantes puedan acceder a la página.

Si cree que una página de su sitio web que anteriormente estaba en el índice de Google ya no aparece, puede utilizar la herramienta de inspección de URL para conocer el estado de la página o utilizar Explorar como Google, que tiene una función “Solicitar indexación” para enviar URL individuales al índice. (Bonificación: la herramienta “buscar” de GSC también tiene una opción de “procesamiento” que le permite ver si hay algún problema con la forma en que Google interpreta su página).

Indique a los motores de búsqueda cómo indexar su sitio

Metadirectrices de robots

Las metadirectivas (o “metaetiquetas”) son instrucciones que puede dar a los motores de búsqueda sobre cómo desea que se trate su página web.

Puede decirle a los rastreadores de motores de búsqueda cosas como “no indexar esta página en los resultados de búsqueda” o “no pasar ningún valor de enlace a ningún enlace en la página”. Estas instrucciones se ejecutan a través de Robots Meta Tags en el <head> de sus páginas HTML (las más utilizadas) o mediante X-Robots-Tag en el encabezado HTTP.

Metaetiqueta de robots

La metaetiqueta robots se puede utilizar dentro del <head> del HTML de su página web. Puede excluir todos los motores de búsqueda o específicos. Las siguientes son las metadirectivas más comunes, junto con las situaciones en las que puede aplicarlas.

index / noindex les dice a los motores si la página debe ser rastreada y guardada en un índice de motores de búsqueda para su recuperación. Si opta por utilizar “noindex”, está comunicando a los rastreadores que desea que la página se excluya de los resultados de búsqueda. De forma predeterminada, los motores de búsqueda asumen que pueden indexar todas las páginas, por lo que no es necesario utilizar el valor “índice”.

  • Cuándo puede usar: Puede optar por marcar una página como “noindex” si está tratando de recortar páginas delgadas del índice de Google de su sitio (por ejemplo, páginas de perfil generadas por el usuario) pero aún desea que sean accesibles para los visitantes.

follow / nofollow indica a los motores de búsqueda si los enlaces de la página deben seguirse o no. “Seguir” da como resultado que los bots sigan los enlaces de su página y pasen la equidad del enlace a esas URL. O, si opta por emplear “nofollow”, los motores de búsqueda no seguirán ni transferirán ningún valor de enlace a los enlaces de la página. De forma predeterminada, se supone que todas las páginas tienen el atributo “seguir”.

  • Cuándo puede usar: nofollow se usa a menudo junto con noindex cuando está tratando de evitar que una página sea indexada, así como también de evitar que el rastreador siga los enlaces en la página.

noarchive se utiliza para impedir que los motores de búsqueda guarden una copia en caché de la página. De forma predeterminada, los motores mantendrán copias visibles de todas las páginas que han indexado, accesibles para los buscadores a través del enlace almacenado en caché en los resultados de búsqueda.

  • Cuándo puede usar: si tiene un sitio de comercio electrónico y sus precios cambian regularmente, podría considerar la etiqueta noarchive para evitar que los usuarios vean precios desactualizados.

Aquí hay un ejemplo de una etiqueta meta robots noindex, nofollow:

<! DOCTYPE html> <html> <head> <meta name = "robots" content = "noindex, nofollow" /> </head> <body> ... </body> </html>

Este ejemplo excluye a todos los motores de búsqueda de indexar la página y de seguir cualquier enlace en la página. Si desea excluir varios rastreadores, como googlebot y bing, por ejemplo, está bien utilizar varias etiquetas de exclusión de robots.

Las metadirectivas afectan la indexación, no el rastreo

El robot de Google necesita rastrear su página para ver sus metadirectrices, por lo que si está tratando de evitar que los rastreadores accedan a ciertas páginas, las metadirectivas no son la forma de hacerlo. Las etiquetas de los robots deben rastrearse para que se respeten.

Etiqueta de X-Robots

La etiqueta x-robots se usa dentro del encabezado HTTP de su URL, lo que brinda más flexibilidad y funcionalidad que las metaetiquetas si desea bloquear los motores de búsqueda a escala porque puede usar expresiones regulares, bloquear archivos que no sean HTML y aplicar etiquetas noindex en todo el sitio .

Por ejemplo, puede excluir fácilmente carpetas enteras o tipos de archivos:

<Archivos ~ “\ /? No \ -bake \ /.*”> Conjunto de encabezados X-Robots-Tag “noindex, nofollow” </Files>

Los derivados utilizados en una metaetiqueta de robots también se pueden utilizar en una X-Robots-Tag.

O tipos de archivos específicos (como PDF):

<Archivos ~ “\ .pdf $”> Conjunto de encabezados X-Robots-Tag “noindex, nofollow” </Files>

Para obtener más información sobre las metaetiquetas de robot, explore las especificaciones de metaetiqueta de robots de Google .

Consejo de WordPress:

En Panel de control > Configuración> Lectura, asegúrese de que la casilla “Visibilidad del motor de búsqueda” no esté marcada. Esto bloquea los motores de búsqueda para que no accedan a su sitio a través de su archivo robots.txt.

Comprender las diferentes formas en que puede influir en el rastreo y la indexación lo ayudará a evitar los errores comunes que pueden evitar que se encuentren sus páginas importantes.

Clasificación: ¿Cómo clasifican los motores de búsqueda las URL?

¿Cómo se aseguran los motores de búsqueda de que cuando alguien escribe una consulta en la barra de búsqueda, obtiene resultados relevantes a cambio? Ese proceso se conoce como clasificación, o el orden de los resultados de búsqueda de más relevante a menos relevante para una consulta en particular.

Una interpretación artística de la clasificación, con tres perros sentados en los pedestales del primer, segundo y tercer lugar.

Para determinar la relevancia, los motores de búsqueda utilizan algoritmos, un proceso o fórmula mediante el cual la información almacenada se recupera y ordena de manera significativa. Estos algoritmos han sufrido muchos cambios a lo largo de los años para mejorar la calidad de los resultados de búsqueda. Google, por ejemplo, realiza ajustes de algoritmo todos los días: algunas de estas actualizaciones son ajustes de calidad menores, mientras que otras son actualizaciones de algoritmos centrales / amplias implementadas para abordar un problema específico, como Penguin para abordar el spam de enlaces. Consulte nuestro Historial de cambios de algoritmos de Google para obtener una lista de actualizaciones de Google confirmadas y no confirmadas que se remontan al año 2000.

¿Por qué el algoritmo cambia con tanta frecuencia? ¿Google solo está tratando de mantenernos alerta? Si bien Google no siempre revela detalles sobre por qué hacen lo que hacen, sabemos que el objetivo de Google al realizar ajustes en el algoritmo es mejorar la calidad general de la búsqueda. Por eso, en respuesta a las preguntas sobre la actualización del algoritmo, Google responderá con algo como: “Estamos haciendo actualizaciones de calidad todo el tiempo”. Esto indica que, si su sitio sufrió después de un ajuste de algoritmo, compárelo con las Pautas de calidad de Google o las Pautas del evaluador de calidad de búsqueda , ambos son muy reveladores en términos de lo que quieren los motores de búsqueda.

¿Qué quieren los motores de búsqueda?

Los motores de búsqueda siempre han querido lo mismo: proporcionar respuestas útiles a las preguntas de los buscadores en los formatos más útiles. Si eso es cierto, ¿por qué parece que el SEO es diferente ahora que en años anteriores?

Piense en ello en términos de alguien que está aprendiendo un nuevo idioma.

Al principio, su comprensión del idioma es muy rudimentaria: “Ver Spot Run”. Con el tiempo, su comprensión comienza a profundizarse y aprenden la semántica: el significado detrás del lenguaje y la relación entre palabras y frases. Con el tiempo, con suficiente práctica, el alumno conoce el idioma lo suficientemente bien como para comprender los matices y es capaz de dar respuestas incluso a preguntas vagas o incompletas.

Cuando los motores de búsqueda apenas comenzaban a aprender nuestro idioma, era mucho más fácil manipular el sistema utilizando trucos y tácticas que en realidad van en contra de las pautas de calidad. Tome el relleno de palabras clave, por ejemplo. Si desea clasificar para una palabra clave en particular como “chistes divertidos”, puede agregar las palabras “chistes divertidos” un montón de veces en su página y ponerla en negrita, con la esperanza de mejorar su clasificación para ese término:

¡Bienvenido a chistes divertidos ! Contamos los chistes más divertidos del mundo. Los chistes divertidos son divertidos y locos. Tu broma divertida te espera. Siéntate y lee chistes divertidos porque los chistes divertidos pueden hacerte más feliz y divertido . Algunas bromas divertidas favoritas .

Esta táctica generó experiencias terribles para los usuarios y, en lugar de reírse de chistes divertidos, la gente fue bombardeada por un texto molesto y difícil de leer. Puede que haya funcionado en el pasado, pero esto nunca es lo que querían los motores de búsqueda.

El papel que juegan los enlaces en SEO

Cuando hablamos de enlaces, podríamos decir dos cosas. Los vínculos de retroceso o “vínculos entrantes” son vínculos de otros sitios web que apuntan a su sitio web, mientras que los vínculos internos son vínculos en su propio sitio que apuntan a sus otras páginas (en el mismo sitio).

Una descripción de cómo funcionan los enlaces entrantes y los enlaces internos.

Los enlaces han jugado históricamente un papel importante en el SEO. Desde el principio, los motores de búsqueda necesitaban ayuda para determinar qué URL eran más confiables que otras para ayudarlos a determinar cómo clasificar los resultados de búsqueda. Calcular la cantidad de enlaces que apuntan a un sitio determinado les ayudó a hacer esto.

Los backlinks funcionan de manera muy similar a las referencias de WoM (boca a boca) de la vida real. Tomemos una cafetería hipotética, Jenny’s Coffee, como ejemplo:

  • Referencias de otros = buena señal de autoridad
    • Ejemplo: muchas personas diferentes les han dicho que Jenny’s Coffee es el mejor de la ciudad
  • Referencias de usted mismo = parcial, por lo que no es una buena señal de autoridad
    • Ejemplo: Jenny afirma que Jenny’s Coffee es el mejor de la ciudad.
  • Referencias de fuentes irrelevantes o de baja calidad = no es una buena señal de autoridad e incluso podrían marcarlo como spam
    • Ejemplo: Jenny pagó para que personas que nunca habían visitado su cafetería le dijeran a otros lo bueno que es.
  • Sin referencias = autoridad poco clara
    • Ejemplo: Jenny’s Coffee puede ser bueno, pero no ha podido encontrar a nadie que tenga una opinión, por lo que no puede estar seguro.

Por eso se creó PageRank . PageRank (parte del algoritmo central de Google) es un algoritmo de análisis de enlaces que lleva el nombre de uno de los fundadores de Google, Larry Page. PageRank estima la importancia de una página web midiendo la calidad y cantidad de enlaces que apuntan a ella. La suposición es que cuanto más relevante, importante y confiable es una página web, más enlaces habrá obtenido.

Mientras más backlinks naturales tenga de sitios web de alta autoridad (confiables), mayores serán sus probabilidades de obtener una clasificación más alta en los resultados de búsqueda.

El papel que juega el contenido en SEO

No tendrían sentido los enlaces si no dirigieran a los buscadores a algo. ¡Ese algo está contenido! El contenido es más que solo palabras; es cualquier cosa destinada a ser consumida por los buscadores: hay contenido de video, contenido de imágenes y, por supuesto, texto. Si los motores de búsqueda son contestadoras automáticas, el contenido es el medio por el cual los motores entregan esas respuestas.

Cada vez que alguien realiza una búsqueda, hay miles de resultados posibles, entonces, ¿cómo deciden los motores de búsqueda qué páginas va a encontrar valiosas para el buscador? Una gran parte de determinar dónde se clasificará su página para una consulta determinada es qué tan bien el contenido de su página coincide con la intención de la consulta. En otras palabras, ¿esta página coincide con las palabras que se buscaron y ayuda a completar la tarea que el buscador estaba tratando de lograr?

Debido a este enfoque en la satisfacción del usuario y el cumplimiento de la tarea, no hay puntos de referencia estrictos sobre la extensión que debe tener su contenido, cuántas veces debe contener una palabra clave o qué debe poner en las etiquetas de su encabezado. Todos estos pueden influir en el rendimiento de una página en la búsqueda, pero la atención debe centrarse en los usuarios que leerán el contenido.

Hoy en día, con cientos o incluso miles de señales de clasificación, las tres principales se han mantenido bastante consistentes: enlaces a su sitio web (que sirven como señales de credibilidad de terceros), contenido en la página (contenido de calidad que cumple con la intención de un buscador) y RankBrain.

¿Qué es RankBrain?

RankBrain es el componente de aprendizaje automático del algoritmo central de Google. El aprendizaje automático es un programa informático que continúa mejorando sus predicciones a lo largo del tiempo a través de nuevas observaciones y datos de entrenamiento. En otras palabras, siempre está aprendiendo y, como siempre está aprendiendo, los resultados de búsqueda deberían mejorar constantemente.

Por ejemplo, si RankBrain nota una URL de clasificación más baja que proporciona un mejor resultado para los usuarios que las URL de clasificación más alta, puede apostar a que RankBrain ajustará esos resultados, elevando el resultado más relevante y degradando las páginas menos relevantes como subproducto.

Una imagen que muestra cómo los resultados pueden cambiar y son lo suficientemente volátiles como para mostrar diferentes clasificaciones incluso horas después.

Como la mayoría de las cosas con el motor de búsqueda, no sabemos exactamente qué comprende RankBrain, pero aparentemente, la gente de Google tampoco .

¿Qué significa esto para los SEO?

Debido a que Google continuará aprovechando RankBrain para promover el contenido más relevante y útil, debemos centrarnos en cumplir la intención del buscador más que nunca. Proporcione la mejor información y experiencia posibles para los buscadores que puedan llegar a su página, y usted ha dado un gran primer paso para tener un buen desempeño en un mundo de RankBrain.

Métricas de compromiso: ¿correlación, causalidad o ambas?

Con las clasificaciones de Google, lo más probable es que las métricas de participación sean parte correlación y parte causal.

Cuando decimos métricas de participación, nos referimos a datos que representan cómo los buscadores interactúan con su sitio a partir de los resultados de búsqueda. Esto incluye cosas como:

  • Clics (visitas desde la búsqueda)
  • Tiempo en la página (cantidad de tiempo que el visitante pasó en una página antes de abandonarla)
  • Tasa de rebote (el porcentaje de todas las sesiones del sitio web donde los usuarios vieron solo una página)
  • Pogo-sticking (hacer clic en un resultado orgánico y luego regresar rápidamente al SERP para elegir otro resultado)

Muchas pruebas, incluida la propia encuesta de factores de clasificación de Amarte Agency , han indicado que las métricas de participación se correlacionan con una clasificación más alta, pero la causalidad se ha debatido acaloradamente. ¿Las buenas métricas de participación son solo indicativas de sitios altamente clasificados? ¿O los sitios tienen una clasificación alta porque poseen buenas métricas de participación?

Que ha dicho Google

Si bien nunca han utilizado el término “señal de clasificación directa”, Google ha dejado claro que utilizan absolutamente los datos de clics para modificar el SERP para consultas particulares.

Según el exjefe de calidad de búsqueda de Google , Udi Manber:“La clasificación en sí se ve afectada por los datos de los clics. Si descubrimos que, para una consulta en particular, el 80% de las personas hacen clic en el n. ° 2 y solo el 10% hacen clic en el n. ° 1, después de un tiempo nos damos cuenta de que probablemente el n. ° 2 es el que la gente quiere, así que lo cambiaremos “.

Otro comentario del ex ingeniero de Google Edmond Lau lo corrobora:“Está bastante claro que cualquier motor de búsqueda razonable usaría datos de clics en sus propios resultados para retroalimentar el ranking y mejorar la calidad de los resultados de búsqueda. La mecánica real de cómo se utilizan los datos de clics a menudo es de propiedad exclusiva, pero Google hace evidente que utiliza datos de clics con sus patentes en sistemas como elementos de contenido ajustados por rango “.

Debido a que Google necesita mantener y mejorar la calidad de la búsqueda, parece inevitable que las métricas de participación sean más que una correlación, pero parece que Google no llama a las métricas de participación una “señal de clasificación” porque esas métricas se utilizan para mejorar la calidad de búsqueda, y El rango de las URL individuales es solo un subproducto de eso.

Que pruebas han confirmado

Varias pruebas han confirmado que Google ajustará el orden SERP en respuesta a la participación del buscador:

  • La prueba de Rand Fishkin en 2014 dio como resultado un resultado n. ° 7 que subió al lugar n. ° 1 después de que unas 200 personas hicieran clic en la URL de la SERP. Curiosamente, la mejora de la clasificación parecía estar aislada de la ubicación de las personas que visitaron el enlace. La posición de clasificación se disparó en los EE. UU., Donde se ubicaban muchos participantes, mientras que permaneció más baja en la página en Google Canadá, Google Australia, etc.
  • La comparación de Larry Kim de las páginas principales y su tiempo de permanencia promedio antes y después de RankBrain parecía indicar que el componente de aprendizaje automático del algoritmo de Google degrada la posición de clasificación de las páginas en las que la gente no pasa tanto tiempo.
  • Las pruebas de Darren Shaw también han demostrado el impacto del comportamiento del usuario en la búsqueda local y en los resultados del paquete de mapas.

Dado que las métricas de participación del usuario se utilizan claramente para ajustar los SERP por calidad y clasificar los cambios de posición como un subproducto, es seguro decir que los SEO deben optimizar la participación . El compromiso no cambia la calidad objetiva de su página web, sino su valor para los buscadores en relación con otros resultados de esa consulta. Es por eso que, después de que no haya cambios en su página o sus vínculos de retroceso, podría disminuir su clasificación si el comportamiento de los buscadores indica que les gustan más otras páginas.

En términos de clasificación de páginas web, las métricas de participación actúan como un verificador de hechos. Los factores objetivos, como los enlaces y el contenido, clasifican primero la página, luego las métricas de participación ayudan a Google a ajustarse si no lo hicieron bien.

La evolución de los resultados de búsqueda

Cuando los motores de búsqueda carecían de la sofisticación que tienen hoy en día, se acuñó el término “10 enlaces azules” para describir la estructura plana de las SERP. Cada vez que se realizaba una búsqueda, Google mostraba una página con 10 resultados orgánicos, cada uno en el mismo formato.

Una captura de pantalla de cómo se ve una SERP de 10 enlaces azules.

En este panorama de búsqueda, ocupar el puesto número uno era el santo grial del SEO. Pero entonces sucedió algo. Google comenzó a agregar resultados en nuevos formatos en sus páginas de resultados de búsqueda, llamadas funciones SERP . Algunas de estas características de SERP incluyen:

  • Anuncios pagados
  • Fragmentos destacados
  • La gente también pregunta casillas
  • Paquete local (mapa)
  • Panel de conocimiento
  • Vínculos a sitios

Y Google está agregando nuevos todo el tiempo. Incluso experimentaron con “SERP de resultado cero”, un fenómeno en el que solo se mostraba un resultado del Gráfico de conocimiento en el SERP sin resultados debajo, excepto por una opción para “ver más resultados”.

La adición de estas características causó cierto pánico inicial por dos razones principales. Por un lado, muchas de estas características hicieron que los resultados orgánicos se redujeran aún más en el SERP. Otro subproducto es que menos buscadores hacen clic en los resultados orgánicos, ya que se responden más consultas en el propio SERP.

Entonces, ¿por qué Google haría esto? Todo se remonta a la experiencia de búsqueda. El comportamiento del usuario indica que algunas consultas se satisfacen mejor con diferentes formatos de contenido. Observe cómo los diferentes tipos de características SERP coinciden con los diferentes tipos de intentos de consulta.

Intención de la consultaPosible función SERP activada
InformativoFragmento destacado
Informativo con una respuestaGráfico de conocimiento / respuesta instantánea
LocalPaquete de mapas
TransaccionalCompras

Hablaremos más sobre la intención en el Capítulo 3 , pero por ahora, es importante saber que las respuestas se pueden entregar a los buscadores en una amplia gama de formatos y la forma en que estructura su contenido puede afectar el formato en el que aparece en la búsqueda.

Búsqueda localizada

Un motor de búsqueda como Google tiene su propio índice de listados de empresas locales, a partir del cual crea resultados de búsqueda locales.

Si está realizando un trabajo de SEO local para una empresa que tiene una ubicación física que los clientes pueden visitar (p. Ej., Dentista) o para una empresa que viaja para visitar a sus clientes (p. Ej., Plomero), asegúrese de reclamar, verificar y optimizar una Listado gratuito de Google My Business .

Cuando se trata de resultados de búsqueda localizados, Google utiliza tres factores principales para determinar la clasificación:

  1. Relevancia
  2. Distancia
  3. Prominencia

Relevancia

La relevancia es qué tan bien una empresa local coincide con lo que busca el buscador. Para asegurarse de que la empresa está haciendo todo lo posible para ser relevante para los buscadores, asegúrese de que la información de la empresa esté completa y con precisión.

Distancia

Google utiliza su ubicación geográfica para ofrecerle mejores resultados locales. Los resultados de la búsqueda local son extremadamente sensibles a la proximidad, que se refiere a la ubicación del buscador y / o la ubicación especificada en la consulta (si el buscador incluyó una).

Los resultados de búsqueda orgánicos son sensibles a la ubicación del buscador, aunque rara vez son tan pronunciados como en los resultados de paquetes locales.

Prominencia

Con la prominencia como factor, Google busca recompensar a las empresas que son conocidas en el mundo real. Además de la prominencia fuera de línea de una empresa, Google también busca algunos factores en línea para determinar la clasificación local, como:

Reseñas

La cantidad de reseñas de Google que recibe una empresa local y el sentimiento de esas reseñas tienen un impacto notable en su capacidad para clasificar en los resultados locales.

Citas

Una “cita comercial” o “ficha comercial” es una referencia basada en la web a un “NAP” de una empresa local (nombre, dirección, número de teléfono) en una plataforma localizada (Yelp, Acxiom, YP, Infogroup, Localeze, etc.) .

Las clasificaciones locales están influenciadas por el número y la coherencia de las citas de empresas locales. Google extrae datos de una amplia variedad de fuentes para crear continuamente su índice de empresas locales. Cuando Google encuentra múltiples referencias consistentes al nombre, la ubicación y el número de teléfono de una empresa, fortalece la “confianza” de Google en la validez de esos datos. Esto conduce a que Google pueda mostrar el negocio con un mayor grado de confianza. Google también utiliza información de otras fuentes en la web, como enlaces y artículos.

Ranking orgánico

Las mejores prácticas de SEO también se aplican al SEO local, ya que Google también considera la posición de un sitio web en los resultados de búsqueda orgánicos al determinar la clasificación local.

En el próximo capítulo, aprenderá las mejores prácticas en la página que ayudarán a Google y a los usuarios a comprender mejor su contenido.

[¡Bonificación!] Participación local

Aunque Google no lo incluye como un factor de clasificación local, el papel del compromiso solo aumentará a medida que pase el tiempo. Google continúa enriqueciendo los resultados locales al incorporar datos del mundo real, como los horarios populares para visitar y la duración promedio de las visitas.

Una captura de pantalla del resultado de Preguntas y respuestas en la búsqueda local.

Sin duda, ahora más que nunca, los resultados locales están siendo influenciados por datos del mundo real. Esta interactividad es la forma en que los buscadores interactúan y responden a las empresas locales, en lugar de información puramente estática (y apta para juegos) como enlaces y citas.

Dado que Google desea ofrecer las mejores y más relevantes empresas locales a los buscadores, tiene mucho sentido que utilicen métricas de participación en tiempo real para determinar la calidad y la relevancia.

No es necesario que conozca los entresijos del algoritmo de Google (¡eso sigue siendo un misterio!), Pero a estas alturas debería tener un gran conocimiento básico de cómo el motor de búsqueda encuentra, interpreta, almacena y clasifica el contenido. Armados con ese conocimiento, ¡aprendamos a elegir las palabras clave a las que se dirigirá su contenido en el Capítulo 3 (Investigación de palabras clave) !

Leave a comment

0.0/5


Subscribete

Obtén nuestro contenido en tu bandeja de entrada