Si tienes un sitio eCommerce y no estás usando correctamente el archivo robots.txt, estás desperdiciando una herramienta clave para optimizar el rastreo de los motores de búsqueda. Este pequeño archivo puede marcar la diferencia entre un sitio bien indexado y un caos que dilapida tu presupuesto de rastreo. ¿Quieres que Google priorice tus productos y no tus páginas de administración? Entonces presta atención.
¿Qué es el robots.txt y por qué es esencial en eCommerce?
El robots.txt es un archivo de texto que se ubica en el directorio raíz de tu sitio web (por ejemplo, https://tu-tienda.com/robots.txt
). Su función principal es decirle a los motores de búsqueda qué partes de tu sitio pueden ser rastreadas y cuáles deben ser ignoradas.
- ¿Por qué importa?
- Evita que Google rastree páginas irrelevantes como carritos o secciones administrativas.
- Mejora la eficiencia del rastreo, permitiendo que los bots se enfoquen en lo que realmente importa: tus productos y categorías.
Cómo funciona el robots.txt
- Ubicación:
- Siempre debe estar accesible en
https://tu-tienda.com/robots.txt
.
- Siempre debe estar accesible en
- Directivas comunes:
- User-agent: Especifica a qué bot se aplican las reglas (por ejemplo, Googlebot).
- Disallow: Indica las rutas que los bots no deben rastrear.
- Allow: Permite el acceso a ciertas secciones específicas.
- Sitemap: Proporciona la URL del archivo sitemap para guiar a los bots.
Ejemplo básico:
User-agent: *
Disallow: /checkout/
Disallow: /cart/
Sitemap: https://tu-tienda.com/sitemap.xml
robots.txt según plataformas de eCommerce
1. Shopify: Simplicidad optimizada
Shopify genera un robots.txt por defecto que bloquea áreas sensibles como el carrito y el checkout. Sin embargo, puedes editarlo según tus necesidades.
Configuración recomendada:
User-agent: *
Disallow: /checkout/
Disallow: /cart/
Disallow: /admin/
Disallow: /orders/
Sitemap: https://tu-tienda-shopify.com/sitemap.xml
Por qué funciona:
- Prioriza el rastreo de productos y colecciones.
- Evita que Google indexe páginas transaccionales irrelevantes.
2. VTEX: Automatización con opciones limitadas
En VTEX, el manejo del robots.txt es más restringido, pero puedes personalizarlo desde el panel de administración.
Configuración recomendada:
User-agent: *
Disallow: /admin/
Disallow: /checkout/
Allow: /
Sitemap: https://tu-tienda-vtex.com/sitemap.xml
Ventajas:
- Bloquea páginas administrativas y de pago.
- Permite que Google rastree productos y categorías sin complicaciones.
3. Magento: Flexibilidad total
Magento permite personalizar completamente el robots.txt desde su panel de administración.
Configuración recomendada:
User-agent: *
Disallow: /customer/
Disallow: /checkout/
Disallow: /catalog/product_compare/
Sitemap: https://tu-tienda-magento.com/sitemap.xml
Por qué es útil:
- Bloquea secciones innecesarias como comparaciones de productos.
- Da control total para ajustar las directivas según las necesidades del negocio.
Errores comunes que debes evitar
- Bloquear todo por accidente:
- No uses esto:
User-agent: * Disallow: /
- Esto prohíbe que Google rastree cualquier parte de tu sitio.
- No uses esto:
- Olvidar incluir el sitemap:
- Siempre indica dónde se encuentra tu archivo sitemap.
- No probar los cambios:
- Usa herramientas como Google Search Console para verificar que las reglas funcionan correctamente.
robots.txt: La clave para un rastreo eficiente
Si estás en eCommerce, el archivo robots.txt es tu mejor aliado para evitar que los motores de búsqueda pierdan tiempo en páginas irrelevantes y se concentren en tus productos. Asegúrate de configurarlo correctamente según tu plataforma y necesidades. Porque en SEO, la eficiencia lo es todo
Estratega experto en SEO con más de 12 años de experiencia
Si vas a confiar en alguien para hablar de SEO, que sea alguien que ha estado en las trincheras durante más de una década. Llevo +14 años liderando estrategias de posicionamiento en Google, ayudando a marcas de todos los tamaños a conquistar tráfico, conversiones y ventas.