Introducción
El archivo robots.txt le indica a los buscadores qué pueden y qué no deben rastrear en tu sitio. En tiendas online, configurarlo mal puede provocar indexación de páginas irrelevantes, filtros duplicados o rutas internas no deseadas.
En esta guía te mostramos cómo automatizar la generación del archivo robots.txt desde PHP, adaptándolo dinámicamente a la estructura de tu tienda online (PrestaShop, WooCommerce, etc.).
Índice
- 1. ¿Qué es robots.txt y para qué sirve?
- 2. Errores comunes en tiendas online
- 3. Qué deberías bloquear (y qué no)
- 4. Ejemplo base de archivo robots.txt
- 5. Generar robots.txt desde PHP automáticamente
- 6. Adaptar según tipo de tienda o CMS
- 7. Cómo actualizarlo periódicamente
- 8. Conclusión
1. ¿Qué es robots.txt?
- 📁 Archivo de texto que indica a los bots qué indexar y qué no
- 📍 Se ubica en la raíz del dominio:
https://tudominio.com/robots.txt - 📌 No impide el acceso, solo la indexación
2. Errores comunes en ecommerce
- ❌ Bloquear rutas necesarias como
/img/o/modules/ - ❌ Permitir filtros duplicados:
?orderby=,?category=, etc. - ❌ Indexar páginas de login o carrito
3. Qué rutas bloquear en una tienda
| Ruta | Motivo para bloquear |
|---|---|
| /cart | Evitar indexar carritos vacíos |
| /login | No aporta valor SEO |
| /search | Resultados no relevantes |
| *?orderby=* | Evitar URLs duplicadas por filtros |
4. Ejemplo de robots.txt
User-agent: * Disallow: /cart Disallow: /login Disallow: /search Disallow: /*?orderby= Disallow: /*?tag= Allow: /img/ Sitemap: https://tudominio.com/sitemap.xml
5. Generar el archivo desde PHP
<?php
$bloqueos = [
'/cart',
'/login',
'/search',
'/*?orderby=',
'/*?tag=',
];
$contenido = "User-agent: *\n";
foreach ($bloqueos as $ruta) {
$contenido .= "Disallow: $ruta\n";
}
$contenido .= "Allow: /img/\n";
$contenido .= "Sitemap: https://tudominio.com/sitemap.xml\n";
file_put_contents($_SERVER['DOCUMENT_ROOT'].'/robots.txt', $contenido);
?>✔️ Puedes ejecutarlo desde un cron semanal o al guardar cambios de configuración.
6. Adaptarlo a WooCommerce o PrestaShop
- 📦 Leer estructuras dinámicamente desde MySQL
- 🔁 Detectar URLs con filtros, etiquetas o paginaciones
- 📌 Personalizar el `robots.txt` por idioma o multitienda
7. Cómo actualizarlo automáticamente
- 🕓 Usar
cronsemanal para regenerar el archivo - 🧠 Escuchar hooks en CMS para regenerarlo al crear nueva categoría
- 📤 Sincronizar con el sitemap si cambia la arquitectura
8. Conclusión
El archivo robots.txt no es algo que configures una vez y olvides. Debe evolucionar con tu tienda y su estructura. Automatizar su creación y adaptación garantiza que tu SEO técnico esté siempre optimizado.
📩 ¿Quieres que lo generemos a medida para tu tienda? Escríbenos y te lo dejamos funcionando con reglas dinámicas.

