Quienes se dedican al SEO en Google saben que las herramientas son la palanca de la eficiencia. Tomando como ejemplo Screaming Frog, esta herramienta de rastreo puede completar en 20 minutos el volumen de trabajo de 8 horas manuales: puede rastrear cada URL de tu sitio web y localizar con precisión entre 80 y 120 problemas comunes de SEO (como enlaces rotos 404, títulos duplicados o imágenes sin atributo Alt).
Este artículo te guiará desde la instalación y configuración hasta la implementación de datos, convirtiendo a Screaming Frog en tu “microscopio SEO”.

Table of Contens
ToggleInstalación y Configuración Básica
Instalar Screaming Frog parece una operación sencilla de “hacer clic en siguiente”, pero algunos usuarios han informado que, por no prestar atención a la compatibilidad del sistema, la versión para Mac funciona con lentitud, con una velocidad de rastreo un 40% más lenta de lo normal;
Otros configuran la profundidad de rastreo al azar, lo que resulta en que sitios web pequeños tardan 2 horas y aún no terminan de rastrear las páginas principales.
Preparativos antes de la Instalación
1. Compatibilidad del Sistema
Screaming Frog es compatible con Windows 10/11 (64 bits) y macOS 10.15 o versiones superiores. Si tu computadora tiene Windows 7 o macOS 10.14, al descargar el paquete de instalación aparecerá un mensaje de “incompatible”, y forzar su ejecución podría causar cierres inesperados (según pruebas, la tasa de fallos en usuarios de Win7 es de aproximadamente el 35%).
2. Problemas de Permisos
- Windows: Se recomienda instalar con una cuenta de administrador (clic derecho en el instalador → “Ejecutar como administrador”), de lo contrario, es posible que no pueda escribir los datos de rastreo por falta de permisos (error común: “No se puede guardar el archivo de registro”).
- Mac: ¿Es necesario desactivar la “Protección de integridad del sistema” (SIP)? No, pero la primera vez que se ejecute, es posible que debas ir a “Preferencias del sistema → Seguridad y privacidad” y hacer clic en “Abrir de todos modos”, de lo contrario será bloqueado (cerca del 20% de los usuarios de Mac se quedan trabados en este paso).
3. Entorno de Red
Cierra el software de proxy (como VPN o aceleradores) antes del rastreo; una latencia de red local superior a 200ms reducirá la velocidad de rastreo en un 50% (prueba real: con 200ms de latencia, rastrea 10 URLs por segundo; con 50ms, rastrea 25 URLs por segundo).
Instalación Formal
Sistema Windows
- Visita el sitio oficial de Screaming Frog (www.screamingfrog.co.uk) y haz clic en “Download Free Version” (la versión gratuita es suficiente para sitios pequeños y medianos);
- Selecciona “Windows Installer” y, tras la descarga, haz doble clic para ejecutarlo;
- Sigue las instrucciones para elegir la ruta de instalación (se recomienda la predeterminada en el disco C para evitar la pérdida de archivos de configuración posteriores), marca “Crear acceso directo en el escritorio” y haz clic en “Instalar”;
- Al finalizar, aparecerá un icono de una araña verde en el escritorio; haz doble clic para abrirlo.
Sistema macOS
- Descarga igualmente desde el sitio oficial seleccionando “macOS DMG”;
- Haz doble clic en el archivo .dmg descargado y arrastra el icono de “Screaming Frog SEO Spider” a la carpeta “Aplicaciones”;
- Al abrirlo por primera vez, el sistema podría indicar que “no se puede abrir porque proviene de un desarrollador no identificado”. Ve a “Preferencias del sistema → Seguridad y privacidad” y haz clic en “Abrir de todos modos”.
4 Configuraciones Básicas
Tras la instalación, la primera vez que abras el software deberás configurar los parámetros de la “araña” (Spider).
Si los configuras mal, los datos del rastreo posterior podrían no servir para nada.
Agente de Usuario (User Agent)
- Función: Indica al servidor del sitio “quién soy”. El agente de usuario del rastreador de Google es “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”.
- Método de configuración: Haz clic en el menú superior “Configuración → Spider”, y en el desplegable de “User Agent” selecciona “Googlebot” (por defecto es “Screaming Frog”).
- Por qué es importante: Si usas el agente por defecto, algunos sitios bloquearán el rastreo (por ejemplo, con un “Disallow: /screamingfrog”), impidiendo capturar contenido; usar “Googlebot” simula al rastreador real de Google, obteniendo datos de rastreo más cercanos a la realidad (prueba real: tras el cambio, la tasa de éxito de rastreo en un sitio de ecommerce subió del 65% al 92%).
Profundidad de Rastreo (Crawl Depth)
- Definición: A partir de la página de inicio, cuántos niveles de clics rastrear (por ejemplo: Inicio → Categoría → Producto son 3 niveles).
- Sugerencias:
- Sitios pequeños/medianos (≤1000 páginas): Configura 5 niveles (cubre más del 90% de las páginas principales);
- Sitios grandes (>1000 páginas): Configura 10 niveles, pero combínalo con “Limitar cantidad de rastreo” (ver abajo) para evitar tiempos excesivos.
Limitar Cantidad de Rastreo (Max URLs to Crawl) •
- Función: Evita que el software rastree indefinidamente debido a un exceso de enlaces (como foros o páginas de scroll infinito).
- Método de configuración: En “Configuración → Spider”, marca “Limit number of URLs to crawl” e ingresa un valor específico (se sugiere 5000-10000 para sitios medianos, no más de 50,000 para sitios grandes).
- Consecuencias de no configurarlo: Un usuario rastreó un sitio de ecommerce con parámetros dinámicos en “productos recomendados”; por no limitar la cantidad, el software rastreó durante 24 horas y capturó 230,000 URLs (el 80% eran páginas de detalles de producto duplicadas).
Excluir Parámetros (Exclude Parameters)
- Problema: Muchas URLs de sitios llevan parámetros innecesarios (ej. ?utm_source=weibo), que no afectan el contenido pero que Screaming Frog identifica como URLs distintas, causando rastreos duplicados.
- Método de configuración: Haz clic en “Configuración → Excluir” y, en “Query Parameters”, introduce los parámetros a filtrar (separados por comas).
- Efecto: Un sitio educativo redujo sus URLs rastreadas de 12,000 a 4,500 tras filtrar 12 parámetros de seguimiento, reduciendo el tiempo de rastreo en un 40%.
Realiza un “Pequeño Rastreo” de prueba con la Home
Antes de rastrear todo el sitio, introduce la URL de inicio y haz una prueba de rango pequeño (límite de 100 URLs) para verificar 3 cosas:
- ¿Faltan páginas clave?: Verifica si se rastrearon secciones como “Sobre nosotros” o “Contacto” (búscalas en el informe “Internal”);
- ¿Hay URLs duplicadas?: En el informe “URL”, observa si hay diferentes versiones con parámetros de una misma página;
- ¿Se disparan errores 404?: Revisa el informe “Response Codes” para confirmar que no estás rastreando páginas eliminadas.
Iniciar un Rastreo Básico Rápidamente
Muchos creen que “hacer clic en empezar” es todo, pero en la práctica el 30% de las personas obtienen datos inválidos por ignorar detalles.
3 Verificaciones antes de Empezar
1. Confirmar configuraciones básicas terminadas (Agente de usuario, profundidad, exclusión de parámetros).
2. Probar la estabilidad de la red (Latencia ideal ≤100ms).
3. Confirmar que el sitio destino es accesible (Evitar errores 403 o bloqueos de sesión).
Operación en 4 Pasos (Resultados en 10 minutos)
1. Ingresar URL destino: Debe ser la URL completa (incluyendo http:// o https://).
2. Configurar limitaciones (Sugerido): Limitar el número máximo de URLs para evitar bucles infinitos.
3. Hacer clic en “Start” y observar el estado en tiempo real.
4. Manejo de problemas a mitad de camino (Si se detiene, verificar red o cambiar el User Agent).
Interpretación de Informes SEO (Enfócate en estos 6)
En SEO se dice que “los datos no mienten”, pero de las docenas de informes, la información que afecta el ranking de Google está en estos 6.
Informe de Códigos de Respuesta
Registra el código de estado HTTP de cada página. Si el código es incorrecto, el rastreador podría omitir tu página por completo.
- 200 (Normal): Debe ser >85%.
- 404 (Enlace roto): Exportar lista y corregir o redireccionar (301).
Informe de Longitud y Estructura de URL
El rastreador de Google tiene una “paciencia” limitada con URLs largas. Cuanto más larga es la URL, menor es la probabilidad de ser rastreada por completo.
Informe de Etiquetas de Título
El título es la base principal de Google para juzgar el tema de la página. Títulos duplicados o inválidos bajarán tu posición directamente.
Informe de Meta Descripciones
No afectan directamente el ranking, pero deciden si el usuario hace clic o no (Google las usa para coincidir con la intención de búsqueda).
Informe de Etiqueta H1
El H1 es el título principal de la página. Google lo usa para determinar el contenido central (lo ideal es tener solo un H1 por página).
Informe de Atributo Alt de Imagen
El atributo Alt es la descripción textual de la imagen. Su ausencia o el relleno de palabras clave desperdicia tráfico de búsqueda de imágenes.
Revisión Masiva de Enlaces Internos
Hemos comprobado que sitios que no revisan sus enlaces internos tienen entre un 15 y 20% de páginas sin indexar correctamente; al corregirlos, el rastreo aumenta más del 30%.
Enlaces Internos Rotos
Se refieren a enlaces dentro del sitio que apuntan a páginas 404. El usuario abandonará el sitio al hacer clic y el rastreador reducirá la frecuencia de rastreo al encontrar errores.
Páginas Huérfanas
Son páginas con contenido pero sin ningún enlace interno que apunte a ellas. Tienen un 60% menos de probabilidad de ser indexadas.
Concentración de Autoridad
Ocurre cuando la Home o pocas páginas tienen demasiados enlaces, dispersando la “energía” del rastreador y restando oportunidades a páginas de productos o artículos de blog.
3 Consejos para el Procesamiento por Lotes
- Usa Excel para filtrar problemas frecuentes: Identifica páginas de origen que apuntan repetidamente a errores.
- Prioriza enlaces en páginas de alta autoridad: Repara primero los errores en la Home y categorías principales.
- Revisiones periódicas: Rastra cada dos semanas para asegurar que la estructura siga saludable.
Finalmente, las herramientas son solo ayuda; el núcleo del ranking en Google siempre será el “contenido que el usuario necesita“






