Quem faz SEO no Google sabe que as ferramentas são a alavanca da eficiência. Tomando o Screaming Frog como exemplo, esta ferramenta de rastreamento pode completar em 20 minutos o volume de trabalho que levaria 8 horas manuais: ela consegue rastrear cada URL do seu site, localizando com precisão de 80 a 120 problemas comuns de SEO (como links quebrados 404, títulos duplicados e imagens sem atributo Alt).
Este artigo guia você desde a instalação e configuração até a aplicação dos dados, transformando o Screaming Frog em seu “microscópio de SEO”.

Table of Contens
ToggleInstalação e Configurações Básicas
Instalar o Screaming Frog parece uma operação simples de “clicar em próximo”, mas há relatos de usuários que, por não prestarem atenção à compatibilidade do sistema, fizeram a versão para Mac rodar com travamentos, com uma velocidade de rastreamento 40% menor que o normal;
Outros configuraram a profundidade de rastreamento de forma aleatória e acabaram levando 2 horas para rastrear um site pequeno sem sequer capturar as páginas principais.
Preparação antes da Instalação
1. Compatibilidade do Sistema
O Screaming Frog suporta Windows 10/11 (64 bits) e macOS 10.15 ou superior. Se o seu computador for Windows 7 ou macOS 10.14, o download do instalador indicará “incompatível”, e forçar a execução pode causar falhas (em testes reais, a taxa de travamento para usuários de Win7 é de cerca de 35%).
2. Problemas de Permissão
- Windows: Recomenda-se instalar com uma conta de administrador (botão direito no instalador → “Executar como administrador”), caso contrário, pode não ser possível gravar os dados rastreados por falta de permissão (erro comum: “não foi possível salvar o arquivo de log”).
- Mac: É necessário desativar a “Proteção de Integridade do Sistema” (SIP)? Não, mas na primeira execução pode ser necessário clicar em “Abrir mesmo assim” em “Preferências do Sistema → Segurança e Privacidade”, caso contrário, será bloqueado (cerca de 20% dos usuários de Mac travam nesta etapa).
3. Ambiente de Rede
Desative softwares de proxy (como VPN e aceleradores) antes de rastrear; uma latência de rede local superior a 200ms fará com que a velocidade de rastreamento caia 50% (teste real: com 200ms de latência, rastreia-se 10 URLs por segundo; com 50ms, rastreia-se 25 URLs por segundo).
Instalação Oficial
Sistema Windows
- Acesse o site oficial do Screaming Frog (www.screamingfrog.co.uk) e clique em “Download Free Version” (a versão gratuita é suficiente para sites de pequeno e médio porte);
- Selecione “Windows Installer” e clique duas vezes para executar após a conclusão do download;
- Siga as instruções para escolher o caminho de instalação (recomenda-se o padrão no disco C para evitar perda de arquivos de configuração em caminhos personalizados), marque “Criar atalho na área de trabalho” e clique em “Instalar”;
- Após a conclusão, um ícone de aranha verde aparecerá na área de trabalho; clique duas vezes para abrir.
Sistema macOS
- Faça o download no mesmo site oficial, selecionando “macOS DMG”;
- Clique duas vezes no arquivo .dmg baixado e arraste o ícone “Screaming Frog SEO Spider” para a pasta “Aplicativos”;
- Ao abrir pela primeira vez, o sistema pode informar que “não pode ser aberto por ser de um desenvolvedor não identificado”. Vá em “Preferências do Sistema → Segurança e Privacidade” e clique em “Abrir mesmo assim”.
4 Configurações Básicas
Após a instalação, ao abrir o software pela primeira vez, é necessário configurar os parâmetros da “Aranha” (Spider).
Se configurado incorretamente, os dados rastreados posteriormente podem ser totalmente inúteis.
User Agent (Agente do Usuário)
- Função: Diz ao servidor do site “quem sou eu”. O User Agent do rastreador do Google é “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”.
- Como configurar: Clique no menu superior 「Configuração → Spider」, e na caixa de seleção “User Agent” escolha “Googlebot” (o padrão é “Screaming Frog”).
- Por que é importante: Se você usar o User Agent padrão do “Screaming Frog”, alguns sites bloquearão o rastreador (por exemplo, configurando “Disallow: /screamingfrog”), resultando em falha na captura de conteúdo; usar “Googlebot” permite simular o rastreador real do Google, obtendo dados de rastreamento mais próximos da realidade (teste real: após a troca, a taxa de sucesso de rastreamento de um site de e-commerce subiu de 65% para 92%).
Profundidade de Rastreamento (Crawl Depth)
- Definição: Começando pela página inicial, quantos níveis de cliques de links seguir (por exemplo, Home → Categoria → Produto são 3 níveis).
- Sugestões de Configuração:
- Sites pequenos e médios (≤1000 páginas): ajuste para 5 níveis (cobre mais de 90% das páginas principais);
- Sites grandes (>1000 páginas): ajuste para 10 níveis, mas deve ser combinado com “Limitar quantidade de rastreamento” (veja abaixo) para evitar tempo de rastreamento excessivo (10 níveis podem estender o tempo de 10 minutos para 1 hora).
Limitar Quantidade de URLs (Max URLs to Crawl)
- Função: Evita que o software rastreie infinitamente devido ao excesso de links no site (como fóruns ou páginas de rolagem infinita).
- Como configurar: Em 「Configuração → Spider」 marque “Limit number of URLs to crawl” e insira o valor específico (recomenda-se 5000-10000 para sites médios, não excedendo 50 mil para sites grandes).
- Consequência de não configurar: Um usuário rastreou um site de e-commerce com links dinâmicos de “produtos recomendados”. Por não limitar a quantidade, o software rodou por 24 horas e capturou 230 mil URLs (das quais 80% eram páginas de detalhes de produtos duplicadas).
Excluir Parâmetros (Exclude Parameters)
- Problema: Muitos URLs de sites possuem parâmetros extras (ex: ?utm_source=weibo, ?page=2). Estes parâmetros não afetam o conteúdo, mas o Screaming Frog os reconhece como URLs diferentes, causando rastreamento duplicado (ex: “Página de Produto” e “Página de Produto?page=2” seriam contadas como 2 URLs).
- Como configurar: Clique em 「Configuração → Excluir」 e em “Query Parameters” insira os parâmetros a serem filtrados (separados por vírgula), como “utm_source,utm_medium,page”.
- Efeito: Um site educacional filtrou 12 parâmetros de rastreamento e o número de URLs capturadas caiu de 12 mil para 4500, reduzindo o tempo de rastreamento em 40%.
Executar um “Pequeno Rastreamento” na Home
Após configurar, não tenha pressa de rastrear o site todo — insira a URL da home e clique em “Start” para um teste de pequeno alcance (limite de 100 URLs), verificando 3 coisas:
- Se páginas críticas foram esquecidas: por exemplo, se o “Quem Somos” ou “Fale Conosco” da navegação principal foram capturados (pesquise por palavras-chave no relatório 「Internal」);
- Se há URLs duplicadas: no relatório 「URL」, veja se existem versões com parâmetros diferentes para a mesma página;
- Se dispara erro 404: verifique os códigos de status 404 em 「Response Codes」 para confirmar que não está rastreando páginas deletadas.
Se encontrar problemas, volte em 「Configuração」 para ajustar os parâmetros e teste novamente.
Iniciando Rapidamente um Rastreamento Básico
Muitos pensam que “clicar em iniciar” é tudo, mas na prática 30% das pessoas invalidam seus dados por ignorarem detalhes.
Por exemplo: alguém iniciou sem checar a rede e travou no meio por latência alta; outro não limitou e o software ficou 2 horas capturando duplicatas; outro errou o formato da URL e obteve “0 resultados”.
3 Verificações Antes de Iniciar
1. Confirmar se as configurações básicas foram feitas
- User Agent: Deve ser “Googlebot” (verifique em 「Configuração → Spider」), senão o site pode bloquear o rastreador.
- Profundidade: Ajuste conforme o tamanho do site (5 níveis para pequenos/médios, 10 para grandes).
- Excluir Parâmetros: Filtre parâmetros inúteis (ex: ?utm_source) para evitar URLs duplicadas.
2. Testar a Estabilidade da Rede
- Latência: O ideal é ≤100ms até o site alvo (teste com o comando 「ping domínio」).
- Evitar Interferências: Desative VPNs, aceleradores ou ferramentas de download.
3. Confirmar se o Site Alvo está Acessível
- Insira a URL diretamente no navegador (ex: https://example.com) para checar se abre normalmente.
- Se o site tiver restrições de login, saia da conta previamente (o Screaming Frog não lida com estados de login e capturará páginas em branco ou erros 403).
Operação em 4 Passos, Resultado em 10 Minutos
1. Inserir URL Alvo
- Formato: Deve inserir a URL completa (com http:// ou https://), senão o software dará erro.
2. Definir Condições Limite (Opcional mas Recomendado)
- Limitar URLs: Em 「Configuração → Spider」 marque “Limit number of URLs to crawl” (ex: 5000-10000).
- Excluir Páginas Específicas: Adicione regras em 「Configuração → Excluir」 para evitar áreas irrelevantes como “/admin/”.
3. Clicar em “Iniciar” e Observar o Status em Tempo Real
- Barra de Progresso: Verde=Normal, Amarelo=Lento, Vermelho=Travado.
- Barra de Status: Mostra URLs capturadas e velocidade (URL/seg).
4. Tratamento de Problemas no Meio do Caminho
- Se Travar: Cheque a rede, tente interromper e reiniciar, ou mude o User Agent para “Bingbot” se houver bloqueios 403.
Rastreamento Concluído
Ao final, o software avisará “Crawl Complete”. Faça estas 3 coisas para validar a qualidade:
1. Veja se o total de URLs é razoável.
2. Confira se as páginas principais foram capturadas.
3. Verifique se há muitos códigos de erro (404, 500, 301).
Interpretação de Relatórios de SEO (Foque nestes 6)
Quem faz SEO diz que “dados não mentem”, mas entre dezenas de relatórios, as informações que impactam o ranking no Google estão nestes 6.
Estatísticas mostram que: resolver estes 6 problemas permite que sites pequenos aumentem a taxa de indexação de 65% para 85%, com crescimento médio de 20% no tráfego orgânico.
Relatório de Códigos de Resposta
Registra o código HTTP de cada página. Se o código estiver errado, o rastreador pode simplesmente pular sua página.
- 200 (Normal): Deve ser >85%. Se menor que 80%, muitas páginas podem estar bloqueadas ou com erro.
- 404 (Link Quebrado): Exporte a lista, cheque a origem e remova o link ou faça um redirecionamento 301.
- 301/302 (Redirecionamento): Fique alerta se for >5%. Use preferencialmente 301 para passar autoridade.
Relatório de Comprimento e Estrutura de URL
O Google tem “paciência” limitada para URLs longas. Quanto mais longa a URL, menor a chance de ser rastreada completamente.
- Distribuição de Comprimento: O ideal é <80 caracteres. Acima de 100 caracteres deve ser otimizado.
- Parâmetros Dinâmicos: URLs com mais de 3 parâmetros devem ser simplificadas ou estáticas.
Relatório de Tags de Título
O título é a base central para o Google julgar o tema da página. Títulos duplicados ou inválidos podem baixar seu ranking diretamente.
- Taxa de Duplicidade: Garanta que cada página de produto tenha um título único.
- Comprimento: O ideal é entre 50-60 caracteres para evitar cortes no Google.
Relatório de Meta Descrição
A meta descrição não afeta o ranking diretamente, mas decide se o usuário clica na sua página.
- Taxa de Ausência: Páginas sem descrição dependem do Google gerar uma, o que é instável.
- Otimização: Mantenha entre 150-160 caracteres com informações relevantes como “Frete Grátis”.
Relatório de Tags H1
H1 é o título principal da página. O Google usa o H1 para julgar o conteúdo central (o ideal é ter apenas 1 H1 por página).
- Anomalias: Corrija páginas sem H1 ou com múltiplos H1s que confundem o tema.
- Relevância: Garanta que o H1 corresponda ao conteúdo real da página.
Relatório de Atributos Alt de Imagem
O atributo Alt é a descrição textual da imagem. A falta dele desperdiça tráfego de busca por imagens.
- Taxa de Ausência: Geralmente 40-50% das fotos de produtos não possuem Alt.
- Ação: Adicione descrições naturais e evite excesso de palavras-chave.
Verificação em Lote de Problemas de Links Internos
Sites que não verificam links internos têm, em média, 15-20% das páginas não indexadas por problemas de linkagem.
Links Internos Quebrados
Referem-se a links dentro do site apontando para páginas deletadas (404). Isso causa a saída do usuário e faz o rastreador diminuir a frequência de captura.
- Fontes comuns: Menu de navegação, recomendações de artigos antigos, comentários.
- Ação: Remova links mortos ou substitua-os por URLs válidas.
Páginas Órfãs
Páginas com conteúdo mas sem nenhum link interno apontando para elas. A chance de indexação é 60% menor que páginas com links.
- Detecção: Filtre por “Linked From=0” no relatório de 「Indexability」.
- Ação: Adicione links internos em categorias ou artigos populares para estas páginas.
Concentração de Autoridade
Ocorre quando a home ou poucas páginas têm links excessivos, dispersando a “energia” do rastreador e diminuindo as chances de rastreamento de outras páginas importantes.
- Manifestação: Home com mais de 50 links de saída (o ideal é 20-30).
- Ação: Simplifique menus, mova links secundários para o rodapé ou menus suspensos.
3 Dicas para Processamento em Lote
- Use Excel para filtrar problemas frequentes: Identifique páginas de origem que apontam repetidamente para erros.
- Priorize links em páginas de alta autoridade: Foque primeiro na home e páginas de categoria.
- Revisão Periódica: Rastreie a cada duas semanas para garantir que a estrutura permaneça saudável.
Finalmente, ferramentas são apenas auxílios; o núcleo do ranking no Google será sempre o “conteúdo que o usuário precisa“






