구글 SEO를 하는 사람이라면 누구나 도구가 효율의 지렛대라는 것을 알고 있습니다. Screaming Frog를 예로 들면, 이 크롤링 도구는 20분 만에 수작업 8시간 분량의 업무를 완료할 수 있습니다. 웹사이트의 모든 URL을 수집하여 80-120개의 일반적인 SEO 문제(예: 404 데드링크, 중복 타이틀, Alt 속성이 누락된 이미지 등)를 정확하게 찾아냅니다.
이 글에서는 설치 및 설정부터 데이터 활용까지, Screaming Frog를 당신의 “SEO 현미경”으로 만드는 방법을 안내합니다.

Table of Contens
Toggle설치 및 기본 설정
Screaming Frog 설치는 “다음 버튼을 몇 번 누르는 것”처럼 간단해 보이지만, 설치 시 시스템 호환성을 고려하지 않아 Mac 버전 소프트웨어가 느려지거나 크롤링 속도가 정상보다 40% 느려졌다는 사용자 피드백이 있습니다.
또한 크롤링 깊이를 임의로 설정하여 작은 웹사이트인데도 2시간 동안 핵심 페이지를 다 수집하지 못하는 경우도 있습니다.
설치 전 준비사항
1. 시스템 호환성
Screaming Frog는 Windows 10/11(64비트)과 macOS 10.15 이상 버전을 지원합니다. 만약 컴퓨터가 Windows 7 또는 macOS 10.14라면, 설치 파일을 다운로드할 때 “호환되지 않음” 메시지가 뜨며, 강제로 실행할 경우 충돌이 발생할 수 있습니다(실제 테스트 결과 Win7 사용자의 충돌률은 약 35%입니다).
2. 권한 문제
- Windows: 관리자 계정으로 설치하는 것이 좋습니다(설치 파일 우클릭 → “관리자 권한으로 실행”). 그렇지 않으면 권한 부족으로 크롤링 데이터를 기록하지 못할 수 있습니다(일반적인 오류: “로그 파일을 저장할 수 없습니다”).
- Mac: “시스템 무결성 보호(SIP)”를 꺼야 하나요? 아니요, 하지만 처음 실행할 때 “시스템 설정 → 보안 및 개인정보 보호”에서 “확인 없이 열기”를 클릭해야 할 수도 있습니다. 그렇지 않으면 실행이 차단될 수 있습니다(약 20%의 Mac 사용자가 이 단계에서 막힙니다).
3. 네트워크 환경
크롤링 전에 프록시 소프트웨어(VPN, 가속기 등)를 종료하세요. 로컬 네트워크 지연 시간이 200ms를 초과하면 크롤링 속도가 50% 저하됩니다(실측: 200ms 지연 시 초당 10개 수집, 50ms 지연 시 초당 25개 수집).
정식 설치
Windows 시스템
- Screaming Frog 공식 홈페이지(www.screamingfrog.co.uk)에 접속하여 “Download Free Version”을 클릭합니다(무료 버전으로도 중소형 사이트에는 충분합니다).
- “Windows Installer”를 선택하고 다운로드가 완료되면 더블 클릭하여 실행합니다.
- 안내에 따라 설치 경로를 선택합니다(기본값인 C 드라이브를 권장하며, 사용자 정의 경로 설정 시 구성 파일이 유실될 수 있습니다). “바탕화면 바로가기 만들기”를 체크하고 “설치”를 클릭합니다.
- 설치가 완료되면 바탕화면에 초록색 거미 아이콘이 나타납니다. 더블 클릭하여 엽니다.
macOS 시스템
- 마찬가지로 공식 홈페이지에서 “macOS DMG”를 선택하여 다운로드합니다.
- 다운로드한 .dmg 파일을 더블 클릭하고 “Screaming Frog SEO Spider” 아이콘을 “응용 프로그램” 폴더로 드래그합니다.
- 처음 열 때 시스템에서 “확인되지 않은 개발자이므로 열 수 없습니다”라는 메시지가 뜨면 “시스템 설정 → 보안 및 개인정보 보호”에서 “확인 없이 열기”를 클릭하면 됩니다.
4가지 기초 설정
설치 완료 후 소프트웨어를 처음 열 때 “거미(Spider)” 파라미터를 구성해야 합니다.
설정을 잘못하면 이후 크롤링한 데이터가 모두 무용지물이 될 수 있습니다.
사용자 에이전트(User Agent)
- 역할: 웹사이트 서버에 “내가 누구인지”를 알려줍니다. 구글 크롤러의 사용자 에이전트는 “Mozilla/5.0 (compatible; Googlebot/2.1; +[http://www.google.com/bot.html](http://www.google.com/bot.html))”입니다.
- 설정 방법: 상단 메뉴 [Configuration → Spider]를 클릭하고 “User Agent” 드롭다운 상자에서 “Googlebot”을 선택합니다(기본값은 “Screaming Frog”입니다).
- 중요한 이유: 기본값인 “Screaming Frog”를 사용하면 일부 웹사이트에서 크롤러를 차단할 수 있습니다(예: “Disallow: /screamingfrog” 설정). “Googlebot”을 사용하면 실제 구글 크롤러를 시뮬레이션하여 실제와 더 가까운 데이터를 얻을 수 있습니다(실측: 전환 후 한 이커머스 사이트의 크롤링 성공률이 65%에서 92%로 상승했습니다).
크롤링 깊이(Crawl Depth)
- 정의: 메인 페이지부터 최대 몇 단계의 링크까지 클릭할 것인지 설정합니다(예: 홈 → 카테고리 → 제품 페이지는 3단계).
- 설정 권장사항:
- 중소형 웹사이트(페이지 수 1,000개 이하): 5단계로 설정(핵심 페이지의 90% 이상 커버 가능).
- 대형 웹사이트(페이지 수 1,000개 초과): 10단계로 설정하되, 크롤링 시간이 너무 길어지는 것을 방지하기 위해 아래의 “크롤링 수량 제한”과 함께 사용해야 합니다(10단계 설정 시 크롤링 시간이 10분에서 1시간으로 늘어날 수 있습니다).
크롤링 수량 제한(Max URLs to Crawl) •
- 역할: 웹사이트 링크가 너무 많아(예: 포럼, 무한 스크롤 페이지 등) 소프트웨어가 멈추지 않고 계속 크롤링하는 것을 방지합니다.
- 설정 방법: [Configuration → Spider]에서 “Limit number of URLs to crawl”을 체크하고 구체적인 수치를 입력합니다(중소형 사이트는 5,000-10,000개, 대형 사이트는 50,000개 이하 권장).
- 설정하지 않았을 때의 결과: “추천 상품” 동적 링크가 있는 쇼핑몰을 크롤링할 때 수량을 제한하지 않아 24시간 동안 크롤링이 진행되었고, 결국 23만 개의 URL이 수집되었습니다(그중 80%가 중복된 상품 상세 페이지였습니다).
매개변수 제외(Exclude Parameters)
- 문제: 많은 웹사이트 URL에 불필요한 매개변수(예: ?utm_source=weibo, ?page=2)가 포함되어 있습니다. 이는 콘텐츠에 영향을 주지 않지만 Screaming Frog는 이를 서로 다른 URL로 인식하여 중복 수집하게 됩니다(예: “제품 페이지”와 “제품 페이지?page=2″를 2개의 URL로 계산).
- 설정 방법: [Configuration → Exclude]를 클릭하고 “Query Parameters”에 필터링할 매개변수를 쉼표로 구분하여 입력합니다(예: “utm_source,utm_medium,page”).
- 효과: 한 교육 사이트에서 12개의 추적 매개변수를 필터링한 후 크롤링된 URL 수량이 1.2만 개에서 4,500개로 줄어들었고, 크롤링 시간도 40% 단축되었습니다.
메인 페이지로 “테스트 크롤링” 실행하기
설치가 완료되었다고 바로 전체 사이트를 크롤링하지 마세요. 먼저 메인 페이지 URL을 입력하고 “Start”를 눌러 소규모 테스트(수량 제한 100개)를 진행하며 다음 3가지를 확인하세요.
- 핵심 페이지 누락 여부: 메인 메뉴의 “회사 소개”, “문의하기” 등이 제대로 수집되었는지 확인합니다([Internal] 보고서에서 키워드 검색).
- 중복 URL 여부: [URL] 보고서에서 동일한 페이지가 매개변수 버전만 다르게 존재하는지 확인합니다(예: “/product”와 “/product?color=red”).
- 404 발생 여부: [Response Codes]에서 404 상태 코드를 확인하여 이미 삭제된 페이지(예: 예전 이벤트 페이지)가 수집되지 않았는지 확인합니다.
문제가 발견되면 [Configuration]으로 돌아가 파라미터(예: 크롤링 깊이 증가, 제외 매개변수 추가 등)를 조정한 후 다시 테스트하세요.
기본 크롤링 신속하게 시작하기
많은 사람들이 “시작 버튼 클릭”이 크롤링의 전부라고 생각하지만, 실제로는 30%의 사용자가 세부 사항을 간과하여 데이터가 무효화되기도 합니다.
예를 들어, 네트워크 확인 없이 시작했다가 높은 지연 시간 때문에 중간에 멈추거나, 제한을 설정하지 않아 2시간 동안 중복 수집만 하는 경우, 혹은 잘못된 URL 형식을 입력하여 “결과 0개”를 얻는 경우가 있습니다.
시작 전 3가지 체크리스트
1. 기본 설정 완료 여부 확인
- 사용자 에이전트: 반드시 “Googlebot”으로 설정해야 합니다([Configuration → Spider]에서 확인). 그렇지 않으면 웹사이트에서 차단될 수 있습니다(실측: 설정 전 어느 기업 홈페이지 크롤링 성공률 45% → 설정 후 90%로 상승).
- 크롤링 깊이: 웹사이트 규모에 맞게 조정합니다(중소형 5단계, 대형 10단계). 너무 얕으면 핵심 페이지를 놓치고, 너무 깊으면 시간이 낭비됩니다.
- 매개변수 제외: 불필요한 추적 매개변수(?utm_source 등)를 필터링하여 중복 URL을 줄입니다(필터링하지 않았을 때 한 쇼핑몰의 URL 수량이 실제보다 3배 많았습니다).
2. 네트워크 안정성 테스트
- 지연 시간 요구사항: 로컬에서 대상 웹사이트까지의 지연 시간이 100ms 이하인 것이 좋습니다(「ping 대상 도메인」 명령어로 테스트).
- 지연 시간 100ms 이하: 초당 20-30개 URL 수집 가능.
- 지연 시간 100-200ms: 초당 10-15개 수집.
- 지연 시간 200ms 초과: 초당 10개 미만 수집으로 크롤링 시간이 두 배로 늘어납니다(예: 1,000개 URL 기준 저지연 시 10분, 고지연 시 25분 소요).
- 간섭 방지: VPN, 가속기 혹은 다운로드 도구를 종료하세요(실측: 다운로드 프로그램 실행 시 크롤링 속도 60% 저하).
3. 대상 웹사이트 접속 가능 여부 확인
- 브라우저에 대상 URL(예: [https://example.com](https://example.com))을 직접 입력하여 정상적으로 열리는지 확인합니다(“403 Forbidden” 페이지 크롤링 방지).
- 로그인 제한이 있는 웹사이트(회원제 시스템 등)는 미리 로그아웃해야 합니다(Screaming Frog는 로그인 상태를 처리하지 못해 빈 페이지나 403 오류를 수집하게 됩니다).
4단계 조작으로 10분 만에 결과 얻기
1. 대상 URL 입력
- 형식 요구사항: 반드시 전체 URL(http:// 또는 https:// 포함)을 입력해야 합니다. 그렇지 않으면 “Invalid URL” 오류가 발생합니다.
- 예시: 올바른 입력 「[https://www.example.com](https://www.example.com)」, 잘못된 입력 「[www.example.com](https://www.example.com)」 또는 「example.com」.
- 다중 도메인 처리: 여러 관련 도메인(예: PC 버전과 모바일 버전)을 크롤링해야 할 경우 각각 별도로 시작해야 합니다(Screaming Frog는 한 번에 하나의 도메인만 크롤링 가능).
2. 제한 조건 설정 (선택 사항이지만 권장)
- 크롤링 수량 제한: [Configuration → Spider]에서 “Limit number of URLs to crawl”을 체크하고 수치를 입력합니다(중소형 사이트 5,000-10,000개, 대형 사이트 50,000개 이하 권장).
- 역할: 동적 링크(“더 보기” 등)로 인한 무한 크롤링을 방지합니다(설정하지 않아 24시간 동안 23만 개의 중복 페이지를 수집한 사례가 있습니다).
- 특정 페이지 제외: [Configuration → Exclude]에서 “Disallow” 규칙(예: “/admin/” 관리자 페이지)을 추가하여 불필요한 콘텐츠 수집을 피합니다.
3. “Start” 클릭 및 실시간 상태 관찰
- 진행 표시줄: 상단 막대에서 전체 진행도를 보여줍니다(녹색=정상, 노란색=느려짐, 빨간색=멈춤).
- 상태 표시줄: 우측 하단에 “X개 수집됨, Y개 대기 중, 속도 Z개/초”가 표시됩니다.
- 정상 상황: 저지연 환경에서 속도가 초당 10-30개로 안정적입니다.
- 이상 상황: 속도가 갑자기 0 또는 초당 1개로 떨어지면 서버 제한(“크롤링 방지 기제” 발동 등)이나 네트워크 문제일 수 있습니다.
4. 도중 문제 해결
- 멈춤 현상:
- 네트워크 확인: 대상 도메인에 다시 ping을 날려 지연 시간이 갑자기 높아졌는지 확인합니다.
- 수동 중단: [Stop] 버튼을 클릭하고 10초 대기 후 다시 시작합니다(일부 서버는 IP를 임시 차단하며, 재시작 시 회복될 수 있습니다).
- 제한 우회: “403 Forbidden” 페이지가 나오면 [Configuration → Spider]에서 사용자 에이전트를 “Bingbot”으로 변경해 보세요(일부 사이트는 Bingbot에 대해 제한이 느슨합니다).
크롤링 완료
크롤링이 끝나면 소프트웨어에 “Crawl Finished” 알림이 뜹니다. 이때 데이터 품질 확인을 위해 3가지를 수행해야 합니다.
1. 총 수집 수량이 합리적인지 확인
- 계산 방법: 중소형 사이트(100페이지 이내)는 보통 50-200개, 중대형 사이트(1,000페이지 이내)는 500-3,000개가 수집됩니다(링크 복잡도에 따라 다름).
- 이상 상황:
- 수집 수량 = 0: URL 형식 오류, 네트워크 단절, 혹은 사이트에서 Googlebot을 차단했을 가능성이 있습니다.
- 수집 수량이 예상보다 훨씬 적음: 크롤링 깊이가 너무 얕게 설정되었거나(예: 2단계인데 핵심 페이지가 3단계에 있음), robots.txt에 의해 차단되었을 수 있습니다([Directives] 보고서의 “Robots.txt blocked” 확인).
2. 핵심 페이지 수집 여부 확인
- 조작 방법: 왼쪽 메뉴에서 [Internal] 클릭 → 핵심 페이지 키워드(예: “제품”, “회사 소개” 등)를 검색하여 결과에 나타나는지 확인합니다.
- 예시: 목표가 “신형 휴대폰” 페이지 최적화인데 검색 결과가 없다면, 해당 페이지의 링크가 너무 깊거나(설정된 깊이 초과), 링크가 만료(404 표시)되었을 수 있습니다.
3. 대량의 오류 상태 코드 발생 여부 확인
- 중점 확인 사항:
- 404 (데드링크): 10개 이상 발생 시 구체적인 URL을 기록합니다([Response Codes] 보고서에서 내보내기).
- 500 (서버 오류): 단발성 발생은 임시 오류일 수 있으나, 대량 발생 시 기술팀에 확인을 요청해야 합니다.
- 301/302 (리다이렉트): 리다이렉트 대상이 유효한지 확인합니다(예: 404 페이지나 관련 없는 페이지로 가는지 확인).
SEO 보고서 해석 (핵심 6가지)
SEO 전문가들은 “데이터는 거짓말을 하지 않는다”고 말합니다. Screaming Frog의 수많은 보고서 중 구글 순위에 영향을 미치는 정보는 다음 6가지 보고서에 집중되어 있습니다.
통계에 따르면 이 6가지 문제만 해결해도(복잡한 콘텐츠 제작 없이) 중소형 사이트의 색인율은 65%에서 85%로 상승하며, 자연 유입 트래픽은 평균 20% 증가합니다.
응답 상태 코드 보고서
이 보고서는 각 페이지의 HTTP 상태 코드를 기록합니다. 상태 코드가 올바르지 않으면 크롤러가 당신의 페이지를 무시하고 넘어갈 수 있습니다.
핵심 데이터 및 조작
- 200 (정상): 비중이 85% 이상(중소형 사이트 기준)이어야 합니다. 80% 미만이라면 대량의 페이지가 차단되었거나 콘텐츠 오류가 있음을 의미합니다.
- 404 (데드링크): 페이지 삭제 후 링크를 정리하지 않았을 때 자주 발생합니다(실측: 이커머스 사이트의 404 비중은 보통 8-12%입니다).
- 조작: 404 URL 리스트 내보내기 → 링크 출처 확인(내비게이션/내부 링크/외부 링크) → 유효하지 않은 링크 삭제 또는 관련 페이지로 301 리다이렉트 설정.
- 301/302 (리다이렉트): 비중이 5%를 넘으면 주의해야 합니다(업데이트되지 않은 예전 페이지일 가능성).
- 조작: 리다이렉트 대상이 유효한지 확인하고(404로의 연결 방지), 가급적 권위를 전달하는 301 영구 리다이렉트를 사용하세요.
- 500 (서버 오류): 단발성 발생은 일시적일 수 있으나, 3% 이상 발생 시 코드 오류 등 기술적 조사가 필요합니다.
예시: 한 기업 홈페이지에서 12개의 404 데드링크(과거 이벤트 페이지)를 처리하고 해당 페이지로 연결되는 내부 링크를 삭제한 결과, 크롤러의 일일 수집량이 800개에서 1,200개로 증가했습니다.
URL 길이 및 구조 보고서
구글 크롤러는 긴 URL에 대한 “인내심”이 제한적입니다. URL이 길수록 완벽하게 수집될 확률이 낮아집니다.
핵심 데이터 및 조작
- 길이 분포: 통계 보고서에 따르면 약 20-30%의 URL이 100자를 초과합니다(이상적인 길이는 80자 미만).
- 조작: “Length > 100″인 URL 필터링 → 경로 축소(예: “/product?id=123″을 “/red-running-shoes-123″으로 변경).
- 동적 매개변수: 3개 이상의 매개변수가 포함된 URL(?id=123&cat=456&sort=date 등) 비중이 15% 이상이면 최적화가 필요합니다.
- 조작: 중복 매개변수 통합 혹은 정적 링크로 대체.
대조: 한 쇼핑몰 사이트에서 “/product?category=shoes&brand=nike&id=123″(102자)를 “/nike-shoes-123″(45자)으로 변경한 후, 해당 페이지의 색인 상태가 “미등록”에서 “등록됨”으로 바뀌었습니다.
타이틀 태그 보고서
타이틀은 구글이 페이지의 주제를 판단하는 핵심 근거입니다. 중복되거나 유효하지 않은 타이틀은 직접적으로 순위를 떨어뜨립니다.
핵심 데이터 및 조작
- 중복률: 약 30-40%의 페이지에 타이틀 중복이 존재합니다(예: 여러 이커머스 제품 페이지 SEO 타이틀이 모두 “제품 상세”인 경우).
- 조작: “Duplicate Titles” 필터링 → 각 페이지에 고유 식별자 추가(예: “[제품명]-[브랜드]”).
- 길이 분포: 이상적인 길이는 50-60자입니다. 통계에 따르면 약 25%의 타이틀이 60자를 초과하여 검색 결과에서 잘려 보입니다.
- 조작: “Length > 60” 필터링 → 내용 단축(핵심 키워드 유지, 중복 수식어 삭제).
사례: 한 교육 사이트에서 강의 페이지 타이틀을 “강의 소개”에서 “2024년 파이썬 입문 강의-XX교육(학습 자료 포함)”으로 변경(20자에서 45자로 확장)한 후, 해당 페이지의 클릭률(CTR)이 1.2%에서 2.1%로 상승했습니다.
메타 설명(Meta Description) 보고서
메타 설명은 순위에 직접 영향을 주지는 않지만, 사용자가 당신의 페이지를 클릭할지 여부를 결정합니다.
핵심 데이터 및 조작
- 누락률: 약 15-20%의 페이지에 메타 설명이 없습니다(크롤러가 자동으로 생성하지만 품질이 일정하지 않습니다).
- 조작: “No Meta Description” 필터링 → 수동 작성(150-160자 이내).
- 길이 분포: 약 25%의 설명이 160자를 초과하고, 10%는 너무 짧습니다(120자 미만).
- 조작: “Length > 160” 또는 “Length < 120” 필터링 → 사용자가 궁금해할 정보(예: “30일 무료 체험”, “정품 보장” 등) 보충.
데이터: 한 이커머스 사이트 최적화 결과, 200개 상품 페이지의 메타 설명을 최적화한 후 해당 페이지들의 자연 클릭량이 평균 15% 증가했습니다.
H1 태그 보고서
H1은 페이지의 주 제목입니다. 구글은 H1을 통해 페이지의 핵심 내용을 판단합니다(한 페이지에는 하나의 H1이 권장됩니다).
핵심 데이터 및 조작
- 수량 이상: 약 10-15%의 페이지에 H1이 없으며, 5%는 여러 개의 H1을 가지고 있어 주제가 혼란스럽습니다.
- 조작: “No H1” 또는 “Multiple H1s” 필터링 → H1이 없는 페이지에 주 제목 추가, 중복된 H1 태그 삭제.
- 내용 관련성: 약 30%의 H1이 페이지 내용과 일치하지 않습니다.
- 조작: “Content Mismatch” 필터링 → 페이지 핵심 내용과 일치하도록 H1 수정.
효과: 한 의류 브랜드에서 100개 상품 페이지의 H1을 최적화한 결과, 해당 페이지들의 평균 체류 시간이 45초에서 70초로 늘어났습니다.
이미지 Alt 속성 보고서
Alt 속성은 이미지에 대한 텍스트 설명입니다. Alt가 없거나 키워드를 도배하면 이미지 검색 트래픽을 낭비하게 됩니다.
핵심 데이터 및 조작
- 누락률: 약 40-50%의 이미지에 Alt 속성이 없습니다.
- 조작: “No Alt Text” 필터링 → 구체적인 설명 추가.
- 키워드 도배: 약 10-15%의 Alt에 중복 키워드가 포함되어 있습니다.
- 조작: “Keyword Stuffing” 필터링 → 자연스러운 설명으로 수정.
사례: 한 스포츠 브랜드에서 200장의 제품 이미지에 구체적인 Alt 속성을 추가한 후 이미지 검색을 통한 유입 트래픽이 25% 증가했습니다.
내부 링크 문제 대량 점검하기
통계에 따르면 내부 링크 점검을 하지 않은 사이트는 평균 15-20%의 페이지가 내부 링크 문제로 인해 효과적으로 색인되지 않습니다. 이러한 문제를 해결하면 해당 페이지의 수집량이 30% 이상 늘어날 수 있습니다.
대량 점검은 “링크를 하나하나 보는 것”이 아니라 Screaming Frog의 “Internal” 보고서를 사용하여 빠르게 문제를 찾는 것입니다.
데드 내부 링크
데드 내부 링크란 페이지 내 링크가 삭제되었거나 접근할 수 없는 페이지(404 상태 코드)를 가리키는 것을 말합니다. 사용자가 이런 링크를 클릭하면 즉시 이탈하게 되며, 크롤러 역시 빈번한 404를 만나면 해당 페이지 수집을 줄이게 됩니다.
데이터 및 조작
- 일반적인 원인: 내비게이션 바(30-40%), 예전 글 추천(25-30%), 댓글창 사용자 입력(15-20%).
- 탐지 방법:
- 왼쪽 메뉴에서 [Internal] 클릭 → [Status Code] 열을 클릭하여 “404” 필터링.
- 결과 내보내기 후 Excel에서 “Source URL”(출처 페이지)과 “Target URL”(대상 페이지)을 확인합니다.
사례: 한 교육 사이트 내비게이션 바에 12개의 “인기 강의” 링크가 있었는데, 그중 8개가 이미 종료된 강의의 404 페이지를 가리키고 있었습니다. 해당 링크들을 삭제한 후 수집량이 일일 150개에서 220개로 늘어났습니다.
해결 동작
- 데드 내부 링크 삭제.
- 유효한 링크로 교체.
- 대상 페이지 유지가 필요하다면 301 리다이렉트 설정.
고립된 페이지(Orphaned Pages)
고립된 페이지란 콘텐츠는 존재하지만 이를 가리키는 내부 링크가 전혀 없는 페이지를 말합니다. 크롤러는 외부 링크나 직접 URL 입력을 통해서만 이런 페이지를 발견할 수 있어 색인 확률이 내부 링크가 있는 페이지보다 60% 낮습니다.
데이터 및 조작
- 일반적인 유형:
- 임시 이벤트 페이지.
- 테스트용 페이지.
- 저품질 중복 페이지.
- 탐지 방법:
- [Indexability] 보고서에서 “Linked From=0” 필터링.
- 또는 [Internal] 보고서에서 “Incoming Links=0″이면서 “Word Count > 100″인 페이지 필터링.
데이터: 한 쇼핑몰에서 이 방법으로 200개의 고립된 페이지를 발견했습니다. 내부 링크를 보충한 후 해당 페이지들의 색인율이 15%에서 70%로 올랐습니다.
해결 동작
- 가치 있는 고립 페이지에 내부 링크 추가.
- 저가치 고립 페이지(테스트 페이지 등)는 삭제하거나 robots.txt로 차단.
권위 집중(Link Equity Concentration)
권위 집중이란 메인 페이지나 소수 핵심 페이지에 링크가 과도하게 몰려 크롤러의 “주의력”이 분산되고, 다른 중요한 페이지(제품 페이지, 블로그 글 등)가 수집될 기회가 줄어드는 현상을 말합니다.
데이터 및 조작
- 전형적인 증상: 메인 페이지의 “Outgoing Links”가 50개를 초과(이상적인 수치는 20-30개).
탐지 방법
- [Internal] 보고서에서 “Outgoing Links” 열을 기준으로 내림차순 정렬.
- 메인 페이지, 카테고리 페이지 등 핵심 페이지의 외부 링크 수량 중점 확인.
해결 동작
- 비핵심 링크 간소화(예: “문의하기” 등을 푸터로 이동).
- 핵심 페이지(인기 제품, 고전환 글)에 대한 내부 링크 보충.
대량 처리의 3가지 팁
- Excel을 활용한 빈출 문제 필터링: 내보낸 데이터를 Excel의 필터링 기능을 사용하여 반복적으로 나타나는 출처 페이지를 빠르게 찾아냅니다.
- 고권위 페이지의 내부 링크 우선 처리: 메인 페이지, 카테고리 페이지의 내부 링크는 영향 범위가 가장 크므로 먼저 수정합니다.
- 정기적인 재점검: 2주마다 Screaming Frog로 크롤링하여 이전 데이터와 비교함으로써 내부 링크 구조를 지속적으로 건강하게 유지합니다.
마지막으로, 도구는 보조 수단일 뿐이며 구글 순위의 핵심은 언제나 “사용자에게 필요한 콘텐츠“입니다.






