微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

Cách sử dụng Screaming Frog cho SEO|Hướng dẫn sử dụng 2025

本文作者:Don jiang

Bất kỳ ai làm Google SEO đều biết rằng công cụ chính là đòn bẩy cho hiệu suất. Lấy Screaming Frog làm ví dụ, công cụ thu thập dữ liệu này có thể hoàn thành khối lượng công việc 8 giờ của con người chỉ trong 20 phút: nó có thể quét mọi URL trên trang web của bạn, xác định chính xác 80-120 vấn đề SEO phổ biến (như liên kết chết 404, tiêu đề trùng lặp, hình ảnh thiếu thuộc tính Alt).

Bài viết này sẽ dẫn dắt bạn từ cài đặt thiết lập đến thực thi dữ liệu, biến Screaming Frog thành “kính hiển vi SEO” của bạn.

Cách sử dụng Screaming Frog để làm SEO

Cài đặt và Thiết lập cơ bản

Cài đặt Screaming Frog nghe có vẻ đơn giản như “nhấp vài lần nút Tiếp theo”, nhưng một số người dùng phản hồi rằng việc không chú ý đến khả năng tương thích hệ thống khi cài đặt đã khiến phần mềm phiên bản Mac chạy chậm chạp, tốc độ thu thập dữ liệu chậm hơn 40% so với bình thường.

Cũng có người tùy ý thiết lập độ sâu thu thập thông tin, dẫn đến việc một trang web nhỏ mất 2 giờ vẫn chưa quét xong các trang cốt lõi.

Chuẩn bị trước khi cài đặt

1. Khả năng tương thích hệ thống

Screaming Frog hỗ trợ Windows 10/11 (64-bit) và macOS 10.15 trở lên. Nếu máy tính của bạn là Windows 7 hoặc macOS 10.14, việc tải xuống gói cài đặt sẽ hiển thị thông báo “không tương thích”, cố tình chạy có thể gây ra lỗi hệ thống (thực tế kiểm tra cho thấy tỷ lệ lỗi của người dùng Win7 là khoảng 35%).

2. Vấn đề về quyền hạn

  • Windows: Khuyên dùng tài khoản quản trị viên để cài đặt (chuột phải vào gói cài đặt → “Run as administrator”), nếu không có thể dẫn đến việc không ghi được dữ liệu thu thập do thiếu quyền (lỗi phổ biến: “Không thể lưu tệp nhật ký”).
  • Mac: Có cần tắt “System Integrity Protection” (SIP) không? Không cần, nhưng khi chạy lần đầu có thể cần nhấp vào “Vẫn mở” trong “System Preferences → Security & Privacy”, nếu không sẽ bị chặn (khoảng 20% người dùng Mac sẽ bị kẹt ở bước này).

3. Môi trường mạng

Tắt các phần mềm proxy (như VPN, tăng tốc) trước khi quét. Độ trễ mạng cục bộ vượt quá 200ms sẽ khiến tốc độ quét giảm 50% (thực tế: với độ trễ 200ms, quét 10 URL/giây; với độ trễ 50ms, quét 25 URL/giây).

Cài đặt chính thức

Hệ điều hành Windows

  1. Truy cập trang web chính thức của Screaming Frog (www.screamingfrog.co.uk), nhấp vào “Download Free Version” (bản miễn phí đủ dùng cho các trang web vừa và nhỏ);
  2. Chọn “Windows Installer”, sau khi tải xuống hoàn tất thì nhấp đúp để chạy;
  3. Chọn đường dẫn cài đặt theo hướng dẫn (khuyên dùng mặc định ổ C để tránh mất tệp cấu hình sau này), tích vào “Tạo lối tắt trên màn hình”, nhấp vào “Cài đặt”;
  4. Sau khi cài đặt xong, biểu tượng con nhện xanh sẽ xuất hiện trên màn hình, nhấp đúp để mở.

Hệ điều hành macOS

  • Tương tự tải xuống từ trang web chính thức, chọn “macOS DMG”;
  • Nhấp đúp vào tệp .dmg đã tải xuống, kéo biểu tượng “Screaming Frog SEO Spider” vào thư mục “Applications”;
  • Khi mở lần đầu, hệ thống có thể thông báo “Không thể mở vì nó đến từ một nhà phát triển chưa được xác định”, hãy vào “System Preferences → Security & Privacy”, nhấp vào “Vẫn mở” là được.

4 thiết lập cơ bản

Sau khi cài đặt xong, lần đầu mở phần mềm cần cấu hình các thông số cho “Nhện” (Spider).

Nếu thiết lập sai, dữ liệu thu thập sau đó có thể hoàn toàn vô dụng.

User Agent (Đại diện người dùng)

  • Tác dụng: Nói với máy chủ trang web “Tôi là ai”, User Agent của trình thu thập Google là “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”.
  • Cách thiết lập: Nhấp vào menu trên cùng [Configuration → Spider], trong hộp thả xuống “User Agent” chọn “Googlebot” (mặc định là “Screaming Frog”).
  • Tại sao quan trọng: Nếu sử dụng User Agent mặc định, một số trang web sẽ chặn trình thu thập (ví dụ thiết lập “Disallow: /screamingfrog”), dẫn đến không thể quét nội dung; dùng “Googlebot” có thể mô phỏng trình thu thập Google thực tế, lấy được dữ liệu gần với thực tế hơn (thực tế: sau khi chuyển đổi, tỷ lệ quét thành công của một trang thương mại điện tử đã tăng từ 65% lên 92%).

Crawl Depth (Độ sâu thu thập)

  • Định nghĩa: Bắt đầu từ trang chủ, tối đa nhấp vào bao nhiêu lớp liên kết (ví dụ Trang chủ → Trang danh mục → Trang sản phẩm là 3 lớp).
  • Gợi ý thiết lập:
    • Trang web vừa và nhỏ (số trang ≤ 1000): Đặt thành 5 lớp (bao phủ hơn 90% các trang cốt lõi);
    • Trang web lớn (số trang > 1000): Đặt thành 10 lớp, nhưng cần phối hợp với “Giới hạn số lượng quét” (xem bên dưới) để tránh thời gian quét quá dài.

Max URLs to Crawl (Giới hạn số lượng quét)

  • Tác dụng: Ngăn chặn việc phần mềm quét mãi không dừng do trang web có quá nhiều liên kết (như diễn đàn, trang cuộn vô hạn).
  • Cách thiết lập: Trong [Configuration → Spider], tích chọn “Limit number of URLs to crawl”, nhập giá trị cụ thể (trang web nhỏ khuyên dùng 5000-10000, trang lớn không quá 50.000).
  • Hậu quả nếu không thiết lập: Từng có người dùng quét một trang thương mại điện tử có liên kết động “Sản phẩm gợi ý”, vì không giới hạn số lượng, phần mềm đã chạy 24 giờ và quét được 230.000 URL (trong đó 80% là các trang chi tiết sản phẩm trùng lặp).

Exclude Parameters (Loại bỏ tham số)

  • Vấn đề: Nhiều URL của trang web mang các tham số dư thừa (như ?utm_source=weibo, ?page=2), các tham số này không ảnh hưởng đến nội dung nhưng sẽ được Screaming Frog nhận diện là các URL khác nhau, dẫn đến quét trùng lặp.
  • Cách thiết lập: Nhấp vào [Configuration → Exclude], trong “Query Parameters” nhập các tham số muốn lọc (cách nhau bằng dấu phẩy), ví dụ “utm_source,utm_medium,page”.
  • Hiệu quả: Một trang web giáo dục sau khi lọc 12 tham số theo dõi, số lượng URL quét đã giảm từ 12.000 xuống còn 4.500, thời gian quét rút ngắn 40%.

Chạy thử một lượt quét nhỏ bằng Trang chủ

Sau khi thiết lập xong, đừng vội quét toàn bộ trang web — hãy nhập URL trang chủ trước, nhấn “Start” để chạy một thử nghiệm phạm vi nhỏ (giới hạn 100 URL), kiểm tra 3 điều:

  1. Có bỏ sót trang quan trọng không: Ví dụ “Về chúng tôi”, “Liên hệ” trong thanh điều hướng có được quét không (tìm từ khóa trong báo cáo [Internal]);
  2. Có URL trùng lặp không: Trong báo cáo [URL], xem có các phiên bản tham số khác nhau của cùng một trang không;
  3. Có kích hoạt lỗi 404 không: Kiểm tra mã trạng thái 404 trong [Response Codes] để xác nhận không quét phải các trang đã bị xóa.

Nếu phát hiện vấn đề, quay lại [Configuration] để điều chỉnh tham số và kiểm tra lại.

Khởi động nhanh một lượt quét cơ bản

Nhiều người nghĩ rằng “nhấp bắt đầu” là tất cả, nhưng thực tế 30% người dùng thất bại trong việc lấy dữ liệu hiệu quả do bỏ qua các chi tiết nhỏ.

3 bước kiểm tra trước khi khởi động

1. Xác nhận các thiết lập cơ bản đã hoàn tất

  • User Agent: Phải đặt thành “Googlebot”.
  • Độ sâu thu thập: Điều chỉnh theo kích thước trang web.
  • Loại bỏ tham số: Lọc các tham số theo dõi vô dụng.

2. Kiểm tra độ ổn định của mạng

  • Yêu cầu độ trễ: Độ trễ từ máy cục bộ đến trang web đích tốt nhất là ≤ 100ms.
  • Tránh can nhiễu: Tắt VPN hoặc các công cụ tăng tốc.

3. Xác nhận trang web đích có thể truy cập

  • Nhập trực tiếp URL vào trình duyệt để kiểm tra xem nó có mở bình thường không.

4 bước thao tác, lấy kết quả sau 10 phút

1. Nhập URL đích

  • Yêu cầu định dạng: Phải nhập URL đầy đủ (bao gồm http:// hoặc https://).

2. Thiết lập điều kiện giới hạn (tùy chọn nhưng khuyến khích)

  • Giới hạn số lượng quét: Trong [Configuration → Spider], tích chọn “Limit number of URLs to crawl”.

3. Nhấp “Start”, quan sát trạng thái thời gian thực

  • Thanh tiến trình: Hiển thị tiến độ quét tổng thể (Xanh = bình thường, Vàng = chậm lại, Đỏ = bị kẹt).

4. Xử lý vấn đề giữa chừng

  • Bị kẹt không chạy: Kiểm tra mạng hoặc tạm dừng và khởi động lại.

Giải mã báo cáo SEO (Tập trung vào 6 mục này)

Người làm SEO thường nói “dữ liệu không biết nói dối”, nhưng trong hàng chục báo cáo của Screaming Frog, thông tin ảnh hưởng đến xếp hạng Google nằm ở 6 báo cáo này.

Xử lý xong 6 loại vấn đề này, tỷ lệ lập chỉ mục của các trang web vừa và nhỏ có thể tăng từ 65% lên 85%, lượng truy cập tự nhiên tăng trung bình 20%.

Báo cáo Mã phản hồi (Response Codes)

  • 200 (Bình thường): Tỷ lệ nên > 85%.
  • 404 (Liên kết chết): Xuất khẩu danh sách URL 404 → Xóa liên kết hoặc chuyển hướng 301.
  • 301/302 (Chuyển hướng): Tỷ lệ > 5% cần cảnh giác.

Báo cáo Độ dài và Cấu trúc URL

  • Phân bổ độ dài: Lý tưởng nhất là < 80 ký tự.
  • Tham số động: URL có trên 3 tham số cần được tối ưu hóa.

Báo cáo Thẻ Tiêu đề (Page Titles)

Tiêu đề là căn cứ cốt lõi để Google phán đoán chủ đề trang. Tiêu đề trùng lặp hoặc không hiệu quả sẽ trực tiếp làm giảm xếp hạng.

  • Tỷ lệ trùng lặp: Lọc “Duplicate Titles” → Thêm định danh duy nhất cho mỗi trang.
  • Độ dài: Lý tưởng là 50-60 ký tự.

Báo cáo Mô tả Meta (Meta Description)

Mô tả Meta không ảnh hưởng trực tiếp đến xếp hạng nhưng quyết định người dùng có nhấp vào trang của bạn hay không.

  • Tỷ lệ thiếu: Lọc “No Meta Description” → Viết thủ công (150-160 ký tự).

Báo cáo Thẻ H1

H1 là tiêu đề chính của trang, Google thông qua H1 để đánh giá nội dung cốt lõi của trang.

  • Số lượng bất thường: Lọc trang thiếu H1 hoặc có nhiều H1 để sửa đổi.

Báo cáo Thuộc tính Alt hình ảnh

Thuộc tính Alt là mô tả văn bản của hình ảnh. Thiếu Alt sẽ lãng phí lưu lượng truy cập từ tìm kiếm hình ảnh.

  • Tỷ lệ thiếu: Thường chiếm 40-50%, cần bổ sung mô tả cụ thể.

Kiểm tra hàng loạt vấn đề liên kết nội bộ

Các trang web không kiểm tra liên kết nội bộ thường có 15-20% số trang không được lập chỉ mục hiệu quả. Giải quyết vấn đề này có thể tăng lượng thu thập dữ liệu lên hơn 30%.

Liên kết nội bộ bị chết

Đề cập đến các liên kết trong trang trỏ đến các trang đã bị xóa hoặc không thể truy cập (Mã 404). Người dùng nhấp vào sẽ thoát ra ngay lập tức, và trình thu thập cũng sẽ giảm việc quét trang đó.

Trang mồ côi (Orphan Pages)

Là những trang có nội dung nhưng không có bất kỳ liên kết nội bộ nào trỏ đến. Xác suất được lập chỉ mục thấp hơn 60% so với trang có liên kết nội bộ.

Tập trung trọng số (Link Equity)

Trang chủ hoặc một vài trang cốt lõi có quá nhiều liên kết, dẫn đến trình thu thập bị “phân tán sức lực”, khiến các trang quan trọng khác nhận được ít cơ hội quét hơn.

3 mẹo xử lý hàng loạt

  1. Sử dụng Excel để lọc các vấn đề xuất hiện thường xuyên.
  2. Ưu tiên xử lý liên kết nội bộ của các trang có trọng số cao (Trang chủ, trang danh mục).
  3. Kiểm tra định kỳ để đảm bảo cấu trúc liên kết nội bộ luôn lành mạnh.

Cuối cùng, công cụ chỉ là hỗ trợ. Cốt lõi của xếp hạng Google luôn là “Nội dung mà người dùng cần”.

Bạn có muốn tôi giúp bạn lập một danh sách kiểm tra (check-list) cụ thể để bắt đầu quét trang web của mình không?

 

滚动至顶部