ใครที่ทำ Google SEO ต่างรู้ดีว่าเครื่องมือคือคานผ่อนแรงเพื่อประสิทธิภาพ หากยกตัวอย่างด้วย Screaming Frog เครื่องมือ Crawler ตัวนี้สามารถ ทำงานที่ต้องใช้แรงงานคนถึง 8 ชั่วโมงให้เสร็จได้ภายใน 20 นาที: มันสามารถรวบรวมทุก URL ของเว็บไซต์คุณ และระบุ ปัญหา SEO ทั่วไป ได้อย่างแม่นยำถึง 80-120 รายการ (เช่น ลิงก์เสีย 404, หัวข้อซ้ำ, รูปภาพที่ขาดคุณสมบัติ Alt)
บทความนี้จะนำคุณไปตั้งแต่การติดตั้ง การตั้งค่า ไปจนถึงการนำข้อมูลไปใช้งานจริง เพื่อเปลี่ยน Screaming Frog ให้กลายเป็น “กล้องจุลทรรศน์ SEO” ของคุณ

Table of Contens
Toggleการติดตั้งและการตั้งค่าพื้นฐาน
การติดตั้ง Screaming Frog อาจฟังดูเหมือนการ “คลิกถัดไป” ง่ายๆ แต่มีผู้ใช้รายงานว่า เนื่องจากไม่ได้ใส่ใจเรื่องความเข้ากันได้ของระบบ ทำให้ซอฟต์แวร์เวอร์ชัน Mac ทำงานอืด และความเร็วในการ Crawl ช้ากว่าปกติถึง 40%
บางคนตั้งค่าความลึกในการ Crawl อย่างไม่เหมาะสม ผลที่ได้คือเว็บไซต์ขนาดเล็กแต่ใช้เวลา Crawl นานถึง 2 ชั่วโมงแล้วยังเก็บหน้าหลักไม่ครบ
การเตรียมตัวก่อนติดตั้ง
1. ความเข้ากันได้ของระบบ
Screaming Frog รองรับ Windows 10/11 (64-bit) และ macOS 10.15 ขึ้นไป หากคอมพิวเตอร์ของคุณเป็น Windows 7 หรือ macOS 10.14 การดาวน์โหลดตัวติดตั้งโดยตรงจะขึ้นแจ้งเตือนว่า “ไม่รองรับ” และหากฝืนรันอาจทำให้โปรแกรมค้าง (จากการทดสอบ: ผู้ใช้ Win7 มีอัตราโปรแกรมค้างประมาณ 35%)
2. ปัญหาเรื่องสิทธิ์ (Permissions)
- Windows: แนะนำให้ติดตั้งด้วยบัญชีผู้ดูแลระบบ (คลิกขวาที่ตัวติดตั้ง → “Run as administrator”) มิฉะนั้นอาจไม่สามารถบันทึกข้อมูลการ Crawl ได้เนื่องจากสิทธิ์ไม่เพียงพอ (ข้อผิดพลาดที่พบบ่อย: “Cannot save log file”)
- Mac: ต้องปิด “System Integrity Protection” (SIP) หรือไม่? ไม่จำเป็น แต่เมื่อรันครั้งแรกอาจต้องเข้าไปที่ “System Preferences → Security & Privacy” แล้วคลิก “Open Anyway” มิฉะนั้นจะถูกบล็อก (ผู้ใช้ Mac ประมาณ 20% มักติดอยู่ที่ขั้นตอนนี้)
3. สภาพแวดล้อมเครือข่าย
ก่อนการ Crawl ให้ปิดซอฟต์แวร์ Proxy (เช่น VPN, ตัวเร่งความเร็ว) หากค่าความหน่วง (Latency) ของเครือข่ายท้องถิ่นเกิน 200ms จะทำให้ความเร็วในการ Crawl ลดลงถึง 50% (ทดสอบจริง: ที่ความหน่วง 200ms จะ Crawl ได้ 10 รายการต่อวินาที; ที่ความหน่วง 50ms จะ Crawl ได้ 25 รายการต่อวินาที)
การติดตั้งอย่างเป็นทางการ
ระบบ Windows
- ไปที่เว็บไซต์ทางการของ Screaming Frog (www.screamingfrog.co.uk) คลิก “Download Free Version” (เวอร์ชันฟรีเพียงพอสำหรับเว็บไซต์ขนาดเล็กและกลาง)
- เลือก “Windows Installer” หลังจากดาวน์โหลดเสร็จสิ้นให้ดับเบิลคลิกเพื่อรัน
- เลือกเส้นทางการติดตั้งตามคำแนะนำ (แนะนำให้ใช้ค่าเริ่มต้นที่ไดรฟ์ C เพื่อป้องกันไฟล์กำหนดค่าสูญหายจากการเปลี่ยนเส้นทาง) ติ๊ก “Create desktop shortcut” แล้วคลิก “Install”
- เมื่อติดตั้งเสร็จ จะมีไอคอนแมงมุมสีเขียวปรากฏบนเดสก์ท็อป ให้ดับเบิลคลิกเพื่อเปิด
ระบบ macOS
- ดาวน์โหลดจากเว็บไซต์ทางการเช่นกัน โดยเลือก “macOS DMG”
- ดับเบิลคลิกไฟล์ .dmg ที่ดาวน์โหลดมา แล้วลากไอคอน “Screaming Frog SEO Spider” เข้าสู่โฟลเดอร์ “Applications”
- เมื่อเปิดครั้งแรก ระบบอาจแจ้งเตือนว่า “ไม่สามารถเปิดได้เนื่องจากมาจากนักพัฒนาที่ไม่รู้จัก” ให้ไปที่ “System Preferences → Security & Privacy” แล้วคลิก “Open Anyway”
4 การตั้งค่าพื้นฐาน
หลังจากติดตั้งเสร็จ การเปิดซอฟต์แวร์ครั้งแรกจำเป็นต้องกำหนดค่าพารามิเตอร์ของ “Spider”
หากตั้งค่าผิด ข้อมูลที่ Crawl มาได้ภายหลังอาจไร้ประโยชน์โดยสิ้นเชิง
User Agent
- หน้าที่: บอกเซิร์ฟเวอร์ของเว็บไซต์ว่า “ฉันเป็นใคร” โดย User Agent ของ Google Crawler คือ “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
- วิธีตั้งค่า: คลิกเมนูหลักด้านบน “Configuration → Spider” ในช่อง “User Agent” ให้เลือก “Googlebot” (ค่าเริ่มต้นคือ “Screaming Frog”)
- ทำไมถึงสำคัญ: หากใช้ค่าเริ่มต้น “Screaming Frog” บางเว็บไซต์อาจบล็อก Crawler (เช่น ตั้งค่า “Disallow: /screamingfrog”) ทำให้เก็บข้อมูลไม่ได้ การใช้ “Googlebot” จะจำลองเหมือน Google Crawler จริงๆ และได้ข้อมูลที่ใกล้เคียงกับความเป็นจริงมากกว่า (ทดสอบจริง: หลังเปลี่ยนค่า เว็บไซต์อีคอมเมิร์ซแห่งหนึ่งมีอัตราการ Crawl สำเร็จเพิ่มขึ้นจาก 65% เป็น 92%)
ความลึกในการ Crawl (Crawl Depth)
- นิยาม: เริ่มจากหน้าแรก จะคลิกลิงก์ลึกลงไปสูงสุดกี่ระดับ (เช่น หน้าแรก → หน้าหมวดหมู่ → หน้าสินค้า คือ 3 ระดับ)
- คำแนะนำการตั้งค่า:
- เว็บไซต์ขนาดเล็ก/กลาง (จำนวนหน้า ≤1000): ตั้งไว้ที่ 5 ระดับ (ครอบคลุมกว่า 90% ของหน้าสำคัญ)
- เว็บไซต์ขนาดใหญ่ (จำนวนหน้า >1000): ตั้งไว้ที่ 10 ระดับ แต่ต้องใช้คู่กับ “การจำกัดจำนวนการ Crawl” (ดูด้านล่าง) เพื่อเลี่ยงไม่ให้ใช้เวลานานเกินไป (ความลึก 10 ระดับอาจทำให้เวลาเพิ่มจาก 10 นาทีเป็น 1 ชั่วโมง)
จำกัดจำนวน URL (Max URLs to Crawl) •
- หน้าที่: ป้องกันซอฟต์แวร์ทำงานไม่หยุดเนื่องจากลิงก์ในเว็บไซต์มีมากเกินไป (เช่น เว็บบอร์ด, หน้า Infinite Scroll)
- วิธีตั้งค่า: ใน “Configuration → Spider” ติ๊ก “Limit number of URLs to crawl” แล้วใส่ตัวเลข (แนะนำ 5000-10000 สำหรับเว็บขนาดเล็กกลาง และไม่เกิน 5 หมื่นสำหรับเว็บใหญ่)
- ผลเสียหากไม่ตั้งค่า: เคยมีผู้ใช้ Crawl เว็บอีคอมเมิร์ซที่มี ลิงก์พารามิเตอร์แบบไดนามิก สำหรับ “สินค้าแนะนำ” โดยไม่ได้จำกัดจำนวน ซอฟต์แวร์ทำงานไป 24 ชั่วโมง และเก็บ URL มาถึง 2.3 แสนรายการ (ซึ่ง 80% เป็น หน้ารายละเอียดสินค้าที่ซ้ำกัน)
ไม่รวมพารามิเตอร์ (Exclude Parameters)
- ปัญหา: URL ของหลายเว็บไซต์มีพารามิเตอร์ส่วนเกิน (เช่น ?utm_source=weibo, ?page=2) ซึ่งไม่ส่งผลต่อเนื้อหา แต่ Screaming Frog จะมองเป็นคนละ URL ทำให้เกิดการ Crawl ซ้ำ
- วิธีตั้งค่า: คลิก “Configuration → Exclude” ในช่อง “Query Parameters” ให้ใส่พารามิเตอร์ที่ต้องการกรองออก (แยกด้วยเครื่องหมายจุลภาค) เช่น “utm_source,utm_medium,page”
- ผลลัพธ์: เว็บไซต์การศึกษาแห่งหนึ่งกรองพารามิเตอร์ติดตาม 12 รายการออก ทำให้จำนวน URL ที่ Crawl ลดลงจาก 1.2 หมื่นเหลือเพียง 4500 รายการ และลดเวลาทำงานลงได้ 40%
ทดสอบการ Crawl ขนาดเล็กด้วยหน้าแรก
หลังตั้งค่าเสร็จ อย่าเพิ่ง Crawl ทั้งไซต์ ให้ใส่ URL หน้าแรกแล้วคลิก “Start” เพื่อทำ การทดสอบช่วงแคบ (จำกัดจำนวนที่ 100 รายการ) เพื่อตรวจสอบ 3 เรื่อง:
- หน้าสำคัญถูกเก็บครบหรือไม่: เช่น หน้า “เกี่ยวกับเรา” “ติดต่อเรา” ในแถบเมนูถูกเก็บมาหรือไม่ (ค้นหาคีย์เวิร์ดในรายงาน “Internal”)
- มี URL ซ้ำซ้อนหรือไม่: ในรายงาน “URL” ดูว่ามีเวอร์ชันพารามิเตอร์ที่แตกต่างกันของหน้าเดียวกันหรือไม่ (เช่น “/product” และ “/product?color=red”)
- มีการแจ้งเตือน 404 หรือไม่: ตรวจสอบรหัสสถานะ 404 ใน “Response Codes” เพื่อยืนยันว่าไม่มีการเก็บหน้าเพจที่ลบไปแล้ว
เริ่มต้นการ Crawl พื้นฐานอย่างรวดเร็ว
หลายคนคิดว่า “แค่กดเริ่ม” ก็จบ แต่ความจริงแล้ว 30% ของผู้ใช้ได้ข้อมูลที่ไม่มีประสิทธิภาพเพราะละเลยรายละเอียด
3 สิ่งที่ต้องตรวจสอบก่อนเริ่ม
1. ยืนยันว่าการตั้งค่าพื้นฐานเสร็จสิ้น
- User Agent: ต้องเป็น “Googlebot”
- ความลึกในการ Crawl: ปรับตามขนาดเว็บไซต์
- ไม่รวมพารามิเตอร์: กรองพารามิเตอร์ที่ไม่ได้ใช้ประโยชน์ออก
2. ทดสอบความเสถียรของเครือข่าย
- ค่าความหน่วง: ควรน้อยกว่าหรือเท่ากับ 100ms
- เลี่ยงการรบกวน: ปิด VPN หรือโปรแกรมดาวน์โหลดต่างๆ
3. ยืนยันว่าเว็บไซต์เป้าหมายเข้าถึงได้
- ลองเปิดผ่านบราวเซอร์เพื่อให้แน่ใจว่าไม่ติดปัญหา 403 Forbidden
ขั้นตอนการปฏิบัติเพื่อให้ได้ผลใน 10 นาที
1. ใส่ URL เป้าหมาย
- รูปแบบ: ต้องใส่ URL เต็มที่มี http:// หรือ https://
2. ตั้งค่าข้อจำกัด (ถ้ามี)
- จำกัดจำนวน URL เพื่อป้องกันการวนลูปไม่สิ้นสุด
3. คลิก “Start” และสังเกตสถานะเรียลไทม์
- สังเกตแถบความคืบหน้า (สีเขียวคือปกติ) และความเร็วในการดึงข้อมูล
4. การจัดการปัญหาเบื้องต้น
- หากค้าง ให้ตรวจสอบเน็ตหรือลองกด Stop แล้วเริ่มใหม่
หลังการ Crawl เสร็จสิ้น
ซอฟต์แวร์จะแจ้งเตือนว่า “Crawl Complete” ให้ทำ 3 สิ่งนี้เพื่อยืนยันคุณภาพข้อมูล:
1. ดูจำนวนที่เก็บมาว่าสมเหตุสมผลหรือไม่
2. ตรวจสอบว่าหน้าสำคัญถูกเก็บมาครบหรือไม่
3. ดูว่ามีรหัสสถานะที่ผิดปกติจำนวนมากหรือไม่ (เน้น 404, 500, 301)
การอ่านรายงาน SEO (เน้นที่ 6 รายการนี้)
ในบรรดารายงานนับสิบ ข้อมูลที่ส่งผลต่อการจัดอันดับของ Google อยู่ในรายงาน 6 ฉบับนี้
รายงานรหัสสถานะการตอบสนอง (Response Codes)
บันทึกรหัส HTTP ของแต่ละหน้า ถ้ารหัสไม่ถูกต้อง Crawler อาจข้ามหน้าของคุณไปเลย
- 200 (ปกติ): ควรมีมากกว่า 85%
- 404 (ลิงก์เสีย): ต้องรีบแก้ไขหรือทำ Redirect
- 301/302 (การส่งต่อ): ตรวจสอบว่าปลายทางยังใช้งานได้
รายงานความยาวและโครงสร้าง URL
ยิ่ง URL ยาว โอกาสที่ Crawler จะเก็บข้อมูลจนครบก็จะยิ่งน้อยลง ควรเน้นให้สั้นและสื่อความหมาย
รายงานแท็กหัวข้อ (Title Tags)
หัวข้อคือหัวใจหลักที่ Google ใช้ตัดสินเนื้อหา หัวข้อที่ซ้ำซ้อนจะ ทำให้พิกัดการจัดอันดับลดลง
รายงาน Meta Description
ไม่ส่งผลต่ออันดับโดยตรง แต่ ส่งผลต่อการตัดสินใจคลิกของผู้ใช้
รายงานแท็ก H1
H1 คือหัวข้อหลักของหน้า Google ใช้ H1 เพื่อทำความเข้าใจเนื้อหาหลัก (หนึ่งหน้าควรมี 1 อัน)
รายงานคุณสมบัติ Alt ของรูปภาพ
คุณสมบัติ Alt คือคำอธิบายภาพ หากขาดไปจะทำให้เสียโอกาสใน Traffic จากการค้นหารูปภาพ
การตรวจสอบปัญหาลิงก์ภายในแบบกลุ่ม
เราพบว่า เว็บไซต์ที่ไม่ได้ตรวจสอบลิงก์ภายในอย่างสม่ำเสมอ โดยเฉลี่ยมีหน้าเพจถึง 15-20% ที่ไม่สามารถรับการ Index ได้อย่างมีประสิทธิภาพ
ลิงก์ภายในที่เสีย (Broken Internal Links)
คือลิงก์ในหน้าเพจที่ชี้ไปยังหน้าที่ถูกลบไปแล้ว (404) ผู้ใช้ที่คลิกจะออกทันที และ Crawler จะลดการเข้าชมหน้านั้น
หน้าเพจที่โดดเดี่ยว (Orphan Pages)
คือหน้าที่มีเนื้อหาแต่ไม่มี ลิงก์ภายใน ชี้ไปหาเลย โอกาสถูก Index ต่ำกว่าหน้าปกติถึง 60%
การกระจุกตัวของน้ำหนัก (Authority Concentration)
หมายถึงหน้าแรกหรือหน้าหลักบางหน้ามีลิงก์มากเกินไป จนทำให้ Crawler กระจายกำลังไปไม่ถึงหน้าสำคัญอื่นๆ
3 เคล็ดลับการจัดการแบบกลุ่ม
- ใช้ Excel กรองปัญหาที่เกิดซ้ำ
- ลำดับความสำคัญในการซ่อมแซมหน้าที่มีน้ำหนักสูงก่อน
- ตรวจสอบซ้ำเป็นประจำ
สุดท้ายนี้ เครื่องมือเป็นเพียงส่วนเสริม หัวใจสำคัญของ อันดับใน Google คือ “เนื้อหาที่ผู้ใช้ต้องการ” เสมอ






