ผู้ที่ทำ Google SEO ต่างรู้ดีว่าเครื่องมือคือคานผ่อนแรงของประสิทธิภาพ หากยกตัวอย่าง Screaming Frog เครื่องมือ Crawler ตัวนี้สามารถ ทำงานได้เท่ากับแรงงานคน 8 ชั่วโมงภายในเวลาเพียง 20 นาที: มันสามารถดึงข้อมูลทุก URL บนเว็บไซต์ของคุณ และระบุตำแหน่ง 80-120 ปัญหา SEO ที่พบบ่อย ได้อย่างแม่นยำ (เช่น ลิงก์เสีย 404, ชื่อหัวข้อซ้ำ, รูปภาพที่ขาดแอตทริบิวต์ Alt)
บทความนี้จะพาคุณไปตั้งแต่การตั้งค่าติดตั้งไปจนถึงการนำข้อมูลไปใช้จริง เพื่อเปลี่ยน Screaming Frog ให้กลายเป็น “กล้องจุลทรรศน์ SEO” ของคุณ

Table of Contens
Toggleการติดตั้งและการตั้งค่าพื้นฐาน
การติดตั้ง Screaming Frog อาจฟังดูเหมือนการ “คลิกถัดไปไม่กี่ครั้ง” แสนง่ายดาย แต่มีผู้ใช้รายงานว่า เนื่องจากไม่ได้ระมัดระวังเรื่องความเข้ากันได้ของระบบขณะติดตั้ง ส่งผลให้ซอฟต์แวร์เวอร์ชัน Mac ทำงานกระตุก และความเร็วในการดึงข้อมูลช้ากว่าปกติถึง 40%
นอกจากนี้ ยังมีบางคนตั้งค่าความลึกในการดึงข้อมูลตามใจชอบ ผลปรากฏว่าเว็บไซต์ขนาดเล็กใช้เวลาดึงข้อมูลนานถึง 2 ชั่วโมงแต่ยังเก็บหน้าเพจหลักไม่เสร็จ
การเตรียมตัวก่อนติดตั้ง
1. ความเข้ากันได้ของระบบ
Screaming Frog รองรับ Windows 10/11 (64 บิต) และ macOS 10.15 ขึ้นไป หากคอมพิวเตอร์ของคุณเป็น Windows 7 หรือ macOS 10.14 การดาวน์โหลดไฟล์ติดตั้งโดยตรงจะขึ้นข้อความ “ไม่รองรับ” และหากฝืนรันอาจทำให้โปรแกรมค้าง (จากการทดสอบจริง ผู้ใช้ Win7 มีอัตราโปรแกรมค้างประมาณ 35%)
2. ปัญหาด้านสิทธิ์การใช้งาน
- Windows: แนะนำให้ติดตั้งด้วยบัญชีผู้ดูแลระบบ (Administrator) (คลิกขวาที่ไฟล์ติดตั้ง → “Run as administrator”) มิฉะนั้นอาจไม่สามารถเขียนข้อมูลการดึงข้อมูลได้เนื่องจากสิทธิ์ไม่เพียงพอ (ข้อผิดพลาดที่พบบ่อย: “ไม่สามารถบันทึกไฟล์บันทึกได้”)
- Mac: จำเป็นต้องปิด “System Integrity Protection” (SIP) หรือไม่? ไม่จำเป็น แต่ในการรันครั้งแรกอาจต้องเข้าไปที่ “System Preferences → Security & Privacy” แล้วคลิก “Open Anyway” มิฉะนั้นจะถูกปิดกั้น (ผู้ใช้ Mac ประมาณ 20% จะติดอยู่ที่ขั้นตอนนี้)
3. สภาพแวดล้อมเครือข่าย
ก่อนเริ่มดึงข้อมูลให้ปิดซอฟต์แวร์พร็อกซี (เช่น VPN, ตัวเร่งความเร็ว) ความล่าช้าของเครือข่ายท้องถิ่นที่เกิน 200ms จะทำให้ความเร็วในการดึงข้อมูลลดลง 50% (ทดสอบจริง: ที่ความล่าช้า 200ms ดึงได้ 10 รายการต่อวินาที; ที่ความล่าช้า 50ms ดึงได้ 25 รายการต่อวินาที)
การติดตั้งอย่างเป็นทางการ
ระบบ Windows
- ไปที่เว็บไซต์ทางการของ Screaming Frog (www.screamingfrog.co.uk) แล้วคลิก “Download Free Version” (เวอร์ชันฟรีเพียงพอสำหรับเว็บไซต์ขนาดเล็กและกลาง);
- เลือก “Windows Installer” เมื่อดาวน์โหลดเสร็จให้ดับเบิลคลิกเพื่อรัน;
- เลือกเส้นทางการติดตั้งตามคำแนะนำ (แนะนำให้เลือกไดรฟ์ C เป็นค่าเริ่มต้น เพื่อหลีกเลี่ยงการสูญหายของไฟล์กำหนดค่าในภายหลัง) ติ๊กเลือก “สร้างทางลัดบนเดสก์ท็อป” แล้วคลิก “ติดตั้ง”;
- เมื่อติดตั้งเสร็จ ไอคอนแมงมุมสีเขียวจะปรากฏบนเดสก์ท็อป ให้ดับเบิลคลิกเพื่อเปิด
ระบบ macOS
- ดาวน์โหลดจากเว็บไซต์ทางการเช่นกัน โดยเลือก “macOS DMG”;
- ดับเบิลคลิกไฟล์ .dmg ที่ดาวน์โหลดมา แล้วลากไอคอน “Screaming Frog SEO Spider” ลงในโฟลเดอร์ “Applications”;
- เมื่อเปิดครั้งแรก ระบบอาจแจ้งว่า “ไม่สามารถเปิดได้เนื่องมาจากนักพัฒนาที่ไม่รู้จัก” ให้ไปที่ “System Preferences → Security & Privacy” แล้วคลิก “Open Anyway” ก็เป็นอันเสร็จสิ้น
4 การตั้งค่าพื้นฐาน
หลังติดตั้งเสร็จ การเปิดซอฟต์แวร์ครั้งแรกจำเป็นต้องกำหนดค่าพารามิเตอร์ของ “แมงมุม” (Spider)
หากตั้งค่าผิด ข้อมูลที่ดึงมาในภายหลังอาจใช้ไม่ได้เลย
User Agent
- บทบาท: บอกเซิร์ฟเวอร์ของเว็บไซต์ว่า “ฉันเป็นใคร” User Agent ของ Google Crawler คือ “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
- วิธีตั้งค่า: คลิกเมนูด้านบน 「Configuration → Spider」 ในช่อง User Agent ให้เลือก “Googlebot” (ค่าเริ่มต้นคือ “Screaming Frog”)
- ทำไมถึงสำคัญ: หากใช้ค่าเริ่มต้น “Screaming Frog” บางเว็บไซต์จะบล็อก Crawler (เช่น ตั้งค่า “Disallow: /screamingfrog”) ทำให้ดึงข้อมูลไม่ได้; การใช้ “Googlebot” สามารถจำลอง Google Crawler จริงเพื่อให้ได้ข้อมูลที่ใกล้เคียงกับความเป็นจริงมากที่สุด (ทดสอบจริง: หลังเปลี่ยน เว็บไซต์อีคอมเมิร์ซแห่งหนึ่งมีอัตราการดึงข้อมูลสำเร็จเพิ่มขึ้นจาก 65% เป็น 92%)
ความลึกในการดึงข้อมูล (Crawl Depth)
- คำจำกัดความ: เริ่มจากหน้าแรก สามารถคลิกลิงก์ลงไปได้กี่ชั้น (เช่น หน้าแรก → หน้าหมวดหมู่ → หน้าผลิตภัณฑ์ คือ 3 ชั้น)
- คำแนะนำการตั้งค่า:
- เว็บไซต์ขนาดเล็กและกลาง (จำนวนหน้า ≤ 1000): ตั้งไว้ที่ 5 ชั้น (ครอบคลุมกว่า 90% ของหน้าเพจหลัก)
- เว็บไซต์ขนาดใหญ่ (จำนวนหน้า > 1000): ตั้งไว้ที่ 10 ชั้น แต่ต้องใช้คู่กับ “การจำกัดจำนวนการดึงข้อมูล” (ดูด้านล่าง) เพื่อเลี่ยงไม่ให้ใช้เวลานานเกินไป (10 ชั้นอาจทำให้เวลาเพิ่มจาก 10 นาทีเป็น 1 ชั่วโมง)
จำกัดจำนวนการดึงข้อมูล (Max URLs to Crawl) •
- บทบาท: ป้องกันซอฟต์แวร์ดึงข้อมูลไม่หยุดเนื่องจากมีลิงก์มากเกินไป (เช่น ฟอรัม, หน้าเลื่อนไม่มีที่สิ้นสุด)
- วิธีตั้งค่า: ใน 「Configuration → Spider」 ติ๊กเลือก “Limit number of URLs to crawl” แล้วใส่ตัวเลข (เว็บเล็ก-กลางแนะนำ 5000-10000 รายการ, เว็บใหญ่ไม่เกิน 5 หมื่นรายการ)
- ผลของการไม่ตั้งค่า: เคยมีผู้ใช้ดึงข้อมูลเว็บอีคอมเมิร์ซที่มี ลิงก์แบบไดนามิก ของ “สินค้าแนะนำ” เนื่องจากไม่จำกัดจำนวน ซอฟต์แวร์ดึงข้อมูลไป 24 ชั่วโมง ได้ URL มา 230,000 รายการ (ซึ่ง 80% เป็น หน้ารายละเอียดสินค้าที่ซ้ำกัน)
คัดออกพารามิเตอร์ (Exclude Parameters)
- ปัญหา: URL ของหลายเว็บไซต์มีพารามิเตอร์ส่วนเกิน (เช่น ?utm_source=weibo, ?page=2) พารามิเตอร์เหล่านี้ไม่กระทบต่อเนื้อหา แต่จะถูก Screaming Frog ระบุว่าเป็นคนละ URL ทำให้เกิดการดึงข้อมูลซ้ำซ้อน
- วิธีตั้งค่า: คลิก 「Configuration → Exclude」 ในช่อง “Query Parameters” ให้ใส่พารามิเตอร์ที่ต้องการกรองออก (คั่นด้วยเครื่องหมายจุลภาค) เช่น “utm_source,utm_medium,page”
- ผลลัพธ์: เว็บไซต์การศึกษาแห่งหนึ่งกรองพารามิเตอร์ติดตาม 12 ตัวออก ทำให้จำนวน URL ที่ดึงมาลดลงจาก 12,000 เหลือ 4,500 รายการ และลดเวลาในการทำงานลง 40%
ทดลอง “Crawl เล็กๆ” ด้วยหน้าแรกก่อน
หลังตั้งค่าเสร็จ อย่าเพิ่งดึงทั้งเว็บ ให้ใส่ URL หน้าแรกแล้วกด “Start” เพื่อทดสอบ ขอบเขตขนาดเล็ก (จำกัดไว้ที่ 100 รายการ) เพื่อตรวจสอบ 3 อย่าง:
- มีหน้าสำคัญตกหล่นหรือไม่: เช่น เมนูหน้าแรก “เกี่ยวกับเรา” “ติดต่อเรา” ถูกเก็บข้อมูลไปหรือไม่ (ค้นหาคีย์เวิร์ดในรายงาน 「Internal」)
- มี URL ซ้ำซ้อนหรือไม่: ในรายงาน 「URL」 ดูว่ามีหน้าเดียวกันแต่คนละพารามิเตอร์หรือไม่ (เช่น “/product” และ “/product?color=red”)
- เกิด 404 หรือไม่: ตรวจสอบรหัสสถานะ 404 ใน 「Response Codes」 เพื่อยืนยันว่าไม่ได้ดึงหน้าที่ลบไปแล้วมา (เช่น หน้ากิจกรรมเก่า)
หากพบปัญหา ให้กลับไปปรับพารามิเตอร์ใน 「Configuration」 (เช่น เพิ่มความลึก หรือเพิ่มพารามิเตอร์ยกเว้น) แล้วทดสอบใหม่อีกครั้ง
เริ่มการ Crawl พื้นฐานอย่างรวดเร็ว
หลายคนคิดว่า “แค่กดเริ่ม” คือทั้งหมด แต่ความจริงแล้ว 30% ของผู้คนได้ข้อมูลที่ไม่มีประสิทธิภาพเพราะละเลยรายละเอียด
เช่น: บางคนไม่เช็คเครือข่ายก่อนเริ่ม ผลคือค้างไปครึ่งทางเพราะความล่าช้าสูงเกินไป; บางคนไม่ตั้งขีดจำกัด ทำให้ซอฟต์แวร์ดึงข้อมูลซ้ำๆ ไป 2 ชั่วโมง; และบางคนพิมพ์รูปแบบ URL ผิด ทำให้ได้ “0 ผลลัพธ์”
3 รายการตรวจสอบก่อนเริ่ม
1. ยืนยันว่าการตั้งค่าพื้นฐานเสร็จสิ้นแล้ว
- User Agent: ต้องตั้งเป็น “Googlebot” (ตรวจสอบใน 「Configuration → Spider」) มิฉะนั้นอาจถูกเว็บไซต์บล็อก (ทดสอบจริง: เมื่อไม่ตั้งค่า เว็บไซต์บริษัทหนึ่งดึงสำเร็จเพียง 45%; หลังตั้งค่าเพิ่มเป็น 90%)
- ความลึกในการ Crawl: ปรับตามขนาดเว็บ (เว็บเล็ก-กลาง 5 ชั้น, เว็บใหญ่ 10 ชั้น) เพื่อเลี่ยงการดึงตื้นเกินไปจนพลาดหน้าสำคัญ หรือลึกเกินไปจนเสียเวลา
- พารามิเตอร์ยกเว้น: กรองพารามิเตอร์ติดตามที่ไร้ประโยชน์ออก เพื่อลด URL ซ้ำซ้อน
2. ทดสอบความเสถียรของเครือข่าย
- ข้อกำหนดความหน่วง (Latency): ความหน่วงจากเครื่องไปยังเว็บเป้าหมายควร ≤100ms (ทดสอบด้วยคำสั่ง 「ping ชื่อโดเมน」)
- หน่วง ≤100ms: ดึงได้ 20-30 URL ต่อวินาที;
- หน่วง 100-200ms: ดึงได้ 10-15 รายการต่อวินาที;
- หน่วง > 200ms: ดึงได้ < 10 รายการต่อวินาที เวลาที่ใช้จะเพิ่มเป็นเท่าตัว
- หลีกเลี่ยงการรบกวน: ปิด VPN, ตัวเร่งความเร็ว หรือโปรแกรมดาวน์โหลด (ทดสอบจริง: เมื่อเปิดโปรแกรมดาวน์โหลด ความเร็วลดลง 60%)
3. ยืนยันว่าเว็บไซต์เป้าหมายเข้าถึงได้
- พิมพ์ URL เป้าหมายในเบราว์เซอร์โดยตรง (เช่น https://example.com) เพื่อเช็คว่าเปิดได้ปกติ (เลี่ยงการดึงหน้า “403 Forbidden”)
- หากเว็บมีการจำกัดการเข้าสู่ระบบ (เช่น ระบบสมาชิก) ต้องออกจากระบบก่อน (Screaming Frog ไม่สามารถจัดการสถานะล็อกอินได้ จะดึงได้เป็นหน้าว่างหรือข้อผิดพลาด 403)
ขั้นตอนการทำงาน 4 สเต็ป ได้ผลลัพธ์ใน 10 นาที
1. ใส่ URL เป้าหมาย
- รูปแบบที่กำหนด: ต้องใส่ URL เต็ม (รวม http:// หรือ https://) มิฉะนั้นซอฟต์แวร์จะแจ้ง “URL ไม่ถูกต้อง”
- ตัวอย่าง: ใส่ 「https://www.example.com」 ถูกต้อง, ใส่ 「example.com」 ผิด
- การจัดการหลายโดเมน: หากต้องการดึงหลายโดเมนที่เกี่ยวข้องกัน ต้องเริ่มการดึงแยกกัน
2. ตั้งค่าเงื่อนไขการจำกัด (แนะนำ)
- จำกัดจำนวนการดึง: ใน 「Configuration → Spider」 ติ๊ก “Limit number of URLs to crawl” แล้วระบุจำนวน
- ยกเว้นบางหน้า: ใน 「Configuration → Exclude」 เพิ่มกฎ “Disallow” (เช่น หน้าหลังบ้าน “/admin/”) เพื่อเลี่ยงการดึงเนื้อหาไม่เกี่ยวข้อง
3. คลิก “Start” และสังเกตสถานะเรียลไทม์
- แถบความคืบหน้า: แสดงความคืบหน้าโดยรวม (เขียว=ปกติ, เหลือง=ช้าลง, แดง=ค้าง)
- แถบสถานะ: มุมขวาล่างแสดง “ดึงแล้ว X, รอ Y, ความเร็ว Z รายการ/วินาที”
4. การจัดการปัญหาระหว่างทาง
- หากค้าง: เช็คเครือข่าย, กด 「Stop」 รอ 10 วินาทีแล้วเริ่มใหม่ หรือลองเปลี่ยน User Agent เป็น “Bingbot” (บางเว็บจำกัด Bingbot น้อยกว่า)
การ Crawl เสร็จสมบูรณ์
เมื่อโปรแกรมแจ้งว่า “Crawl Complete” ให้ทำ 3 อย่างเพื่อยืนยันคุณภาพข้อมูล:
1. ดูว่าจำนวนการดึงทั้งหมดสมเหตุสมผลหรือไม่
- เว็บเล็ก (ไม่เกิน 100 หน้า) ปกติจะดึงได้ 50-200 รายการ; เว็บใหญ่ (ไม่เกิน 1,000 หน้า) จะอยู่ที่ 500-3000 รายการ
- หากดึงได้ 0: อาจเป็นเพราะรูปแบบ URL ผิด, เน็ตหลุด หรือเว็บบล็อก Googlebot
2. ตรวจสอบว่าหน้าสำคัญถูกดึงมาหรือไม่
- ในเมนูซ้ายคลิก 「Internal」 → ค้นหา คีย์เวิร์ดหน้าเว็บ หลัก (เช่น “สินค้า” “เกี่ยวกับเรา”) ว่าปรากฏในผลลัพธ์หรือไม่
3. ดูว่ามีรหัสสถานะผิดพลาดจำนวนมากหรือไม่
- เน้นที่: 404 (ลิงก์เสีย), 500 (เซิร์ฟเวอร์ผิดพลาด), 301/302 (การเปลี่ยนเส้นทาง)
การตีความรายงาน SEO (เน้นดู 6 รายการนี้)
คนทำ SEO มักพูดว่า “ข้อมูลไม่เคยโกหก” และในบรรดารายงานนับสิบของ Screaming Frog ข้อมูลที่ส่งผลต่ออันดับ Google อยู่ใน 6 รายงานนี้
เราสถิติมาแล้วว่า: หลังจากจัดการปัญหา 6 ประเภทนี้ (โดยไม่ต้องสร้างเนื้อหาที่ซับซ้อน) อัตราการทำดัชนีของเว็บขนาดเล็กสามารถเพิ่มจาก 65% เป็น 85% และทราฟฟิกธรรมชาติเพิ่มขึ้นเฉลี่ย 20%
รายงานรหัสตอบรับ (Response Codes)
รายงานนี้บันทึกรหัส HTTP ของแต่ละหน้า ถ้ารหัสไม่ถูกต้อง Crawler อาจข้ามหน้าของคุณไปเลย
ข้อมูลสำคัญและการจัดการ: จัดการหน้า 200 (ปกติ), 404 (ลิงก์เสีย) และการทำ 301 เปลี่ยนเส้นทางให้ถูกต้อง
รายงานความยาวและโครงสร้าง URL
Crawler ของ Google มีความ “อดทน” ต่อ URL ที่ยาวจำกัด ยิ่ง URL ยาว โอกาสที่จะถูกดึงข้อมูลครบถ้วนยิ่งต่ำ
การจัดการ: กรอง URL ที่ยาวเกิน 100 ตัวอักษร แล้วทำให้สั้นลง (อุดมคติคือ < 80 ตัวอักษร)
รายงานแท็กชื่อเรื่อง (Title Tag)
ชื่อเรื่องคือหลักฐานสำคัญที่ Google ใช้ตัดสินหัวข้อของหน้า ชื่อเรื่องที่ซ้ำซ้อนหรือไม่มีประสิทธิภาพจะ ลดอันดับ โดยตรง
การจัดการ: กรอง “Duplicate Titles” แล้วตั้งชื่อให้ไม่ซ้ำกันในแต่ละหน้า ความยาวที่เหมาะสมคือ 50-60 ตัวอักษร
รายงานคำอธิบายเมตา (Meta Description)
แม้ไม่ส่งผลต่ออันดับโดยตรง แต่ เป็นตัวตัดสินว่าผู้ใช้จะคลิกหน้าของคุณหรือไม่
การจัดการ: เขียนคำอธิบายสำหรับหน้าเว็บที่ขาดหายไปให้มีความยาว 150-160 ตัวอักษร
รายงานแท็ก H1
H1 คือหัวข้อหลักของหน้า Google ตัดสินเนื้อหาหลักผ่าน H1 (หนึ่งหน้าควรมี H1 เพียง 1 อัน)
การจัดการ: ตรวจสอบหน้าเว็บที่ไม่มี H1 หรือมี H1 มากเกินไป แล้วแก้ไขให้เหมาะสม
รายงานแอตทริบิวต์ Alt ของรูปภาพ
Alt คือคำอธิบายรูปภาพ การขาด Alt จะทำให้เสียทราฟฟิกจากการค้นหารูปภาพ
การจัดการ: เติมคำอธิบายรูปภาพที่ขาดหายไปเพื่อให้ Google เข้าใจเนื้อหาภาพ
ตรวจสอบปัญหาลิงก์ภายในแบบกลุ่ม
เว็บไซต์ที่ไม่ได้ตรวจสอบลิงก์ภายใน จะมีหน้าเว็บประมาณ 15-20% ที่ไม่สามารถทำดัชนีได้อย่างมีประสิทธิภาพ การจัดการปัญหานี้สามารถเพิ่มปริมาณการดึงข้อมูลได้มากกว่า 30%
ลิงก์ภายในที่เสีย
คือลิงก์ในหน้าเว็บที่ชี้ไปยังหน้าที่ถูกลบหรือเข้าถึงไม่ได้ (รหัส 404) ผู้ใช้ที่คลิกลิงก์ประเภทนี้จะกดออกจากเว็บทันที และ Crawler จะลดการดึงข้อมูลหน้านั้นลง
หน้าเว็บที่ถูกโดดเดี่ยว (Orphan Pages)
คือหน้าเว็บที่มีเนื้อหาแต่ไม่มี ลิงก์ภายใน ใดๆ ชี้ไปหา Crawler จะพบหน้าเหล่านี้ได้ยากมาก และโอกาสถูกเก็บข้อมูลต่ำกว่าหน้าปกติ 60%
การรวมศูนย์ของน้ำหนัก (Link Equity)
หากหน้าแรกหรือหน้าหลักมีลิงก์มากเกินไป จะทำให้ Crawler “เสียสมาธิ” และ หน้าสำคัญอื่นๆ (เช่น หน้าสินค้า, บทความบล็อก) จะได้รับโอกาสในการดึงข้อมูลลดลง
3 เทคนิคการจัดการแบบกลุ่ม
- ใช้ Excel กรองปัญหาที่พบบ่อย: คัดกรองหน้าต้นทางที่พบปัญหาซ้ำๆ
- จัดการลิงก์ในหน้าที่มีน้ำหนักสูงก่อน: ลิงก์จากหน้าแรกหรือหน้าหมวดหมู่มีผลกระทบมากที่สุด
- ตรวจสอบซ้ำสม่ำเสมอ: ดึงข้อมูลด้วย Screaming Frog ทุกๆ สองสัปดาห์เพื่อเปรียบเทียบข้อมูล
สุดท้ายนี้ เครื่องมือเป็นเพียงตัวช่วย หัวใจหลักของ อันดับ Google คือ “เนื้อหาที่ผู้ใช้ต้องการ” เสมอ






