Table of Contens
Toggleส่งคำขอลบเนื้อหาหมดอายุผ่านเครื่องมือทางการของ Google
แทนที่จะรอระบบอัปเดตอัตโนมัติ Google Search Console มีฟีเจอร์ “ลบชั่วคราว” ที่ช่วยให้คุณสามารถควบคุมผลการค้นหาได้โดยตรง
ถือเป็นการส่ง “สัญญาณรีเฟรชแบบบังคับ” ไปยังเซิร์ฟเวอร์ของ Google เหมาะอย่างยิ่งสำหรับหน้าสินค้าที่ถูกถอดออก หน้ากิจกรรมที่หมดอายุ เป็นต้น โดยอาจเห็นผลเร็วสุดใน 12 ชั่วโมง
ทางเข้าฟีเจอร์แบบแม่นยำ
- เข้าสู่ระบบ Google Search Console แล้วเลือก “การลบ” ที่แถบเมนูด้านซ้าย (ไม่ใช่ “ตรวจสอบ URL”)
- คลิก “คำขอใหม่” → เลือกแท็บ “ลบชั่วคราว” (อย่าเลือกตัวเลือกการลบถาวร)
เงื่อนไขสำคัญก่อนส่งคำขอ
- ตรวจสอบว่า URL เป้าหมายส่งรหัส HTTP เป็น 404 หรือ 410 (ใช้เครื่องมือออนไลน์เช่น httpstatus.io เพื่อตรวจสอบ)
- หากหน้าถูกเปลี่ยนเส้นทาง ให้ลบการ redirect ออกก่อน
- ตัวอย่าง: หน้าเก่าที่ถูกลบ
https://example.com/product-123
เคล็ดลับเพื่อเร่งผลลัพธ์
- ติ๊กเลือก “ลบลิงก์แคช” ด้วย (ค่าปกติจะซ่อนอยู่ ต้องคลิกเพื่อแสดง)
- หากต้องจัดการหลายหน้า ให้ใช้ฟีเจอร์ “ลบพารามิเตอร์” เพื่อส่งแบบกลุ่ม (เช่นลิงก์ที่มี
?id=123
) - การลบชั่วคราวจะมีผลประมาณ 6 เดือน (หมดอายุแล้วต้องยื่นใหม่)
สาเหตุที่มักทำให้คำขอล้มเหลว
- ❌ หน้าเพจยังตอบกลับเป็น 200 (ไม่ได้ลบจริง)
- ❌ ยังไม่ได้ยืนยันความเป็นเจ้าของเว็บไซต์ (ต้องยืนยันผ่าน DNS หรือไฟล์ HTML)
- ❌ ส่ง URL ที่มี # (anchor) ซึ่งไม่ถูกต้อง ควรส่งเฉพาะ URL หลัก
การติดตามผล
ตรวจสอบสถานะในแผง “การลบ”:
- ✅ สีเขียว “อนุมัติแล้ว” : แคชถูกลบออกจากผลการค้นหาแล้ว
- ⏳ “กำลังดำเนินการ” : Google รับคำขอแล้ว (โดยทั่วไปภายใน 24 ชม.)
- ❗ “ผิดพลาด” : แก้ไขสถานะหน้าแล้วส่งคำขอใหม่อีกครั้ง
เคล็ดลับรีเฟรชแคชแบบแมนนวล
การรีเฟรชแคชด้วยตนเองเป็นวิธีตรงที่สุด เหมาะกับหน้าเว็บที่ข้อมูลมีอายุสั้น เช่น ข่าวหรือราคาสินค้าที่เปลี่ยนแปลงบ่อย
สามารถ “หลอก” ให้ Google bot เข้ามาเก็บข้อมูลใหม่ได้ โดยจากการทดสอบพบว่าประมาณ 50% จะอัปเดตแคชภายใน 3 วัน
เส้นทางลับของปุ่มรีเฟรชแคช
- ใน Google Search พิมพ์
cache:URLของคุณ
(เช่นcache:example.com/news
) - สำคัญ: หากหน้าเพจสามารถอัปเดตได้ จะมีปุ่ม “อัปเดตแคชนี้” ปรากฏที่มุมขวาบน (ไม่แสดงเสมอไป)
- คลิกปุ่มเพื่อกระตุ้นให้ Google จัดลำดับความสำคัญในการรวบรวมข้อมูลหน้าเพจนี้
ใช้โหมดไม่ระบุตัวตนกระตุ้นการรวบรวมข้อมูล
- เปิดหน้าเว็บใน Chrome โหมดไม่ระบุตัวตน แล้ว รีเฟรชติดต่อกัน 5 ครั้ง
- ขั้นสูง: เติมพารามิเตอร์สุ่มที่ท้าย URL เช่น
?v=20230828
- หลักการ: ช่วยกระตุ้น “อัลกอริธึมอัปเดตจากพฤติกรรมผู้ใช้” เพิ่มน้ำหนักการรวบรวมข้อมูลขึ้น ~30%
เทคนิคปิดแคชเบราว์เซอร์หลอก Google
- กด
F12
เปิด Developer Tools → แท็บ Network - ติ๊ก “Disable cache” แล้วรีเฟรชหน้า
- ทำ 3 ครั้งต่อเนื่อง Google bot อาจคิดว่าหน้ามีการเปลี่ยนแปลงจึงรวบรวมใหม่
ข้อควรระวัง
- ❗ หน้าเพจที่สร้างด้วย JavaScript ต้องทำซ้ำอย่างน้อย 3 รอบ
- ❗ บนมือถือแนะนำให้ใช้โหมดไม่ระบุตัวตนเช่นกัน
- ✅ ใช้ Search Console ตรวจสอบสถานะการจัดทำดัชนีแบบเรียลไทม์
ตั้งค่ารหัส 404 ที่ถูกต้องเป็นสิ่งจำเป็น
ผู้ดูแลเว็บไซต์จำนวนมากเข้าใจผิดว่า “ลบหน้าแล้วจบ” แต่หากการตั้งค่า 404 ไม่ถูกต้อง อาจทำให้ SEO แย่ลง
Google อาจยังคงพยายามรวบรวมหน้า “ที่ไม่มีอยู่แล้ว” และเก็บแคชเดิมไว้ หรือหากหน้าแสดงเนื้อหาว่างแต่ยังส่งรหัส 200 อาจถูกมองว่าเป็น soft 404 ส่งผลเสียต่อความน่าเชื่อถือของเว็บไซต์
ตรวจสอบรหัส HTTP อย่างละเอียด
ใช้ปลั๊กอินเบราว์เซอร์ (เช่น HTTP Status) หรือใช้คำสั่ง curl -I URL
เพื่อตรวจสอบ
ต้องส่งคืนรหัส 404 หรือ 410 ห้ามเป็น 200 หรือ 302 (เช่นเปลี่ยนเส้นทางไปยังหน้าแรกโดยไม่ได้ตั้งใจ)
- กรณีตัวอย่าง: WordPress ต้องปิดปลั๊กอินที่เปลี่ยนเส้นทางหน้าถูกลบไปยังเนื้อหาที่ใกล้เคียง
บล็อกเส้นทางหน้าเก่าด้วย robots.txt
เพิ่มบรรทัดนี้ใน robots.txt: Disallow: /pathของหน้าที่ลบแล้ว/
(รองรับ * ไวลด์การ์ด)
ห้ามการรวบรวมข้อมูล และส่งรายงานการทดสอบ robots.txt ผ่าน Search Console พร้อมกัน
- คำเตือน: robots.txt ไม่สามารถป้องกันการแสดงผลแคชของหน้าที่ถูกจัดทำดัชนีแล้วได้
กลยุทธ์การเลือกใช้การเปลี่ยนเส้นทางแบบ 301
ใช้การเปลี่ยนเส้นทาง 301 เฉพาะเมื่อมีเนื้อหาทดแทน (เช่น สินค้าเก่า → หน้าหมวดหมู่สินค้าใหม่)
หน้าเป้าหมายต้องเกี่ยวข้องกับหัวข้อของเนื้อหาเดิมอย่างใกล้ชิด (เพื่อหลีกเลี่ยงการกระจายค่าคะแนน SEO)
- ห้ามใช้การเปลี่ยนเส้นทางแบบลูกโซ่ (เช่น หน้าเก่า A → หน้าเก่า B → หน้าใหม่ C)
สถานการณ์เสี่ยงที่พบบ่อย
- ❌ แสดงข้อความ 404 ด้วย JavaScript (บอตยังอาจมองว่าเป็นหน้าใช้งานได้)
- ❌ หน้า 404 แบบกำหนดเองที่มีแถบนำทางหรือช่องค้นหา (อาจถูกจัดเป็น soft 404)
- ✅ แนวทางที่ถูกต้อง: แสดงข้อความแจ้งเตือนอย่างเรียบง่ายในหน้า 404 และลบลิงก์ภายในทั้งหมดออก
เครื่องมือที่แนะนำ
- Google Search Console → รายงาน Coverage → กรองหน้า “ส่งแล้วแต่ยังไม่ถูกจัดทำดัชนี”
- ใช้ Screaming Frog ในการสแกน → กรองหน้าที่แสดง “Client Error 4xx”
- ใช้เครื่องมือ SEO ภายนอก เช่น Ahrefs เพื่อตรวจสอบ Backlink ที่ชี้ไปยังหน้าที่ผิดพลาด
(ตัวอย่างการตั้งค่า: สำหรับเซิร์ฟเวอร์ Apache ให้เพิ่ม ErrorDocument 404 /error-404.html
ใน .htaccess, ส่วน Nginx ให้เพิ่ม error_page 404 /404.html;
ในไฟล์ config)
เทคนิคการอัปเดตแบบกลุ่ม: XML Sitemap
สำหรับเว็บไซต์ที่มีหน้าล้าสมัยจำนวนมาก (เช่น สินค้าที่เลิกขาย หรือบทความเก่าที่ถูกลบ) การส่งแต่ละหน้าจะใช้เวลานานมาก
XML Sitemap เป็น “ทางลัดการอัปเดตแบบกลุ่ม” ที่ได้รับการรับรองโดย Google ช่วยลดระยะเวลาในการจัดทำดัชนีจากหลายสัปดาห์เหลือเพียง 72 ชั่วโมง
สร้าง Sitemap แบบไดนามิกอย่างแม่นยำ
ใช้เครื่องมือ (เช่น Screaming Frog หรือปลั๊กอิน WP) ในการรวบรวมข้อมูลทั้งเว็บไซต์ และกรองหน้าที่แสดง 404 ออกโดยอัตโนมัติ
เก็บแท็ก <lastmod>
ไว้สำหรับหน้าที่ใช้งานได้ (รูปแบบเวลา: 2023-08-28T12:00:00+00:00
)
- ข้อผิดพลาด: รวม URL ของหน้าที่ถูกลบไว้ใน sitemap จะทำให้ Google พยายามรวบรวมซ้ำ
กลยุทธ์การบังคับรวบรวมใน Search Console
หลังจากอัปโหลด sitemap.xml ใหม่แล้ว ให้คลิก “ทดสอบ” เพื่อตรวจสอบลิงก์ที่ผิดพลาด
จากเมนูดรอปดาวน์ข้างปุ่ม “ส่ง” ให้เลือก “รวบรวมข้อมูลใหม่” แทนการส่งธรรมดา
สำหรับเว็บไซต์ที่มีการอัปเดตบ่อย ควรแยก sitemap เป็นหลายไฟล์ (เช่น product-sitemap.xml, news-sitemap.xml)
การทำงานร่วมกันระหว่าง sitemap และ robots.txt
เพิ่มบรรทัดแรกใน robots.txt ว่า sitemap: https://yourdomain.com/sitemap.xml
หน้าที่ห้ามรวบรวมข้อมูลต้องลบออกจาก sitemap ด้วย (เพื่อหลีกเลี่ยงคำสั่งขัดแย้ง)
- ตัวอย่าง: หน้ารายการสินค้ารุ่นเก่าควรถูกลบออกจาก sitemap และเพิ่มแท็ก
<noindex>
เร่งผลลัพธ์ให้เกิดเร็วขึ้น
- เพิ่มแท็ก
<priority>0.8</priority>
ให้กับหน้าที่มีความสำคัญสูงใน sitemap - ตั้งค่าให้สร้าง sitemap อัตโนมัติทุกวัน (สามารถใช้ฟังก์ชัน cron job ในระบบจัดการเซิร์ฟเวอร์เช่น Baota)
- ใช้ Indexing API เพื่ออัปเดตแบบเรียลไทม์ (ต้องใช้ความสามารถในการพัฒนา)
ตัวชี้วัดเพื่อตรวจสอบผล
- ดูอัตราส่วน “พบแล้ว” กับ “จัดทำดัชนีแล้ว” ในหน้าส่ง sitemap บน Search Console
- ใช้ Google Analytics ในการวิเคราะห์แหล่งที่มาของการเข้าชมที่นำไปสู่หน้า 404
- ใช้ DeepCrawl ตรวจสอบความสอดคล้องระหว่าง sitemap กับหน้าจริงเป็นประจำทุกสัปดาห์
(ตัวอย่างการตั้งค่า: เว็บไซต์ WordPress ใช้ปลั๊กอิน RankMath เพื่อสร้าง sitemap แบบไดนามิกและซิงก์กับฐานข้อมูลทุกชั่วโมง)
การอัปเดตดัชนีของ Google มีความล่าช้า 1–3 วัน หลังจากดำเนินการแล้ว กรุณาอย่าส่งซ้ำ หากยังไม่เห็นผลใน 72 ชั่วโมง ควรตรวจสอบว่าหน้านั้นยังมีโค้ดเปลี่ยนเส้นทางหรือข้อผิดพลาดใน robots.txt อยู่หรือไม่