เว็บเพจถูกลบแล้ว แต่ Google ยังแสดงชื่อเก่า|วิธีบังคับให้อัปเดตสแนปช็อต

本文作者:Don jiang

หน้าเว็บถูกลบแต่ยังปรากฏชื่อเก่าใน Google

Table of Contens

ส่งคำขอลบเนื้อหาหมดอายุผ่านเครื่องมือทางการของ Google

แทนที่จะรอระบบอัปเดตอัตโนมัติ Google Search Console มีฟีเจอร์ “ลบชั่วคราว” ที่ช่วยให้คุณสามารถควบคุมผลการค้นหาได้โดยตรง

ถือเป็นการส่ง “สัญญาณรีเฟรชแบบบังคับ” ไปยังเซิร์ฟเวอร์ของ Google เหมาะอย่างยิ่งสำหรับหน้าสินค้าที่ถูกถอดออก หน้ากิจกรรมที่หมดอายุ เป็นต้น โดยอาจเห็นผลเร็วสุดใน 12 ชั่วโมง

ทางเข้าฟีเจอร์แบบแม่นยำ

  • เข้าสู่ระบบ Google Search Console แล้วเลือก “การลบ” ที่แถบเมนูด้านซ้าย (ไม่ใช่ “ตรวจสอบ URL”)
  • คลิก “คำขอใหม่” → เลือกแท็บ “ลบชั่วคราว” (อย่าเลือกตัวเลือกการลบถาวร)

เงื่อนไขสำคัญก่อนส่งคำขอ

  1. ตรวจสอบว่า URL เป้าหมายส่งรหัส HTTP เป็น 404 หรือ 410 (ใช้เครื่องมือออนไลน์เช่น httpstatus.io เพื่อตรวจสอบ)
  2. หากหน้าถูกเปลี่ยนเส้นทาง ให้ลบการ redirect ออกก่อน
  3. ตัวอย่าง: หน้าเก่าที่ถูกลบ https://example.com/product-123

เคล็ดลับเพื่อเร่งผลลัพธ์

  1. ติ๊กเลือก “ลบลิงก์แคช” ด้วย (ค่าปกติจะซ่อนอยู่ ต้องคลิกเพื่อแสดง)
  2. หากต้องจัดการหลายหน้า ให้ใช้ฟีเจอร์ “ลบพารามิเตอร์” เพื่อส่งแบบกลุ่ม (เช่นลิงก์ที่มี ?id=123)
  3. การลบชั่วคราวจะมีผลประมาณ 6 เดือน (หมดอายุแล้วต้องยื่นใหม่)

สาเหตุที่มักทำให้คำขอล้มเหลว

  • ❌ หน้าเพจยังตอบกลับเป็น 200 (ไม่ได้ลบจริง)
  • ❌ ยังไม่ได้ยืนยันความเป็นเจ้าของเว็บไซต์ (ต้องยืนยันผ่าน DNS หรือไฟล์ HTML)
  • ❌ ส่ง URL ที่มี # (anchor) ซึ่งไม่ถูกต้อง ควรส่งเฉพาะ URL หลัก

การติดตามผล

ตรวจสอบสถานะในแผง “การลบ”:

  • ✅ สีเขียว “อนุมัติแล้ว” : แคชถูกลบออกจากผลการค้นหาแล้ว
  • ⏳ “กำลังดำเนินการ” : Google รับคำขอแล้ว (โดยทั่วไปภายใน 24 ชม.)
  • ❗ “ผิดพลาด” : แก้ไขสถานะหน้าแล้วส่งคำขอใหม่อีกครั้ง

เคล็ดลับรีเฟรชแคชแบบแมนนวล

การรีเฟรชแคชด้วยตนเองเป็นวิธีตรงที่สุด เหมาะกับหน้าเว็บที่ข้อมูลมีอายุสั้น เช่น ข่าวหรือราคาสินค้าที่เปลี่ยนแปลงบ่อย

สามารถ “หลอก” ให้ Google bot เข้ามาเก็บข้อมูลใหม่ได้ โดยจากการทดสอบพบว่าประมาณ 50% จะอัปเดตแคชภายใน 3 วัน

เส้นทางลับของปุ่มรีเฟรชแคช

  • ใน Google Search พิมพ์ cache:URLของคุณ (เช่น cache:example.com/news)
  • สำคัญ: หากหน้าเพจสามารถอัปเดตได้ จะมีปุ่ม “อัปเดตแคชนี้” ปรากฏที่มุมขวาบน (ไม่แสดงเสมอไป)
  • คลิกปุ่มเพื่อกระตุ้นให้ Google จัดลำดับความสำคัญในการรวบรวมข้อมูลหน้าเพจนี้

ใช้โหมดไม่ระบุตัวตนกระตุ้นการรวบรวมข้อมูล

  • เปิดหน้าเว็บใน Chrome โหมดไม่ระบุตัวตน แล้ว รีเฟรชติดต่อกัน 5 ครั้ง
  • ขั้นสูง: เติมพารามิเตอร์สุ่มที่ท้าย URL เช่น ?v=20230828
  • หลักการ: ช่วยกระตุ้น “อัลกอริธึมอัปเดตจากพฤติกรรมผู้ใช้” เพิ่มน้ำหนักการรวบรวมข้อมูลขึ้น ~30%

เทคนิคปิดแคชเบราว์เซอร์หลอก Google

  • กด F12 เปิด Developer Tools → แท็บ Network
  • ติ๊ก “Disable cache” แล้วรีเฟรชหน้า
  • ทำ 3 ครั้งต่อเนื่อง Google bot อาจคิดว่าหน้ามีการเปลี่ยนแปลงจึงรวบรวมใหม่

ข้อควรระวัง

  • ❗ หน้าเพจที่สร้างด้วย JavaScript ต้องทำซ้ำอย่างน้อย 3 รอบ
  • ❗ บนมือถือแนะนำให้ใช้โหมดไม่ระบุตัวตนเช่นกัน
  • ✅ ใช้ Search Console ตรวจสอบสถานะการจัดทำดัชนีแบบเรียลไทม์

ตั้งค่ารหัส 404 ที่ถูกต้องเป็นสิ่งจำเป็น

ผู้ดูแลเว็บไซต์จำนวนมากเข้าใจผิดว่า “ลบหน้าแล้วจบ” แต่หากการตั้งค่า 404 ไม่ถูกต้อง อาจทำให้ SEO แย่ลง

Google อาจยังคงพยายามรวบรวมหน้า “ที่ไม่มีอยู่แล้ว” และเก็บแคชเดิมไว้ หรือหากหน้าแสดงเนื้อหาว่างแต่ยังส่งรหัส 200 อาจถูกมองว่าเป็น soft 404 ส่งผลเสียต่อความน่าเชื่อถือของเว็บไซต์

ตรวจสอบรหัส HTTP อย่างละเอียด

ใช้ปลั๊กอินเบราว์เซอร์ (เช่น HTTP Status) หรือใช้คำสั่ง curl -I URL เพื่อตรวจสอบ

ต้องส่งคืนรหัส 404 หรือ 410 ห้ามเป็น 200 หรือ 302 (เช่นเปลี่ยนเส้นทางไปยังหน้าแรกโดยไม่ได้ตั้งใจ)

  • กรณีตัวอย่าง: WordPress ต้องปิดปลั๊กอินที่เปลี่ยนเส้นทางหน้าถูกลบไปยังเนื้อหาที่ใกล้เคียง

บล็อกเส้นทางหน้าเก่าด้วย robots.txt

เพิ่มบรรทัดนี้ใน robots.txt: Disallow: /pathของหน้าที่ลบแล้ว/ (รองรับ * ไวลด์การ์ด)
ห้ามการรวบรวมข้อมูล และส่งรายงานการทดสอบ robots.txt ผ่าน Search Console พร้อมกัน

  • คำเตือน: robots.txt ไม่สามารถป้องกันการแสดงผลแคชของหน้าที่ถูกจัดทำดัชนีแล้วได้

กลยุทธ์การเลือกใช้การเปลี่ยนเส้นทางแบบ 301

ใช้การเปลี่ยนเส้นทาง 301 เฉพาะเมื่อมีเนื้อหาทดแทน (เช่น สินค้าเก่า → หน้าหมวดหมู่สินค้าใหม่)

หน้าเป้าหมายต้องเกี่ยวข้องกับหัวข้อของเนื้อหาเดิมอย่างใกล้ชิด (เพื่อหลีกเลี่ยงการกระจายค่าคะแนน SEO)

  • ห้ามใช้การเปลี่ยนเส้นทางแบบลูกโซ่ (เช่น หน้าเก่า A → หน้าเก่า B → หน้าใหม่ C)

สถานการณ์เสี่ยงที่พบบ่อย

  • ❌ แสดงข้อความ 404 ด้วย JavaScript (บอตยังอาจมองว่าเป็นหน้าใช้งานได้)
  • ❌ หน้า 404 แบบกำหนดเองที่มีแถบนำทางหรือช่องค้นหา (อาจถูกจัดเป็น soft 404)
  • ✅ แนวทางที่ถูกต้อง: แสดงข้อความแจ้งเตือนอย่างเรียบง่ายในหน้า 404 และลบลิงก์ภายในทั้งหมดออก

เครื่องมือที่แนะนำ

  • Google Search Console → รายงาน Coverage → กรองหน้า “ส่งแล้วแต่ยังไม่ถูกจัดทำดัชนี”
  • ใช้ Screaming Frog ในการสแกน → กรองหน้าที่แสดง “Client Error 4xx”
  • ใช้เครื่องมือ SEO ภายนอก เช่น Ahrefs เพื่อตรวจสอบ Backlink ที่ชี้ไปยังหน้าที่ผิดพลาด

(ตัวอย่างการตั้งค่า: สำหรับเซิร์ฟเวอร์ Apache ให้เพิ่ม ErrorDocument 404 /error-404.html ใน .htaccess, ส่วน Nginx ให้เพิ่ม error_page 404 /404.html; ในไฟล์ config)

เทคนิคการอัปเดตแบบกลุ่ม: XML Sitemap

สำหรับเว็บไซต์ที่มีหน้าล้าสมัยจำนวนมาก (เช่น สินค้าที่เลิกขาย หรือบทความเก่าที่ถูกลบ) การส่งแต่ละหน้าจะใช้เวลานานมาก

XML Sitemap เป็น “ทางลัดการอัปเดตแบบกลุ่ม” ที่ได้รับการรับรองโดย Google ช่วยลดระยะเวลาในการจัดทำดัชนีจากหลายสัปดาห์เหลือเพียง 72 ชั่วโมง

สร้าง Sitemap แบบไดนามิกอย่างแม่นยำ

ใช้เครื่องมือ (เช่น Screaming Frog หรือปลั๊กอิน WP) ในการรวบรวมข้อมูลทั้งเว็บไซต์ และกรองหน้าที่แสดง 404 ออกโดยอัตโนมัติ

เก็บแท็ก <lastmod> ไว้สำหรับหน้าที่ใช้งานได้ (รูปแบบเวลา: 2023-08-28T12:00:00+00:00)

  • ข้อผิดพลาด: รวม URL ของหน้าที่ถูกลบไว้ใน sitemap จะทำให้ Google พยายามรวบรวมซ้ำ

กลยุทธ์การบังคับรวบรวมใน Search Console

หลังจากอัปโหลด sitemap.xml ใหม่แล้ว ให้คลิก “ทดสอบ” เพื่อตรวจสอบลิงก์ที่ผิดพลาด

จากเมนูดรอปดาวน์ข้างปุ่ม “ส่ง” ให้เลือก “รวบรวมข้อมูลใหม่” แทนการส่งธรรมดา

สำหรับเว็บไซต์ที่มีการอัปเดตบ่อย ควรแยก sitemap เป็นหลายไฟล์ (เช่น product-sitemap.xml, news-sitemap.xml)

การทำงานร่วมกันระหว่าง sitemap และ robots.txt

เพิ่มบรรทัดแรกใน robots.txt ว่า sitemap: https://yourdomain.com/sitemap.xml

หน้าที่ห้ามรวบรวมข้อมูลต้องลบออกจาก sitemap ด้วย (เพื่อหลีกเลี่ยงคำสั่งขัดแย้ง)

  • ตัวอย่าง: หน้ารายการสินค้ารุ่นเก่าควรถูกลบออกจาก sitemap และเพิ่มแท็ก <noindex>

เร่งผลลัพธ์ให้เกิดเร็วขึ้น

  • เพิ่มแท็ก <priority>0.8</priority> ให้กับหน้าที่มีความสำคัญสูงใน sitemap
  • ตั้งค่าให้สร้าง sitemap อัตโนมัติทุกวัน (สามารถใช้ฟังก์ชัน cron job ในระบบจัดการเซิร์ฟเวอร์เช่น Baota)
  • ใช้ Indexing API เพื่ออัปเดตแบบเรียลไทม์ (ต้องใช้ความสามารถในการพัฒนา)

ตัวชี้วัดเพื่อตรวจสอบผล

  • ดูอัตราส่วน “พบแล้ว” กับ “จัดทำดัชนีแล้ว” ในหน้าส่ง sitemap บน Search Console
  • ใช้ Google Analytics ในการวิเคราะห์แหล่งที่มาของการเข้าชมที่นำไปสู่หน้า 404
  • ใช้ DeepCrawl ตรวจสอบความสอดคล้องระหว่าง sitemap กับหน้าจริงเป็นประจำทุกสัปดาห์

(ตัวอย่างการตั้งค่า: เว็บไซต์ WordPress ใช้ปลั๊กอิน RankMath เพื่อสร้าง sitemap แบบไดนามิกและซิงก์กับฐานข้อมูลทุกชั่วโมง)

การอัปเดตดัชนีของ Google มีความล่าช้า 1–3 วัน หลังจากดำเนินการแล้ว กรุณาอย่าส่งซ้ำ หากยังไม่เห็นผลใน 72 ชั่วโมง ควรตรวจสอบว่าหน้านั้นยังมีโค้ดเปลี่ยนเส้นทางหรือข้อผิดพลาดใน robots.txt อยู่หรือไม่

Picture of Don Jiang
Don Jiang

SEO本质是资源竞争,为搜索引擎用户提供实用性价值,关注我,带您上顶楼看透谷歌排名的底层算法。

最新解读
滚动至顶部