GoogleBot หุ่นยนต์ตัวฉกาจของ Google คืออะไร
GoogleBot หุ่นยนต์ตัวฉกาจของ Google เอาใจ Bot เป็น ทำ SEO ได้ง่ายกว่า
*GoogleBot คืออะไร
เบื้องหลังของการที่ Google เป็น search engine ที่ได้รับความนิยมสูงสุดในโลก คือ การที่ Google มีหุ่นยนต์อัจฉริยะ หรือ Robot เป็นของตัวเอง ซึ่งจะเรียกสั้นๆ ย่อๆ ว่า “GoogleBot” โดยเจ้าโรบอตตัวนี้ หน้าตาของมันจะเป็นโปรแกรมอัตโนมัติที่ใช้สำหรับ “รวบรวมข้อมูลเว็บ” โดยจะไต่ไปตามเว็บไซต์ทั่วโลก คลานไปตามลิงก์ต่างๆ ในแต่ละเว็บไซต์เพื่อดูดเก็บและทำสำเนาข้อมูลกลับมา…ลักษณะของการคลานโยงใยไปมาแบบนี้ บางครั้งในวงการจึงขนานนามมันว่า “SpiderBot“
เจ้าหุ่นยนต์ฉกาจตัวนี้ แบ่งเป็น 2 ตัวย่อยๆ คือ “Deepbot” และ “Freshbot” ซึ่งจะทำหน้าที่คล้ายกันคือ การคลานไปเก็บข้อมูล (Crawling) ตามเว็บไซต์ หรือบล็อกต่างๆ เพียงแต่ความลึก และระยะเวลาความถี่ในการเก็บข้อมูลจะแตกต่างกัน โดย “Deepbot“ จะเก็บข้อมูลเว็บไซต์แบบเจาะลึก ส่วนเจ้า “Freshbot“ จะเน้นความเร็ว และความสด ใหม่ของข้อมูล เช่น การอัปเดตเว็บไซต์ การแก้ไข หรือ ปรับปรุงบทความ เป็นต้น
*ภารกิจของ GoogleBot
GoogleBot ทำหน้าที่เก็บข้อมูลจากเว็บไซต์ทั่วโลก แล้วนำกลับมาเก็บใน Google Server และทำเป็นดัชนีข้อมูล (Index) ไว้ รองรับการใช้งานเมื่อมีคนเข้าไปค้นหาใน Google ด้วย Keyword ต่างๆ จากนั้นระบบ search engine ก็จะทำงาน โดยจะดึงข้อมูลมาจาก Index และนำมาประมวลผลก่อนจะแสดงผลลัพธ์ (Result) ของการค้นหาที่เกี่ยวข้องกับ Keyword นั้นมากที่สุด ดังนั้น ถ้าเราทำเว็บให้ติดอยู่ในเรดาห์ของ GoogleBot ก็ย่อมมีโอกาสที่เว็บเราจะถูกจัดลำดับความสำคัญ ในการแสดงผลที่หน้า SERP ได้ไม่ยาก
เป้าหมายของ GoogleBot คือ รวบรวมข้อมูลของเว็บไซต์ให้มากที่สุดเท่าที่จะทำได้ โดยจะมี Algorithm ในการคัดกรอง เช่น ความถี่ของการเก็บข้อมูล หรือจำนวนหน้าเว็บที่จะเก็บข้อมูลกลับมาใช้ เป็นต้น วิธีการเดินทางไป “รวบรวมข้อมูล“ จากเว็บหลายพันล้านหน้าในโลกออนไลน์ มันจะใช้การไต่ไปเรื่อยๆ ทั้งเว็บใหม่ เว็บเก่า และก็จะไต่ไปตามการเชื่อมโยง (Link) จากเว็บหนึ่งไปยังอีกเว็บ หรือไต่จากเว็บไซต์เดียวกันไปยังแต่ละเว็บเพจ เมื่อไปถึงแล้วก็จะดาวน์โหลดหน้าที่พบและก็เก็บข้อมูลกลับมา
พฤติกรรมอย่างหนึ่งของเจ้าหุ่นยนต์ตัวนี้คือ มันจะชอบแวะเวียนมาตรวจสอบ และอัปเดตข้อมูลใหม่ๆ อยู่เสมอ เช่น หากเว็บเก่ามีการเพิ่มบทความ แก้ไขบทความ มันก็จะบันทึกข้อมูลการเปลี่ยนแปลงจากครั้งก่อนที่มันเคยบันทึกไว้ ดังนั้น หากเราอัปเดตข้อมูลเว็บไซต์อยู่บ่อยๆ ไม่ปล่อยให้เป็นเว็บแห้ง เจ้า GoogleBot ก็จะหมั่นมาเยี่ยมแน่นอน
เมื่อเราทำความรู้จัก และศึกษาพฤติกรรมของ GoogleBot ให้เข้าใจแล้ว เราก็จะสามารถปรับปรุงภายในเว็บไซต์และทำปัจจัยภายนอกให้เอื้อต่อการเข้ามาเก็บข้อมูลของหุ่นยนต์อัจฉริยะได้ แต่สิ่งหนึ่งที่จะต้องคำนึงถึงและควรใช้เป็นแนวทางในการทำ SEO คือ การขยันปรับปรุงเว็บไซต์ ทำให้ดูมีชีวิตชีวา เห็นแล้วน่าคลิกเข้าไปอ่าน มีความเคลื่อนไหวตลอด รวมถึงการหา Backlink ที่มีคุณภาพเข้ามา การหมั่นปรับปรุงเนื้อหาบทความ เพื่อที่จะได้รักษาอันดับที่ดีใน Google ได้อย่างยาวนาน
ส่วนรายละเอียดที่มากกว่านี้ เช่น “ทำอย่างไรให้เว็บติดเรดาห์ของ Google” และ “เว็บไซต์แบบไหนชนะใจ Google?” เราจะกล่าวถึงในบทความตอนต่อไปค่ะ