เครื่องมือพื้นฐานสำหรับ Search Engine ที่ช่วยในการ รับทำ SEO

สำหรับการ รับทำ SEO ให้กับเว็บไซต์ต่างๆที่ต้องการให้ติดอันดับของเหล่า Search Engine ทั้งหลายนั้น

การที่เราจะทำบทความอย่างเดียว ก็อาจจะได้ผลที่ไม่ทันใจ หรือได้ผลลับออกมาช้า ฉะนั้นแล้วการใช้เครื่องมือต่างๆที่จะเข้ามาช่วยให้บรรดา Bot ของ Google เข้ามาเพื่อประมวลผลและเก็บข้อมูลของเว็บไซต์ของเราไปนั้น ก็เป็นอีกสิ่งหนึ่งที่จำเป็น ในบทความนี้ผมจะมาแนะนำเครื่องมือที่จะมาช่วยให้กับผู้ที่ รับทำ SEO ให้ขั้นพื้นฐานกันนะครับ

seo

เครื่องมือพื้นฐานที่สำควรจะมี

1 ติดตั้ง Sitemap – เครื่องมือนี้นับว่าเป็นเครื่องมือ รับทำ SEO ที่ช่วยเรียกบอทเลยก็ว่าได้ การติดตั้ง Sitemap เปรียบเสมือนการสร้างแผนที่ของเว็บไซต์ให้บรรดาเหล่า Search Engine ได้รับทราบว่า เว็บไซต์ของเรานั้นมีเนื้อหาบทความอะไรบ้าง ซึ่งในบางครั้งแล้วเราอาจจะมีบทความที่ไม่ได้มีการเชื่อมต่อกับหน้าหลัก ทำให้บอทเข้าไปเก็บข้อมูลไม่เจอ แต่ถ้าหากว่าเราได้ทำการติดตั้ง Sitemap เอาไว้แล้วก็จะเป็นส่วนช่วยให้บอทเข้าไปถึงบทความนั้นได้ และมันจะช่วยให้การเพิ่มจำนวนของ Index มากขึ้นไปด้วย  สำหรับ Sitemap นั้นจะมีการแบ่งแยกออกเป็น 3 ประเภทด้วยกัน คือ

  • XML Sitemap หรือ Extensible Markup Language ประเภทนี้จะเป็นในรูปแบบไฟล์แผนที่ ที่จะช่วยทำทางให้บอทต่างๆ ซึ่งเหล่า Search Engine ทั้งหลายชอบมันมากที่สุด เพราะเป็นรูปแบบที่ง่ายต่อการจัดการและการเข้าถึง
  • RSS  หรือ Really Simple Syndication or Rich Site Summary ประเภทนี้จะเป็นรูปแบบของการเก็บข้อมูลต่างๆภายในเว็บไซต์ของเรา เป็นรูปแบบที่ง่ายพอสมควร มีการอัพเดทข้อมูลต่างๆโดยอัตโนมัติ เมื่อเราได้ทำการเพิ่มบทความไปในเว็บไซต์ใหม่ แต่การใช้ Sitemap ประเภทนี้จะยากต่อการจัดการสำหรับมือใหม่
  • Txt หรือ Text File จัดเป็นรูปแบบของ Sitemap ที่ง่ายที่สุด แต่มันไร้ความสามารถแทบทุกอย่าง ไม่สามารถช่วยในการแสดงข้อมูลต่างที่อยู่ภายในเว็บไซต์ของเราเลย

2 Robots.txt เป็นหนึ่งในสิ่งที่จะช่วยให้เราสามารถพูดคุยกับ  Robot ของเหล่า Search Engine ทั้งหลายได้ เพราะว่ามันสามารถเขียนคำสั่งต่างๆ เพื่อแจ้งเตือนให้ Robot ได้ทราบว่าเราไม่ต้องการให้เข้าไปเก็บข้อมูลในส่วนใดบ้าง ยกตัวอย่างข้อมูลที่ เหล่าเว็บไซต์ต่างๆไม่อยากให้เข้าไปเก็บข้อมูล เช่น ข้อมูลของลูกค้า เพราะท่านเองก็คงไม่อยากให้ข้อมูลของท่านไปโผล่ในผลการค้นหาต่างๆใช่ไหมครับ ( สำหรับคำสั่งเพิ่มเติมต่างๆ )

3 Meta Robots เป็นชุดคำสั่งที่มีความหมายคล้ายๆกับ Robots.txt เพียงแต่ว่ามันสามารถใช้คำสั่งให้ Robot ของเหล่า Search Engine ทราบได้ถึงในระดับหน้า page หรือในแต่ละหน้าได้เลยนะครับ โดยจะมีคำสั่งต่างๆดังนี้

  • คำสั่ง noindex  คือคำสั่งที่แจ้งให้ Robot ต่างๆไม่ต้องเข้ามาเก็บข้อมูลในหน้านี้ไปประมวลผลในการค้นหา
  • คำสั่ง  nofollow คือคำสั่งที่แจ้งให้ Robot ของ Search Engine ทราบว่า ลิงค์ต่างๆ ในหน้านี้ ไม่ต้องให้เครดิตของเว็บไซต์ปลายทาง หรือเป็นคำสั่งที่ช่วยป้องกันไม่ให้ บอท ตามไปยังลิงค์ปลายทางนั้นๆ
  • คำสั่ง noachive เป็นคำสั่งที่จะแจ้งให้ทราบว่า ไม่ต้องเข้ามาเก็บ cached ในหน้าเพจนี้
  • คำสั่ง nosnippet เป็นชุดคำสั่งที่จะแจ้งให้ Google ไม่ต้องเข้ามาเก็บข้อมูลในหน้านี้ เพื่อนำไปแสดงผลในการค้นหาของ Google

ตัวอย่างสำหรับการใช้คำสั่ง

<html>
<head>
<title>สุดยอดเว็บไซต์ รับทำ SEO</title>
<meta name=”ROBOTS” content=”NOINDEX, NOFOLLOW”>
</head>
<body>
<h1> รับทำ SEO </h1>
</body>
</html>

4 Rel=”Nofollow” คือคำสั่งที่ใช้สำหรับการที่เราไม่ต้องการให้เคดิตเว็บไซต์ ของลิงค์ต่างๆที่เราได้นำมาแปะเอาไว้ในหน้านั้นๆ

ตัวอย่างสำหรับการใช้คำสั่ง Rel=”Nofollow”

<a href=”http://www.club-seo.com” title=“Example” rel=”nofollow”>Example Link</a>

5 Rel=”canonical” ในการทำเว็บไซต์ต่างๆ โดยปกติแล้วเนื้อหน้าในหนึ่งหน้าอาจจะประกอบด้วย URL หลายๆอันซ้ำกันก็เป็นไปได้ ซึ่งนั้นมันจะให้เหล่า Search Engine มองว่าหน้าเหล่านั้นซ้ำกันซึ่งจะทำให้เกิดการ Duplicate Content ของเจ้าของเว็บไซต์ตัวเองได้ จึงต้องมีคำสั่งที่จะช่วยบอกให้ Search Engine ทั้งหลาย ช่วยยกเว้น URL เหล่านั้น

ตัวอย่างสำหรับการใช้คำสั่ง Rel=”canonical”

<html>
<head>
<title>สุดยอดเว็บไซต์ รับทำ SEO </title>
<link rel=”canonical” href=”http://www.club-seo.com”>
</head>
<body>
<h1> รับทำ SEO </h1>
</body>
</html>

Google Webmaster Tools
Google Webmaster Tools

เครื่องมือ Search Engine Tools

Google Webmaster Tools จัดได้ว่าเป็นหนึ่งในเครื่องมือที่ผมชอบมากที่สุดเลยก็ว่าได้ เพราะเป็นเครื่องมือที่ดีมากสำหรับ Google จัดได้มีการสร้างขึ้นมาเพื่อช่วยเหล่าเว็บมาสเตอร์ที่ รับทำSEO และผู้ดูแลระบบของเว็บไซต์ได้เป็นอย่างดี ยิ่งไปกว่านั้นเครื่องนี้เป็นเครื่องมือที่ฟรี และมีส่วนช่วยให้ Google เข้ามาเก็บข้อมูลของเว็บไซต์ของเราได้ดีขึ้น นอกจากนั้นแล้วในตัวโปรแกรมยังสามารถบอกรายละเอียดของเว็บไซต์ของเราได้เป็นอย่างดี เช่น ช่วยบ่งบอกว่าเว็บไซต์ของเรามีข้อผิดพลาดอะไรที่ควรจะต้องแก้ไขบ้าง ช่วยบอกถึงข้อมูลของผู้ที่เข้ามายังเว็บไซต์ของเรา นอกจากนั้นแล้วเครื่องมือมีนี้มีระบบช่วยให้ Robot เข้ามายังเว็บไซต์ของเราได้เร็วขึ้นอีกด้วย ทำให้เรามีโอกาสที่จะทำอันดับใน Google ได้ดีขึ้น

สำหรับสิ่งต่างๆที่เราจะได้เมื่อเราทำการใช้งานโปรแกรม Google Webmaster Tools

  • ช่วยในการตรวจสอบว่าส่วนใดของเว็บไซต์ที่ Googlebot เห็นว่ามีปัญหาในการรวบรวมข้อมูลไปยัง Google
  • ช่วยให้เราทราบถึงข้อมูลไฟล์แผนผังไซต์ XML ของเรา
  • ช่วยในการวิเคราะห์นอกจากนั้นแล้วยังช่วยสร้างไฟล์ robots.txt ให้เราอีกด้วย
  • ช่วย ลบ URL ที่ Googlebot ได้เข้ามารวบรวมข้อมูลแล้ว
  • ช่วยให้เราระบุโดเมนที่เราต้องการใช้ได้
  • ช่วยในการระบุปัญหา ที่เกี่ยวข้องกับเมตาแท็ก(Meta Tag) เช่น ชื่อเรื่อง หรือ คำอธิบาย ต่างๆได้
  • มีเครื่องมือที่จะช่วยประมวลผล ว่าคำค้นหาในที่ได้รับความนิยมที่ใช้ในการค้นหาไซต์
  • มีเครื่องมือที่ช่วยให้เราเรียนรู้ว่า Googlebot เข้ามายังเว็บไซต์ของเราแล้วมองเห็นหน้าเว็บของเราเป็นอย่างไร
  • สามารถลบไซต์หรือลิงก์ที่ไม่ต้องการออกได้ ช่วยไม่ให้ Google นำเอาไปแสดงในผลลัพธ์ในคำค้นหา
  • ช่วยแจ้งเตือนเรา เกี่ยวกับการละเมิดหลักเกณฑ์ด้านคุณภาพต่างๆ และหลังจากแก้ไขแล้ว ขอให้มีการพิจารณาเว็บไซต์ของเราใหม่อีกครั้ง

เป็นยังไงบ้างครับกับเครื่อมือนี้ ประโยชน์มากจริงๆ ซึ่งผมเองก็ใช้อยู่ประจำ และอยากจะแนะนำให้ท่านที่ รับทำ SEO ได้ใช้ ด้วยเช่นกัน เพราะเมื่อเว็บไซต์ของท่าน มีปัญหาอะไร เครื่องมือนี้จะส่งเมล์แจ้งเตือน โดยทันที ทำให้เราสามารถแก้ไขปัญหา ได้ทันท่านทีโดยที่ยังไม่สร้างความเสียหาย กับอันดับของท่านเลย ก็เป็นไปได้นะครับ นอกจากนั้นแล้วเครื่องมือที่มีอยู่ในนั้น ยังจะช่วยปรับเว็บไซต์ของท่านให้ดูดีในสายตาของ Google ได้มากยิ่งขึ้นอย่างแน่นอน