คู่มือฉบับสมบูรณ์เพื่อเพิ่มประสิทธิภาพ WordPress Robots.txt สำหรับ SEO

เผยแพร่แล้ว: 2021-03-11

เพื่อให้เว็บไซต์ของคุณได้รับการจัดทำดัชนีอย่างรวดเร็ว เพิ่มประสิทธิภาพสำหรับ SEO และปรับปรุงการจัดอันดับในหน้าผลการค้นหาของ SERP อันดับแรก คุณต้องสร้างไฟล์ robots.txt ทางเทคนิคสำหรับ WordPress ไฟล์ Robots.txt แสดงวิธีการสแกนและกำหนดค่าเว็บไซต์ดัชนีของคุณ โดยเฉพาะอย่างยิ่ง ทำให้เป็นเครื่องมือ SEO ที่ทรงพลังอย่างยิ่ง ดังนั้น เราจะแนะนำคู่มือฉบับสมบูรณ์เพื่อปรับปรุง WordPress robots.txt สำหรับ SEO ในบทความนี้

WordPress Robots.txt คืออะไร?

ไฟล์ Robots.txt คืออะไร

นี่คือไฟล์ข้อความในโฟลเดอร์รูทของเว็บไซต์และให้คำแนะนำในเครื่องมือค้นหาซึ่งหน้าต่างๆ สามารถสร้างดัชนีได้

หากคุณเคยพบกระบวนการทำงานของเครื่องมือค้นหามาก่อน คุณจะรู้ว่าในระหว่างขั้นตอนการรวบรวมข้อมูลและจัดทำดัชนี เว็บเบราว์เซอร์จะพยายามค้นหาหน้าที่เผยแพร่ต่อสาธารณะบนเว็บ ซึ่งสามารถรวมไว้ในดัชนีได้

สิ่งแรกที่เว็บเบราว์เซอร์ทำงานเมื่อเข้าชมเว็บไซต์คือการค้นหาและตรวจสอบเนื้อหาของไฟล์ robots.txt ขึ้นอยู่กับกฎที่ระบุในไฟล์ พวกเขาสร้างรายการ URL ที่สามารถรวบรวมข้อมูลและจัดทำดัชนีเฉพาะสำหรับไซต์ได้

ทำไมคุณต้องสร้างไฟล์ WordPress robots.txt?

สร้างไฟล์ WordPress robots.txt

มีหลายกรณีที่บอทของเครื่องมือค้นหาจากการ "สแกน" เว็บไซต์ของคุณได้รับการป้องกันหรือจำกัด:

เนื้อหาเป็นโมฆะและทำซ้ำ

ที่จริงแล้วบนเว็บไซต์ของคุณ ฉัน แสดง ข้อมูลอื่นๆ มากมาย เช่น ไฟล์การตั้งค่าระบบ ปลั๊กอิน WordPress เป็นต้น

ข้อมูลนี้ไม่มีค่าสำหรับผู้ใช้ นอกจากนี้ มีหลายกรณีที่เนื้อหาของเว็บไซต์ซ้ำซ้อน หากเนื้อหายังคงได้รับการจัดทำดัชนี จะทำให้เว็บไซต์เจือจางลง ส่งผลให้คุณภาพเนื้อหาที่แท้จริงของเว็บไซต์ลดลง

หน้าย่อยสำหรับตั้งค่าและทดสอบเว็บไซต์

ในกรณีนี้ บางทีเมื่อสร้างเว็บไซต์ใหม่ด้วย WordPress คุณยังไม่เสร็จสิ้นขั้นตอนการออกแบบและตั้งค่าเว็บไซต์ ซึ่งโดยทั่วไปไม่พร้อมสำหรับผู้ใช้ คุณต้องใช้มาตรการเพื่อป้องกันไม่ให้บอทของเครื่องมือค้นหา "สแกน" และตรวจสอบความถูกต้อง เว็บไซต์.

ไม่เพียงเท่านั้น แต่บางเว็บไซต์ยังมีหน้าย่อยจำนวนมากที่ใช้เพื่อทดสอบคุณลักษณะและการออกแบบของเว็บไซต์เท่านั้น การอนุญาตให้ผู้ใช้เข้าถึงเว็บไซต์ดังกล่าวจะส่งผลต่อคุณภาพของเว็บไซต์และความเป็นมืออาชีพของบริษัทคุณ

เว็บไซต์ที่มีความจุสูงใช้เวลาในการโหลดนาน

บอทของเครื่องมือค้นหาแต่ละตัวจะจำกัดความสามารถในการ "สแกน" ต่อการเข้าชมเว็บไซต์เท่านั้น เมื่อเว็บไซต์ของคุณมีเนื้อหาจำนวนมาก บอทจะต้องใช้เวลามากขึ้นในการวิเคราะห์ เพราะหากดำเนินการเพียงพอสำหรับการเข้าชมหนึ่งครั้ง เนื้อหาที่เหลือบนเว็บไซต์จะต้องรอจนกว่าบอทจะหมุนครั้งต่อไป สามารถรวบรวมข้อมูลและจัดทำดัชนีได้อีกครั้ง

หากเว็บไซต์ของคุณยังมีไฟล์และเนื้อหาที่ไม่จำเป็นแต่มีการจัดทำดัชนีก่อน ไม่เพียงแต่จะลดคุณภาพของเว็บไซต์ แต่ยังใช้เวลามากขึ้นในการจัดทำดัชนีบอท

ลดความเร็วของเว็บเมื่อสร้างดัชนีอย่างต่อเนื่อง

เมื่อไม่มีไฟล์ robots.txt บอทจะยังสแกนเนื้อหาทั้งหมดบนเว็บไซต์ของคุณ นอกจากการแสดงเนื้อหาที่ลูกค้าของคุณไม่ต้องการเห็นแล้ว การรวบรวมข้อมูลและการจัดทำดัชนีอย่างต่อเนื่องยังทำให้อัตราการโหลดหน้าเว็บช้าลงอีกด้วย

ความเร็วของเว็บเป็นส่วนสำคัญของเว็บไซต์ ซึ่งส่งผลต่อคุณภาพและประสบการณ์ของผู้ใช้เมื่อเข้าชมเว็บไซต์ของคุณ หน้าก็สูงขึ้นด้วย

ด้วยเหตุผลเหล่านี้ คุณควรสร้างไฟล์ทางเทคนิคประเภทนี้สำหรับ WordPress เพื่อสั่งบอท: “บอทสแกนด้านใดด้านหนึ่ง อย่าสแกนอีกด้านหนึ่ง!” การใช้ไฟล์ robots.txt มาตรฐานของ WordPress ช่วยเพิ่มและประสิทธิภาพของการรวบรวมข้อมูลเว็บไซต์และดัชนีของบอท จากนั้น ปรับปรุงผลลัพธ์ SEO สำหรับเว็บไซต์ของคุณ

จำเป็นต้องมีไฟล์นี้สำหรับเว็บไซต์ WordPress ของคุณหรือไม่?

หากคุณไม่ได้ใช้แผนผังเว็บไซต์ คุณจะยังคงย่ำยีและจัดอันดับเว็บไซต์ของคุณ อย่างไรก็ตาม เสิร์ชเอ็นจิ้นไม่สามารถบอกได้ว่าเพจหรือโฟลเดอร์ใดไม่ควรเรียกใช้

เมื่อคุณเริ่มบล็อก นั้นไม่สำคัญมากนัก อย่างไรก็ตาม คุณสามารถควบคุมได้มากขึ้นว่าไซต์ของคุณมีการกระเพื่อมและจัดทำดัชนีอย่างไรเมื่อไซต์ของคุณเติบโตขึ้น และคุณมีเนื้อหามากมาย

บอทการค้นหามีโควต้าการรวบรวมข้อมูลต่อเว็บไซต์ ซึ่งหมายความว่าจะรวบรวมข้อมูลบางหน้าระหว่างเซสชันการรวบรวมข้อมูล หาก ยังทำไม่เสร็จ ทุกหน้าในเว็บไซต์ของคุณ พวกเขาจะมาและรวบรวมข้อมูลอีกครั้งในเซสชันถัดไป พวกเขา ยังคงอยู่ที่นั่นและไม่หายไป

ซึ่งอาจลดความเร็วการจัดทำดัชนีของเว็บไซต์ของคุณ แต่คุณสามารถแก้ไขได้โดยไม่อนุญาตให้บอทค้นหาพยายามรวบรวมข้อมูลหน้าที่ไม่จำเป็น เช่น หน้าผู้ดูแลระบบ wp-admin ไดเรกทอรีปลั๊กอิน และไดเรกทอรีของธีม

คุณสามารถบันทึกโควต้าการรวบรวมข้อมูลได้ด้วยการปฏิเสธหน้าที่ไม่จำเป็น ซึ่งช่วยให้เสิร์ชเอ็นจิ้นสามารถสะดุดและจัดทำดัชนีหน้าเว็บไซต์ของคุณได้รวดเร็วยิ่งขึ้น

อีกเหตุผลหนึ่งที่ดีในการใช้ไฟล์ robots.txt คือการป้องกันไม่ให้เครื่องมือค้นหาสร้างดัชนีบทความหรือหน้า นี่ไม่ใช่วิธีที่ปลอดภัยที่สุดในการซ่อนเนื้อหาเครื่องมือค้นหา แต่ช่วยป้องกันผลการค้นหา

แนวทางที่สมบูรณ์แบบในการเพิ่มประสิทธิภาพ Robots.txt สำหรับเนื้อหา SEO

เพิ่มประสิทธิภาพ Robots.txt สำหรับเนื้อหา SEO

ไซต์บล็อกหลายแห่งเลือกที่จะเรียกใช้ไฟล์ robots.txt ที่เจียมเนื้อเจียมตัวมากบนเว็บ WordPress ของตน เนื้อหาอาจแตกต่างกันไปขึ้นอยู่กับความต้องการของเว็บไซต์โดยเฉพาะ:

ตัวแทนผู้ใช้: *

ไม่อนุญาต:

แผนผังเว็บไซต์: http://www.example.com/post-sitemap.xml

แผนผังเว็บไซต์: http://www.example.com/page-sitemap.xml

ไฟล์ robots.txt นี้ทำให้บ็อตทั้งหมดเชื่อมต่อกับแผนผังเว็บไซต์ XML เพื่อระบุเนื้อหาทั้งหมด

เราขอแนะนำแนวทางต่อไปนี้สำหรับไฟล์ที่มีประโยชน์บางอย่างสำหรับเว็บไซต์ WordPress:

ตัวแทนผู้ใช้: *

อนุญาต: /wp-content/uploads/

ไม่อนุญาต: /wp-content/plugins/

ไม่อนุญาต: /wp-admin/

ไม่อนุญาต: /readme.html

ไม่อนุญาต: /อ้างอิง/

แผนผังเว็บไซต์: http://www.example.com/post-sitemap.xml

แผนผังเว็บไซต์: http://www.example.com/page-sitemap.xml

รูปภาพและไฟล์ทั้งหมดของ WordPress ได้รับการจัดทำดัชนี บอทการค้นหาสามารถสร้างดัชนีไฟล์ปลั๊กอิน พื้นที่ผู้ดูแลระบบ ไฟล์ readme และลิงค์พันธมิตร

คุณยังสามารถให้ Google Bots ค้นหาหน้าทั้งหมดบนเว็บไซต์ของคุณได้อย่างง่ายดายด้วยการเพิ่มแผนที่ลงในไฟล์ robots.txt

การสร้างไฟล์ WordPress robots.txt สำหรับเว็บไซต์ของคุณ

สร้างไฟล์ robots.txt โดยใช้ Notepad

Notepad เป็นโปรแกรมแก้ไขข้อความขั้นต่ำจาก Microsoft . ใช้ สำหรับเขียนโค้ดที่ให้บริการ Pascal, C +, ภาษาโปรแกรม HTML, ...

ไฟล์ข้อความ ASCII หรือ UTF-8 บันทึกอย่างถูกต้องในไฟล์ต้นฉบับของเว็บไซต์โดยใช้ชื่อ “robots.txt” สำหรับ WordPress robots.txt แต่ละไฟล์มีกฎมากมายและแต่ละกฎอยู่ในบรรทัดเดียว

คุณสามารถสร้างไฟล์แผ่นจดบันทึกใหม่ บันทึกเป็น robots.txt และเพิ่มกฎตามคำแนะนำด้านบน

หลังจากนั้นการอัพโหลดไฟล์สำหรับ WordPress ไปยัง ไดเร็กทอรี public_html เสร็จสมบูรณ์

สร้างไฟล์ robots.txt โดยใช้ปลั๊กอิน Yoast SEO

ปลั๊กอิน Yoast SEO เป็นหนึ่งในปลั๊กอินที่ได้รับคะแนนสูงสุดเพื่อช่วยคุณในการเพิ่มประสิทธิภาพ SEO ของเว็บไซต์ของคุณในแง่ของเนื้อหา อย่างไรก็ตาม Yoast SEO อาจถูกมองว่าเป็นปลั๊กอิน WordPress ของ robots.txt ที่ช่วยให้คุณสร้างไฟล์ที่เป็นนวัตกรรมใหม่สำหรับการเพิ่มประสิทธิภาพเว็บไซต์ของคุณ

ขั้นแรก คุณไปที่ แดชบอร์ด

ใน Dashboard => Select ในหน้าผู้ดูแลระบบ Yoast SEO => เลือก File Editor

เลือก สร้างใหม่ เพื่อเริ่มต้นไฟล์สำหรับ WordPress หรือแก้ไขไฟล์ที่มีอยู่

เลือก บันทึกการเปลี่ยนแปลง ไปยัง robots.txt เพื่อยืนยันว่าไฟล์ robots.txt ที่กำหนดเองเสร็จสมบูรณ์

เยี่ยมชมเว็บไซต์อีกครั้งและคุณจะเห็นกฎใหม่ที่คุณเพิ่งติดตั้ง

ตรวจสอบไฟล์ robots.txt บน Google Search Console

คุณสามารถเข้าสู่ระบบ Google Search Console และลงทะเบียนคุณสมบัติเว็บไซต์ของคุณเพื่อ เริ่มต้น

เลือก ไปที่เวอร์ชันเก่า เพื่อกลับไปที่อินเทอร์เฟซเก่าและเปิดใช้งานการใช้งาน

ใต้ Crawl => Select ตรวจสอบผลลัพธ์ของจำนวน ข้อผิดพลาดและคำเตือน => ทำการแก้ไข หากมี

เลือก ดาวน์โหลดโค้ดที่อัปเดต เพื่อดาวน์โหลด robots.txt ใหม่และอัปโหลดไฟล์ใหม่ไปยังไดเร็กทอรีเดิมหรือเลือก ความคิด สุดท้าย

จากบทความนี้ คุณได้เรียนรู้ถึงความสำคัญและวิธีการตั้งค่าไฟล์ robots.txt สำหรับ WordPress การเป็นเจ้าของไฟล์ robots.txt มาตรฐานจะช่วยให้เว็บไซต์และบอทของเครื่องมือค้นหาโต้ตอบกันได้ดีขึ้น ดังนั้นข้อมูลของเว็บไซต์จะได้รับการอัปเดตอย่างถูกต้องและเพิ่มความสามารถในการเข้าถึงผู้ใช้มากขึ้น

เริ่มต้นด้วยการสร้างไฟล์ทางเทคนิคของคุณเองสำหรับ WordPress และปรับปรุง SEO ของเว็บไซต์ทันที!

อ่านเพิ่มเติม: 10 ปลั๊กอินสำรอง WP ฟรีที่ดีที่สุดสำหรับการปกป้อง WordPress