SEO용 WordPress Robots.txt 최적화에 대한 전체 가이드

게시 됨: 2021-03-11

웹사이트를 빠르게 색인화하고 SEO에 최적화하고 SERP 검색 결과 페이지에서 순위를 높이려면 먼저 WordPress용 기술 robots.txt 파일을 빌드해야 합니다. Robots.txt 파일은 인덱스 사이트를 스캔하고 구성하는 방법을 보여줍니다. 특히 인덱스 사이트를 매우 강력한 SEO 도구로 만듭니다. 따라서 이 기사에서는 SEO용 WordPress robots.txt를 향상시키기 위한 전체 가이드를 제안합니다.

WordPress Robots.txt는 무엇입니까?

Robots.txt 파일은 무엇입니까?

이것은 웹 사이트의 루트 폴더에 있는 텍스트 파일이며 페이지를 인덱싱할 수 있는 검색 엔진에 대한 지침을 제공합니다.

이전에 검색 엔진의 작동 프로세스를 발견했다면 크롤링 및 색인 생성 단계에서 웹 브라우저가 색인에 포함할 수 있는 웹에서 공개적으로 사용 가능한 페이지를 찾으려고 시도한다는 것을 알게 될 것입니다.

웹 브라우저가 웹 사이트를 방문할 때 가장 먼저 작동하는 것은 robots.txt 파일의 내용을 찾아 확인하는 것입니다. 파일에 지정된 규칙에 따라 크롤링할 수 있는 URL 목록을 생성한 다음 사이트에 대해 구체적으로 인덱싱할 수 있습니다.

WordPress robots.txt 파일을 구성해야 하는 이유는 무엇입니까?

WordPress robots.txt 파일 구성

검색 엔진 봇이 귀하의 웹사이트를 "스캔"하는 것이 방지되거나 제한되는 경우가 많이 있습니다.

내용이 무효이며 중복되었습니다.

사실, 귀하의 웹사이트 에는 시스템 설정 파일, WordPress 플러그인 등과 같은 많은 다른 정보 가 표시됩니다 .

이 정보는 사용자에게 가치가 없습니다. 또한, 웹사이트의 내용이 중복되는 경우가 많습니다. 콘텐츠가 여전히 인덱싱되어 있으면 웹 사이트가 희석되어 웹 사이트의 실제 콘텐츠 품질이 저하됩니다.

웹사이트 설정 및 테스트를 위한 하위 페이지

이 경우 WordPress로 새 웹 사이트를 만들 때 웹 사이트 설계 및 설정 프로세스를 완료하지 않았을 수 있으며 일반적으로 사용자가 사용할 준비가 되지 않았으므로 검색 엔진 봇이 "스캔"하고 유효성을 검사하지 못하도록 조치를 취해야 합니다. 웹사이트.

뿐만 아니라 일부 웹 사이트에는 웹 사이트 기능 및 디자인을 테스트하는 데만 사용되는 많은 하위 페이지가 있으므로 사용자가 이러한 사이트에 액세스할 수 있도록 하면 웹 사이트의 품질과 회사의 전문성에 영향을 줍니다.

대용량 웹사이트는 로딩 시간이 오래 걸립니다.

각 검색 엔진 봇에는 웹사이트 방문당 제한된 "스캔" 기능만 있습니다. 웹 사이트에 많은 양의 콘텐츠가 있는 경우 봇이 분석하는 데 더 많은 시간이 소요됩니다. 한 번 방문할 만큼 충분히 작동했다면 웹 사이트의 나머지 콘텐츠는 다음에 봇이 회전할 때까지 기다려야 하기 때문입니다. 크롤링하고 다시 색인을 생성할 수 있습니다.

웹사이트에 여전히 불필요한 파일과 콘텐츠가 있지만 먼저 인덱싱되면 웹사이트 품질이 저하될 뿐만 아니라 봇을 인덱싱하는 데 더 많은 시간을 할애하게 됩니다.

지속적으로 인덱싱할 때 웹 속도 감소

robots.txt 파일이 없는 경우에도 봇은 웹사이트의 전체 콘텐츠를 계속 검색합니다. 고객이 보고 싶어하지 않는 콘텐츠를 표시하는 것 외에도 지속적인 크롤링 및 인덱싱으로 인해 페이지 로드 속도가 느려질 수 있습니다.

웹 속도는 웹 사이트의 매우 중요한 측면으로, 웹 사이트를 방문할 때 품질과 사용자 경험에 영향을 미칩니다. 페이지도 더 높습니다.

이러한 이유로 봇에게 "봇은 한 쪽을 스캔하고 다른 쪽을 스캔하지 마십시오!"라고 지시하는 WordPress용 기술 파일을 작성해야 합니다. WordPress의 표준 robots.txt 파일을 사용하면 봇의 웹사이트 크롤링 및 색인의 효율성을 높이고 효율성을 높일 수 있습니다. 거기에서 웹 사이트의 SEO 결과를 개선하십시오.

WordPress 웹 사이트에 이 파일이 필요합니까?

사이트 맵을 사용하지 않는 경우에도 웹 사이트를 계속해서 이동하고 순위를 매길 것입니다. 그러나 검색 엔진은 실행하지 말아야 할 페이지나 폴더를 말할 수 없습니다.

블로그를 시작할 때 그것은 별로 중요하지 않습니다. 그러나 사이트가 성장하고 콘텐츠가 많아짐에 따라 사이트가 리플 및 인덱싱되는 방식에 대해 더 많은 제어를 원할 수 있습니다.

검색 봇에는 웹사이트당 크롤링 할당량이 있습니다. 즉, 크롤링 세션 중에 특정 페이지를 크롤링합니다. 웹사이트의 모든 페이지를 완료하지 않은 경우 다음 세션에서 다시 크롤링됩니다. 그들은 여전히 그 곳에 있고 사라지지 않습니다.

이렇게 하면 웹사이트의 인덱싱 속도가 느려질 수 있습니다. 그러나 검색 봇이 wp-admin 관리 페이지, 플러그인 디렉토리 및 테마 디렉토리와 같은 불필요한 페이지를 크롤링하지 못하도록 하여 이 문제를 해결할 수 있습니다.

불필요한 페이지를 거부하여 크롤링 할당량을 절약할 수 있습니다. 이렇게 하면 검색 엔진이 웹 사이트의 페이지를 비틀거리고 더 빠르게 색인을 생성할 수 있습니다.

robots.txt 파일을 사용하는 또 다른 좋은 이유는 검색 엔진이 게시물이나 페이지를 인덱싱하지 못하도록 하는 것입니다. 이것은 검색 엔진 콘텐츠를 숨기는 가장 안전한 방법은 아니지만 검색 결과를 방지하는 데 도움이 됩니다.

SEO 콘텐츠에 Robots.txt를 최적화하기 위한 완벽한 지침

SEO 콘텐츠에 대한 Robots.txt 최적화

많은 블로그 사이트는 WordPress 웹에서 매우 겸손한 robots.txt 파일을 실행하도록 선택합니다. 콘텐츠는 특정 웹사이트의 요구 사항에 따라 다를 수 있습니다.

사용자 에이전트: *

허용하지 않음:

사이트맵: http://www.example.com/post-sitemap.xml

사이트맵: http://www.example.com/page-sitemap.xml

이 robots.txt 파일은 모든 콘텐츠를 나타내기 위해 모든 봇에 XML 사이트맵에 대한 연결을 부여합니다.

WordPress 웹 사이트에 유용한 파일에 대한 다음 지침을 권장합니다.

사용자 에이전트: *

허용: /wp-content/uploads/

허용하지 않음: /wp-content/plugins/

허용하지 않음: /wp-admin/

허용하지 않음: /readme.html

허용하지 않음: /참조/

사이트맵: http://www.example.com/post-sitemap.xml

사이트맵: http://www.example.com/page-sitemap.xml

워드프레스의 모든 사진과 파일이 인덱싱됩니다. 검색 봇은 플러그인 파일, 관리 영역, 추가 정보 파일 및 제휴 링크를 색인화할 수도 있습니다.

또한 robots.txt 파일에 지도를 추가하여 Google 봇이 웹사이트의 모든 페이지를 쉽게 찾도록 할 수도 있습니다.

웹사이트용 WordPress robots.txt 파일 만들기

메모장을 사용하여 robots.txt 파일 만들기

메모장은 Microsoft의 최소 텍스트 편집기입니다 . Pascal, C +, HTML 프로그래밍 언어, …

워드프레스 robots.txt를 사용하려면 웹사이트 소스 파일에 "robots.txt"라는 이름으로 제대로 저장된 텍스트 파일(ASCII 또는 UTF-8)이 필요합니다. 각 파일에는 많은 규칙이 포함되어 있으며 각 규칙은 한 줄에 있습니다.

새 메모장 파일을 생성하고 robots.txt로 저장하고 위에서 설명한 대로 규칙을 추가할 수 있습니다.

그 후, 워드프레스용 파일을 public_html 디렉토리에 업로드하면 완료됩니다.

Yoast SEO 플러그인을 사용하여 robots.txt 파일 생성

Yoast SEO 플러그인은 콘텐츠 측면에서 웹사이트의 SEO를 최적화하는 데 도움이 되는 최고의 플러그인 중 하나입니다. 그러나 Yoast SEO는 사이트 최적화를 위한 혁신적인 파일을 만드는 데 도움이 되는 robots.txt WordPress 플러그인으로도 볼 수 있습니다.

먼저 대시보드 로 이동합니다 .

대시 보드에서 => 선택 Yoast SEO 관리 페이지에서 => 파일 편집기를 선택합니다 새로 만들기를 선택 하여 WordPress용 파일을 시작하거나 기존 파일을 편집합니다.

robots.txt에 변경 사항 저장을 선택 하여 사용자 지정 robots.txt 파일이 완료되었는지 확인합니다.

웹 사이트를 다시 방문하면 방금 설치한 새 규칙이 표시됩니다.

Google Search Console에서 robots.txt 파일 확인

Google Search Console에 로그인하여 웹사이트 속성을 시작에 등록할 수 있습니다 .

이전 버전 으로 크롤링 => 오류 및 경고 횟수의 결과를 확인하십시오 => 있으면 수정하십시오.

업데이트된 코드 다운로드를 선택 하여 새 robots.txt를 다운로드하고 새 파일을 원래 디렉토리에 다시 업로드하거나 최종 생각

이 기사를 통해 WordPress용 robots.txt 파일 설정 방법과 중요성을 배웠습니다. 표준 robots.txt 파일을 소유하면 웹사이트와 검색 엔진 봇이 더 잘 상호 작용할 수 있으므로 사이트 정보가 정확하게 업데이트되고 더 많은 사용자에게 다가갈 수 있습니다.

WordPress에 대한 기술 파일을 만들고 웹 사이트의 SEO를 즉시 개선하는 것부터 시작합시다!

더 읽어보기: WordPress 보호를 위한 10가지 최고의 무료 WP 백업 플러그인