不會WordPress網站robots怎么設置?分享網站robots.txt規則設置分享,robots協議是添加到網站根目錄的robots.txt 文件,是告訴搜索引擎哪些內容可以抓取,哪些內容不抓取,優化網站收錄和權重。如何設置網站的robots協議呢?
WordPress的robots.txt命令解析設置
1、User-agent:*
一般博客的robots.txt指令設置都是面對所有spider程序,用通配符“*”即可。如果有獨立User-agent的指令規則,盡量放在通配“*”Useragent規則的上方。
2、Disallow:/wp-admin/
Disallow:/wp-content/
Disallow:/wp-includes/
屏蔽spider捉取程序文件,同時也節約了搜索引擎蜘蛛資源。
3、Disallow:/*/trackback
每個默認的文章頁面代碼里,都有一段trackback的鏈接,如果不屏蔽讓蜘蛛去捉取,網站會出現重復頁面內容問題。
4、Disallow:/feed
Disallow:/*/feed
Disallow:/comments/feed
頭部代碼里的feed鏈接主要是提示瀏覽器用戶可以訂閱本站,而一般的站點都有RSS輸出和網站地圖,故屏蔽搜索引擎捉取這些鏈接,節約蜘蛛資源。
5、Disallow:/?s=*
Disallow:/*/?s=*
這個就不用解釋了,屏蔽捉取站內搜索結果。站內沒出現這些鏈接不代表站外沒有,如果收錄了會造成和TAG等頁面的內容相近。
6、Disallow:/?r=*
屏蔽留言鏈接插件留下的變形留言鏈接。(沒安裝相關插件當然不用這條指令)
7、Disallow:/*.jpg$
Disallow:/*.jpeg$
Disallow:/*.gif$
Disallow:/*.png$
Disallow:/*.bmp$
屏蔽捉取任何圖片文件,在這里主要是想節約點寬帶,不同的網站管理員可以按照喜好和需要設置這幾條指令。
8、Disallow:/?p=*
屏蔽捉取短鏈接。默認頭部里的短鏈接,百度等搜索引擎蜘蛛會試圖捉取,雖然最終短鏈接會301重定向到固定鏈接,但這樣依然造成蜘蛛資源的浪費。
9、Disallow:/*/comment-page-*
Disallow:/*?replytocom*
屏蔽捉取留言信息鏈接。一般不會收錄到這樣的鏈接,但為了節約蜘蛛資源,也屏蔽之。
10、Disallow:/a/date/
Disallow:/a/author/
Disallow:/a/category/
Disallow:/?p=*&preview=true
Disallow:/?page_id=*&preview=true
Disallow:/wp-login.php
屏蔽其他的一些形形色色的鏈接,避免造成重復內容和隱私問題。
10、Sitemap:http://***.com/sitemap.txt
網站地圖地址指令,主流是txt和xml格式。告訴搜索引擎網站地圖地址,方便搜索引擎捉取全站內容,當然你可以設置多個地圖地址。要注意的就是Sitemap的S要用大寫,地圖地址也要用絕對地址。
上面的這些Disallow指令都不是強制要求的,可以按需寫入。也建議站點開通谷歌管理員工具,檢查站點的robots.txt是否規范。
好了,以上就是對利用robots.txt對wordpress博客進行優化的詳細內容,希望可以幫助剛接觸wordpress博客的同學。
示例完整robots.txt;
Allow: /wp-content/uploads/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /feed
Disallow: /articles/*/feed
Sitemap: https://www.***.com/wp-sitemap.xml
沒有回復內容