WordPress 的robots.txt文件如何为seo做优化

2019年4月11日21:35:41 发表评论 258 views

robots.txt 文件的重要性同时为大家展示如何对该文件进行优化。

一、是否需要一个robots.txt文件?

虽然没有robots.txt文件也不会影响搜索引擎对网站的爬取和索引,但是如果你想要将你的XML网站指南提交给搜索引擎,那么该文件的存在就很有必要了;所以我们强烈建议大家创建一个robots.txt文件。

二、robots.txt文件一般保存在哪里?如何创建robots.txt文件?

Robots.txt文件一般保存在网站的根目录下。要通过FTP客户端连接网站或通过cPanel文件管理器进行查看。该文件跟普通文本文件一样,可以用文本编辑器(比如记事本)打开或编辑。

如果你的网站没有robots.txt文件,那么你可以在电脑上创建一个文本文件并命名为robots.txt,然后上传到网站的根目录下。

三、如何使用robots.txt文件?

该文件的格式很简单。第一行通常是定义一个用户代理的名称,这里的用户代理实际上就是你想要连接的搜索机器人的名称。你也可以使用“*”来指示所有的搜索引擎机器人。从第二行开始,就是允许或禁止搜索的指令,如下述代码:

User-Agent: *

Allow: /wp-content/uploads/

Disallow: /wp-content/plugins/

Disallow: /readme.html

四、优化你的robots.txt文件

1、不需要在robots.txt文件中添加WordPress登陆页面,管理目录,或注册页面,因为这些页面都已经被WordPress添加了noindex标记

2、建议在robots.txt文件中添加禁止爬取  readme.html文件的指令。因为该文件可能被试图了解网站WordPress版本的人所利用。

3、你还可以添加插件目录的禁止指令,这样可以提高网站的安全性。

五、在robots.txt 文件中添加你的XML Sitemap

如果你使用WordPress SEO插件或其他的插件生成的XML Sitemap,那么你的插件会自动尝试在robots.txt文件中添加Sitemap的相关指令。如果添加失败的话,插件会提示你连接你的XML Sitemap,那么你现在需要做的就是添加以下指令到robots.txt文件中。

Sitemap: http://www.example.com/post-sitemap.xml

Sitemap: http://www.example.com/page-sitemap.xml

六、一个合理的robots.txt文件应该是什么样子的?

实话说,许多流行的博客都用着非常简单的robots.txt文件。文件中的内容则取决于网站的特定需求:User-agent: * Disallow: Sitemap: http://www.example.com/post-sitemap.xml Sitemap: http://www.example.com/page-sitemap.xml 这个robots.txt文件内容提供了网站XML Sitemap的连接,并且指示所有的爬虫索引所有的内容。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: