wordpress自动生成robots和sitemap,SEO不是梦

笔者最近学了点seo,发现网站还是过于简陋了,难怪百度一直不收录

Robots.txt设置

现在准备来写一下robots文件

这里推荐一下站长工具

通过它可以快速设置robots.txt文件

限制目录是指限制搜索引擎不进行收录的目录,在这里我设置成了后台的登陆界面

选择完毕之后点击生成,复制底下的文字,在服务器中生成一个robots.txt文件,将复制的内容粘贴进去就可以了。


Sitemap.xml设置

这里由于笔者是使用wordpress,就分为wordpress和非wordpress了

非wordpress

这里笔者使用的是这个网站bugscaner,非常快捷

使用起来很方便,可以一键生成xml和html,txt文件,点击一键下载上传即可

记得放入网站的根目录

WordPress篇

在这里,笔者直接使用了wordpress自带的插件

在wp后台界面中,选择插件-安装插件,搜索 Companion Sitemap Generator这个插件。点击安装,可能会显示too many requests,不管他,等一会就好了

再点击setting

在dashboard界面可以设置sitemap文件更新的周期

在content filter中可以选择排除不想被收录的目录,如category等

以上就是所有内容啦!

发表评论

电子邮件地址不会被公开。 必填项已用*标注