推外网络专注营销型网站品牌策划与推广

FOCUS MARKETING WEBSITE BRAND PLANNING AND MARKETING PROMOTION

解除网站Robots封禁全过程(图文)

2019-12-03 09:48:29 100000+ 编辑:推外网络 来源:本站原创

robots协议大概说robots文件对搜刮引擎优化中非常紧张,但设置堕落大概会导致收录降落或不能正常收录。本日,小小讲堂SEO自学网带来的是《【robots文件协议】排除Robots封禁全历程》。盼望本次的百度SEO优化培训对各人有所资助。

一、robots被封禁的题目泉源

小小讲堂SEO自学网为WordPress博客,前几天弄了个“SEO问答”的栏目,是由一个新的CMS体系创建而成的,而这个体系是动态URL,未做伪静态处置惩罚。

SEO问答首页的URL:https://www.***.org/ask/

SEO问答栏目标URL:https://www.***.org/ask/?expert/default.html

SEO问答文章列表的URL:https://www.***.org/ask/?c-1.html

SEO问答文章的URL:https://www.***.org/ask/?q-176.html

从上可以看出除了SEO问答首页,别的的都是带问号的,然而,WordPress根目次的robots.txt中包罗了以下一条:

Disallow: /*?*

由于这一条的意思是克制访问网站中全部包罗问号(?) 的网址,以是上面的那些带问号的URL就被克制搜刮引擎抓取了。

二、排除Robots封禁全历程

小小讲堂SEO自学网排除robots文件协议的全历程如下:

① 去掉robots克制抓取的规矩

也就是去掉Disallow: /*?* 。

② 抓取失败

进入百度站长背景后,点击“数据监控”>“抓取诊断”>输入网址背面的部门,末了点击抓取。

③ 点击“抓取失败”

通过下图可以看出“抓取非常信息:Robots封禁”,点击“网站IP:106.***.***.217”背面的“报错”。略等一会即可。

④ Robots检测并更新

点击检测并更新robots。

以上就是小小讲堂SEO自学网带来的是《【robots文件协议】排除Robots封禁全历程》。谢谢您的寓目。网络营销培训认准小小讲堂!SEO培训认准小小讲堂!更多seo教程搜刮小小讲堂。原创文章接待转载并保存版权:https://www.xxkt.org/

本站文章均为推外网络摘自权威资料,书籍,或网络原创文章,如有版权纠纷或者违规问题,请即刻联系我们删除,我们欢迎您分享,引用和转载,我们谢绝直接复制和抄袭!感谢...