3450399331
网站优化

关于SEOrobots.txt的有关常识介绍

发表日期:2024-01-08   作者来源:www.arimat40.com   浏览:0   标签:网站制作    
1、robots.txt具体用途1.对搜索引擎做出规定,抓取或者不抓取。2.因为有的信息规定了不让抓取,所以可以保护到一些必要的信息,譬如关于SEOrobots.txt的有关常识介绍百度蜘蛛关于SEOrobots.txt的有关常识介绍谷歌Bot360蜘蛛关于SEOrobots.txt的有关常识介绍Sogou News Spider雅虎蜘蛛关于SEOrobots.txt的有关常识介绍Youdaobot 或者 YodaobotSoso蜘蛛关于SEOrobots.txt的有关常识介绍下面是一个wordpress程序的robots.txtUser-agent: *Disallow: /wp-admin/Disallow: /wp-includes/Disallow: /wp-content/pluginsDisallow: /wp-content/themesDisallow: /feedDisallow: /*/feedDisallow: /comments/feedDisallow: /*.js$Disallow: /*?*Sitemap: http://chengdu.cdcxhl.com/讲解关于SEOrobots.txt的有关常识介绍对所有搜索引擎都用下面的规则。Disallow: /wp-admin/关于SEOrobots.txt的有关常识介绍不让蜘蛛抓取根目录下所有些js文件。Disallow: /*?*关于SEOrobots.txt的有关常识介绍给蜘蛛提供网站地图,便捷蜘蛛抓取网站内容。

3、robots.txt需要注意的地方1.假如你期望搜索引擎网站收录网站上所有些内容,那样就不要打造robots.txt文件。2.假如同时存在动态和静态链接,那样建议屏蔽动态链接。3.robots.txt只能是屏蔽站内文件的,对站外文件没屏蔽功能。4.User-agent,Allow,Disallow,Sitemap的首字母都是大写的。5.User-agent,Allow,Disallow,Sitemap的冒号后面都是有空格的,没写空格直接写下面的内容会出错。6.网站一般会屏蔽搜索结果页面。由于搜索结果页和正常展示的内容页相比,标题和内容上相同的,而这两个页面链接是不一样的。那搜索引擎该将这篇文章归是什么内部链接呢?如此就会导致内部链接之间相互角逐,导致内部资源损耗。譬如上面举的例子,那个wordpress程序,在没设置伪静态,还是动态链接的时候,搜索结果页面链接都包括有/?s=,而 标题和内容 与 正常展示的动态链接内容页重复,可以通过Disallow: /?=*来屏蔽搜索结果页面。而目前那个wordpress程序已经设置了伪静态,也设置了Disallow: /*?*,Disallow: /*?*本身就包括了Disallow: /?=*,所以Disallow: /?=*这句写不写都没关系7.建议屏蔽js文件。Disallow: /*.js$,以 .js 结尾的路径统统被屏蔽,如此就屏蔽了js文件。8.路径是区别大小写的。Disallow: /ab/ 和 Disallow: /Ab/ 是不同的。9.robots.txt会暴露网站有关目录,写robots.txt时要考虑到这一点。10.有的网站优化会将文件直接备份在服务器中,文件是 .zip 格式,然后在robots.txt中屏蔽。个人不主张如此,这就是明显告诉人家你的备份文件地方。建议文件和数据都备份到当地。11.一些特殊规则对比关于SEOrobots.txt的有关常识介绍//域名/ab/,http关于SEOrobots.txt的有关常识介绍关于SEOrobots.txt的有关常识介绍网站网址:

如没特殊注明,文章均为思途建站 原创,转载请注明来自https://www.nousuan.com/news/youhua/4/6925.html