加入收藏 | 设为首页 | RSS
您当前的位置:首页 > 网站seo

屏蔽蜘蛛抓取的几种方法

时间:2012-04-11 18:04:02  来源:  作者:虾谷

 一般情况下,网站建立并运营之后总是希望被搜索引擎收录的数量越多越好。但这只是通常情况下,大部分人所希望的。有些时候,我们还是会希望搜索引擎蜘蛛不要访问网站的某些文件夹,当然也有不希望搜索引擎收录的页面。
    比如说,网站刚刚建立并没有真正投入运营,还没有实质性的内容时;还有过多的收录页面导致网站权重的分散,而恰恰你想要聚拢权重到某些个最重要的页面时;再比如建立一个镜像网站,并主要通过其他的推广手段(这里指除了SEO以外的推广方法)对网站进行运营时……

zhizhu.jpg

而搜索引擎收录网站页面是需要通过蜘蛛访问网站,并对页面内容进行抓取。所以通常情况下,想要阻止搜索引擎的收录就需要限制、屏蔽蜘蛛的访问与抓取。下面笔者介绍几种常用的屏蔽蜘蛛抓取的方法。
    1.robots.txt规则文件。
    大家都知道robots.txt是指引搜索引擎蜘蛛对该网站访问与否的规则,平时运用的也比较多。一般的建议是不论网站是否有需要屏蔽收录的内容,都要在根目录下建立robots.txt文件。
    robots.txt文件规则的写法很简单,比如需要屏蔽某一个搜索引擎的蜘蛛访问所有目录,就这样写:

User-agent:Googlebot
Disallow:/
再比如禁止所有蜘蛛访问、抓取某一个目录则:
User-agent:*
Disallow:/admin/

    2.robots Meta标签。
    如果说robots.txt是一个放在网站中的规则文件,那robots Meta就是放在某个网页中的标签。两者的实际功能是大致相同的,但robots.txt是大部分搜索引擎都支持的方式,而后者却是大部分搜索引擎都不支持的。另外相比较下,robots Meta用来对某几个页面单独设置时使用。
    robots Meta标签必须存放在“<head>…</head>”代码之内:

<head>

<meta name=”robots” content=”index,follow” />
</head>

    其中“index”指的是索引,“follow”指的是跟踪链接并传递相应的权重。当然相应的还有“noindex”和“nofollow”,功能则正好相反。

    3.服务器配置文件。
    这种方法是最不常见的屏蔽蜘蛛的方法,主要用于屏蔽那些“不恪守”robots.txt规则的蜘蛛。
    方法就是一段时间的分析网站日志,发现需要屏蔽的蜘蛛以及它的ip。然后通过服务器的配置文件将其屏蔽,从而实现屏蔽某一个蜘蛛抓取网站。当然这种方法运用起来并不灵活,比如不能屏蔽蜘蛛单独对某一个文件夹(或网页)的抓取。
    因服务器及其系统的不同,具体还请参见相关设置方法。

    除以上提到的三种屏蔽蜘蛛抓取的方法以外,应该是有其他的方法可以达到屏蔽蜘蛛抓取的目的,欢迎各位高手在闲暇之时予以补充。
    但就以上三种方法而言,第一种robots.txt规则文件的运用更为广泛。
 


来顶一下
返回首页
返回首页
推荐资讯
10步征服web2.0链轮第四步,决定链轮模式
10步征服web2.0链轮第
10步征服web2.0链轮第三步,消除“电子足迹”
10步征服web2.0链轮第
10步征服web2.0链轮第一步,理解链轮的概念
10步征服web2.0链轮第
小贺店铺
小贺店铺
相关文章
栏目更新
栏目热门