当前位置:seo培训 > SEO教学

如何用恶意“蜘蛛”保守秘密?

分类:SEO教学  发布时间: 2013-02-08 01:10:00

  在进行SEO的过程中,您是否遇到过这样的问题:服务器访问CPU使用率几乎为100%,而且页面加载速度非常慢,看起来它已受到DDOS的攻击。

  经过一番审查, 我发现我的目标网站经常被大量不相关的“爬行者”爬行。对于小型网站,这可能是一场灾难。

  因此,当我们进行网站优化时,它需要针对特定蜘蛛的选择性指导。

如何用恶意“蜘蛛”保守秘密? 第1张

然后,如何用恶意“蜘蛛”保守秘密?

  根据以前的SEO经验分享,特科网,具体内容如下:

  1. 搜索引擎爬虫

  对于国内合作伙伴我们都知道在进行SEO的过程中,我们面临的最常见的搜寻器是搜索引擎的搜寻器。例如:百度蜘蛛,同时,还将面对各种搜索引擎的蜘蛛,如:

  ①360spider, 搜狗蜘蛛 字节蜘蛛

  ②Googlebot, Bingbot, lur 特玛 ia_archiver, 两倍, MSNBot

  ③其他履带

  您是如何没有故意配置机器人的。txt文件,理论上,您的目标网页可以被抓取和抓取,但是对于某些中小型网站,偶尔会严重浪费服务器资源。

  目前,我们需要做出有选择的合理指导,特别是一些尴尬的问题,例如:您希望Google减少网站爬网,而且不能完全被屏蔽您可能需要一些提示,例如:对于特定的爬虫访问,供反馈的不同文章列表:

  ①控制更新频率一览

  ②很多重复的反馈,内容场页面

  ③Flash等意图明确的“蜘蛛陷阱”

  ④如何管理对方的SEO平台,您可以调整获取注释,适当调整

  虽然,这样的策略可能会损害页面的声誉,但这就是我能想到的对于那些不想经常爬网的人,并且需要不断爬行蜘蛛,一种相对“有效”的方法,可以合理地控制爬网。

  2. 链接分析搜寻器

  从目前的角度来看,SEO外部链分析管理工具,每天都要花费大量服务器资源来爬网整个网络并检测每个网站的页面链接。

  对于某些资源密集型网站,一天可能爬行数千次,这样的爬虫并不少见。

  如果您不希望自己的网站参与,最简单的策略是在机器人协议中,完全封闭此类履带。

  3. 内容收集搜寻器

  但是当我们面对一些恶意的内容收集爬网程序时,比较尴尬另一方通常处于“隐身”状态,例如:模拟一个著名的搜索引擎蜘蛛的名称。

  针对此类问题,我们只能手动判断来检查对方的庐山真面目,例如:使用IP泛分析命令,判断,是真的吗

  ①Linux平台:hostip

  ②寡妇平台:nslookupIP

  为了确定另一方的解决地址,是否是相应的搜索引擎域名

  4. 蜘蛛池履带

  现在, 市场上有很多人在做百度蜘蛛池,其主要目的是协助百度将更多页面快速收录。但是由于某些随意下载的蜘蛛池程序的非标准化设计。

  没有针对不同的蜘蛛实现合理的爬行和限制,通常会导致服务器资源大量占用,服务提供商很容易关闭服务器。

  如果您尝试使用此策略,改善您的网页收录率,然后,您可能需要更多注意。(但我们不建议这样做)

  摘要:SEO工作是一项详尽的工作,每种策略都会影响整个工作站的运行状态,以上内容只是分析,适合中小型网站管理员,仅供参考!