对于很多做网站的新手来说,都没有经过系统地授课进行网络技术和建站知识学习,做网站都是靠自学,遇到难题在论坛发帖提问,更不会懂得网站优化,对于较基本操作——通过网站日志看蜘蛛来访情况都不知到哪里看,怎么看。前两天看到很多人发帖提问,回复者的答案却比较精炼,不具体,提问者还是云里雾里的,现我就以自己的网站来系统地操作一次,提交给大家参考,有说错的地方,请批评指正。

什么是spider?(引擎蜘蛛)
spider是搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在搜索引擎中搜索到您网站的网页。

spider对一个网站服务器造成的访问压力如何?
spider会自动根据服务器的负载能力调节访问密度。在连续访问一段时间后,spider会暂停一会,以防止增大服务器的访问压力。所以在一般情况下,spider对您网站的服务器不会造成过大压力。

为什么spider不停的抓取我的网站?
对于您网站上新产生的或者持续更新的页面,spider会持续抓取。此外,您也可以检查网站访问日志中spider的访问是否正常,以防止有人恶意冒充spider来频繁抓取您的网站。如果您发现spider非正常抓取您的网站,请发送反馈邮件到该搜索引擎,并请尽量给出spider对贵站的访问日志,以便于我们跟踪处理。

我不想我的网站被spider访问,我该怎么做?
spider遵守互联网robots协议。您可以利用robots.txt文件完全禁止spider访问您的网站,或者禁止spider访问您网站上的部分文件。注意:禁止spider访问您的网站,将使您的网站上的网页,在搜索引擎以及所有提供搜索引擎服务的搜索引擎中无法被搜索到。
关于robots.txt的写作方法,请参看我们的介绍:robots.txt写作方法

为什么我的网站已经加了robots.txt,还能在搜索出来?
因为搜索引擎索引数据库的更新需要时间。虽然spider已经停止访问您网站上的网页,但搜索引擎数据库中已经建立的网页索引信息,可能需要二至四周才会清除。另外也请检查您的robots配置是否正确。
蜘蛛在robots.txt中的名字是什么?
“spider”全部为小写字母。

spider多长时间之后会重新抓取我的网页?
搜索引擎每周更新,网页视重要性有不同的更新率,频率在几天至一月之间,spider会重新访问和更新一个网页。

知道了什么是SPIDER蜘蛛,那么怎么才能知道蜘蛛是否来过你的站?这个可以从你服务器或者虚拟主机的日志中看出来,比如我用的站的www.software8.co的完整使用日志中有这样的记录:
220.181.38.198 – – [11/Nov/2007:04:28:29 +0800] "GET / HTTP/1.1" 200 61083 "-" "Baiduspider+(+http://www.baidu.com/search/spider.htm)"这就说明蜘蛛来过我的站了,如果你还想知道有没有其它搜索引擎的蜘蛛来过你的站,你可以在日志文件中搜索“spider”这个词,或者搜索蜘蛛的IP

发表评论

电子邮件地址不会被公开。 必填项已用*标注