其实,如果是爬虫抓取的话,好像封IP也没有什么意义吧。。在Nginx上针对IP 的reject 看起来只是个形式罢了~
@[email protected] 前几天做了个静态页面,放在了一个全新的二级域名下面,谁也没告诉,看nginx日志已经有不少爬虫来过了……
@dogcraft 正常。。爬虫很难防。我博客上是在文里面插上一段标明出处的话,页面加载完毕后再用JS移除这段话,感觉治搬运类爬虫特别有效(≧▽≦)
@[email protected] 这个方法不错我还是太菜了,我博客还没来过搬运类的爬虫……
@dogcraft 当时是被花瓣扒的,搜索引擎上比本尊还靠前。。
每个人都有属于自己的一片森林,也许我们从来不曾走过,但它一直在那里,总会在那里。迷失的人迷失了,相逢的人会再相逢。愿这里,成为属于你的小森林。