最近经常感觉服务器卡死,查看访问日志发现多了很多垃圾蜘蛛在访问,为减少服务器的压力,我们可以使用robots文件将他们屏蔽。
收集整理的垃圾蜘蛛屏蔽代码如下:
User-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: SeznamBot
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: PetalBot
Disallow: /
其余不想被爬取的可以根据需求屏蔽,比如后台地址、前端代码(js、css)等,都可以通过这个方式统一屏蔽。