有哪些是垃圾蜘蛛,利用robots将它们屏蔽

运营推广 投稿 70600 1 评论

有哪些是垃圾蜘蛛,利用robots将它们屏蔽

最近经常感觉服务器卡死,查看访问日志发现多了很多垃圾蜘蛛在访问,为减少服务器的压力,我们可以使用robots文件将他们屏蔽。

收集整理的垃圾蜘蛛屏蔽代码如下:

User-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: SeznamBot
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: PetalBot
Disallow: /

其余不想被爬取的可以根据需求屏蔽,比如后台地址、前端代码(js、css)等,都可以通过这个方式统一屏蔽。

编程笔记 » 有哪些是垃圾蜘蛛,利用robots将它们屏蔽

赞同 (43) or 分享 (0)
游客 发表我的评论   换个身份
取消评论

表情
(1)个小伙伴在吐槽
  1. 笑料不断。
    病态红衣 2023-09-09 08:30 (2年前) 回复