当前位置:淡墨SEO首页 > SEO软件 > 百度蜘蛛ip220和116段质量高,抓取很多

百度蜘蛛ip220和116段质量高,抓取很多

淡墨SEO2年前 (2024-05-30)SEO软件3916141

通过对服务器日志的分析,发现百度蜘蛛ip段116.179.32.*和220.181.108.*两段百度蜘蛛抓取量很多,也是主要的抓取ip段。我们从日志中可以清楚的看到大量的这两个ip段蜘蛛在访问网站的内页。


我们在服务器中,下载网站的日志文件,再把日志文件导入到特定的日志分析工具中,可以看到百度蜘蛛抓取网站页面的情况。可以通过下图,蜘蛛ip地址主要集中在220.181.108.*和116.179.32.*。这两个蜘蛛ip在大量抓取网站的内页。

image.png


通过ip138网站去分析ip的来源,其中116段ip是来自山西百度蜘蛛。220段ip是来自北京百度蜘蛛。都是百度蜘蛛标识。所以抓取上都是正确的。


image.png


image.png


这两段ip的百度蜘蛛抓取量很多。基本上百度方面的蜘蛛就已经抓取了2000多次了。不过发现了一个方法,可以提高220段蜘蛛的抓取量。就是百度站长平台抓取诊断里可以手动提交链接,然后就会发现220ip蜘蛛就会实时的抓取网站页面。

image.png

image.png


百度抓取诊断提交链接,每周只能提交70次,数量上有了很大的限制。不知道是出于什么原因限制次数。但是如果我们有大量的站点,或者批量绑定泛二级域名。这样提交的量就会有很多了。那么这里就要用到批量二级域名绑定软件了。可以自动化的进行二级域名批量绑定、删除、推送。



image.png




绑定完站点,其次进行10次主动推送,进行70次抓取诊断提交。然后进行删除处理,再去自动重复操作这一流程,这样就可以达到大量提交站点的目的了。







扫描二维码推送手机访问

文章内容均为原创,禁止转载!

本文链接:http://www.danmoseo.com/news/75.html

标签: seo软件

相关文章

flask-celery异步执行sitemap任务并生成文件

flask-celery异步执行sitemap任务并生成文件

此次主要是将python生成的sitemap文件,转入到flask做出的api接口上,这样每次进行api请求就可以获取到网站的所有的url并生成sitemap文件。首先看看运行效果。本地地址请求接口url:http://127.0.0.1:5100/sitemap?site=http://www.s...

某讯视频用python解析数据并下载视频mp4格式

某讯视频用python解析数据并下载视频mp4格式

国庆祝福祖国生日快乐。偶尔间,想做做视频剪辑,需要下载视频素材,但是在平台上的视频似乎不支持手动下载。自然学了python,可以试着用代码去下载视频,在这块找到相应的教学内容,本次内容主要是分享用python如何去获取下载某讯视频。下面为大家讲解一下。就拿最近比较火的昆仑神宫来做下视频解析下载,首先...

自动过旋转验证码并查询关键词排名

自动过旋转验证码并查询关键词排名

如果用程序持续查关键词排名的话,肯定会遭遇百度反爬机制,反爬手段就是旋转验证码,需要过了旋转验证码才可以继续爬取,在之前已经逆向解决了旋转验证码,那么查询排名就可以持续性自动化进行。如果不过旋转验证码,那么就要买大量的代理ip去替换ip查询,而且这种做法查询过程中也会遇到反爬,并且查询速度收代理ip...

百度旋转验证码ds字段api接口自动生成

百度旋转验证码ds字段api接口自动生成

最近有些做seo同行在问我,旋转验证码的源码怎么用啊,比如出现验证码的时候,怎么对接啊?还有的会问怎么对接易语言、C#,那真的尴尬了,其他语言不太会。其实旋转验证码的原理最终要的数据就是ds和tk字段信息,只要拿到这两个字段的信息,就可以对接了。所以这次做了百度旋转验证码ds字段api接口自动生成,...

无需代理ip查询搜狗任务触发验证码机制并识别通过

无需代理ip查询搜狗任务触发验证码机制并识别通过

如果我们想做一些搜狗页面的一些数据分析,比如网站关键词排名,挖掘相关搜索词等任务,用代码自动化请求时间过长,会触发搜搜验证码机制。对于这个验证码,可以识别验证码并请求通过。遇到这类情况,可以分析一下接口,经过分析,在代码中进行还原请求data参数中suuid和auuid在页面源码中可以获取到,r、p...