当前位置:淡墨SEO首页 > SEO软件 > 多线程制作sitemap地图,集合到工具集

多线程制作sitemap地图,集合到工具集

淡墨SEO3年前 (2022-09-01)SEO软件3946173

这次在我的工具集中,增加一个新功能,就是sitemap地图的制作,核心思路当然是爬取网站所有页面,并对页面进行数据清洗,包括去重、分类、url类别判断。然后再将功能集合到seo工具集中。


在代码部分,简单介绍一下,解析页面,然后通过BeautifulSoup对页面url进行提取,对url进行判断,同域名下的url都是目标url,再把目标url放入集合中。

def get_new_urls(base_url,html):
   soup = BeautifulSoup(html, 'html.parser', from_encoding='utf-8')
   links = soup.find_all('a', href=re.compile(r".*"))
   all_url = []
   for link in links:
       new_url = link['href']
       new_url_full = urljoin(base_url,new_url)
       if new_url_full.find(base_url) < 0:continue
       if not guolve(base_url,new_url_full):continue
       all_url.append(new_url_full)
   all_url.insert(0,base_url)
   return all_url
def parse_html(url):
   if url is None:
       return
   url = quote(url, safe="?#/:=@")
   try:
       res = requests.get(url=url,timeout=5)
       if res.status_code == requests.codes.ok:
           res.encoding = res.apparent_encoding
           return res.text
   except:
       return

将返回的列表数据,带入到线程中,再进行循环请求,获取下一批url。并对下一批url进行判断和去重


最后,把返回的url几个用xml的格式,进行写入xml文件的格式就可以了。

fw = open(filename, 'w', encoding="utf-8")
           fw.write('<?xml version="1.0" encoding="UTF-8"?>')
           fw.write(
               '\n<urlset xmlns="http://video.sitemaps.org/schemas/sitemap/0.9">'
          )
           root_url = urlparse(data[0]).netloc
           if not re.compile(r"http://").findall(root_url) and not re.compile(r"https://").findall(root_url):
               root_url = "http://" + root_url
           data = list(set(data))
           for url in data:
               # url = data['url']
               fw.write('\n\t<url>')
               fw.write('\n\t\t<loc>' + url + '</loc>')
               fw.write("\n\t\t<lastmod>" +time.strftime('%Y-%m-%d', time.localtime(time.time())) +
                   "</lastmod>")
               fw.write('\n\t\t<changefreq>daily</changefreq>')
               if re.findall(root_url + "$", url) or re.findall(
                       root_url + "/$", url):
                   fw.write('\n\t\t<priority>1.0</priority>')
               elif re.findall(root_url + "[^/]*/$",
                               url) or re.findall(
                                   root_url + "/[^/]*/$", url):
                   fw.write('\n\t\t<priority>0.8</priority>')
               elif re.findall(root_url + "[^/]*/[^/]*$",
                               url) or re.findall(
                                   root_url + "/[^/]*/[^/]*$", url):
                   fw.write('\n\t\t<priority>0.6</priority>')
               else:
                   fw.write('\n\t\t<priority>0.4</priority>')
               fw.write('\n\t</url>')
           fw.write('\n</urlset>')

在工具集中,我将sitemap功能也添加进去了,这样,在工具集中,可以很方便去使用。在挖掘页面的时候,可以选择挖掘的数量,如果不指定挖掘数量,就代表挖掘网站所有的页面url。并且这些url都是不重复的。



在导出数据时候,就可以将这些页面导出位XXX.XML格式的文件了。



有需要这款工具集合,可以私信我。


扫描二维码推送手机访问

文章内容均为原创,禁止转载!

本文链接:http://www.danmoseo.com/news/10.html

标签: seo工具

相关文章

某讯视频用python解析数据并下载视频mp4格式

某讯视频用python解析数据并下载视频mp4格式

国庆祝福祖国生日快乐。偶尔间,想做做视频剪辑,需要下载视频素材,但是在平台上的视频似乎不支持手动下载。自然学了python,可以试着用代码去下载视频,在这块找到相应的教学内容,本次内容主要是分享用python如何去获取下载某讯视频。下面为大家讲解一下。就拿最近比较火的昆仑神宫来做下视频解析下载,首先...

实战js逆向某度旋转验证码并验证通过

实战js逆向某度旋转验证码并验证通过

前段时间在写逆向旋转验证码的时候,文章在js逆向百度旋转验证码并通过验证 在文章中js逆向配合角度识别是可以通过接口完成验证的。虽然逆向代码是没问题的,但是缺少实际测试。本次就测试一下,以及发现的问题。源码获取:》》》百度旋转验证码逆向源码视频介绍:首先在测试的时候的发现的问题,一是百度旋...

逆向百度旋转验证码,并自动提交链接

逆向百度旋转验证码,并自动提交链接

前面说了逆向百度旋转验证码后,大家可以在找前面的文章了解了解,这次主要是通过逆向旋转验证码后进行实战操作。本次主要是对百度链接提交界面进行一个链接提交操作,可以批量提交我们网站的链接,从而优化收录网站链接。封装软件发货传送门》》百度链接提交软件视频演示:内容介绍:如果是手动提交的话,需要手动旋转一下...

百度域名批量添加和批量推送

百度域名批量添加和批量推送

好长时间没更新了,这段时间疫情原因居家办公做些工作方面的事也学点新的知识,SEO的事会根据大众反馈和需要去做一下。总之有好用的和SEO相关的知识都会拿出来分享一下,不会分享和SEO无关的知识内容。前面说到百度链接提交的功能,今天接着说一下百度域名批量提交和批量推送的功能,也是逆向验证码有关的知识内容...

无需代理ip查询搜狗任务触发验证码机制并识别通过

无需代理ip查询搜狗任务触发验证码机制并识别通过

如果我们想做一些搜狗页面的一些数据分析,比如网站关键词排名,挖掘相关搜索词等任务,用代码自动化请求时间过长,会触发搜搜验证码机制。对于这个验证码,可以识别验证码并请求通过。遇到这类情况,可以分析一下接口,经过分析,在代码中进行还原请求data参数中suuid和auuid在页面源码中可以获取到,r、p...