人生苦短,我用Python,从入门到放弃,在到学会装X,这里是一份装X指南,教你如何用Python批量采集百度相关搜索词教程。
首先,你得安装好Python以及requests模块,然后,你还得装个sublime text,网上有各种安装教程,这里不做赘述。
新建文件名,保存为py后缀,将下面代码复制到sublime编辑中:
#encoding=utf-8 import requests,re,urllib for word in open('kws.txt',encoding='utf-8'): headers={'User-Agent:':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'} url='http://www.baidu.com/s?ie=UTF-8&wd=%s'%urllib.parse.quote_plus(word) #format,+word+ html=requests.get(url,headers,timeout=5).text #print (html) redata=re.compile(r'<th><a href="/s\?wd.*?">(.*?)</a></th>') for i in re.findall(redata,html): print(i)
另外,新建一个关键词txt文档,取名为kws.txt(自定义),里面放入你要采集的关键词,一行一个:
保存后运行代码,快捷键ctrl+B即可。
采集结果如图,编辑器下方有显示:
采集完成后,需要将它导入word文档里,删除对opencsv的标注:
#encoding=utf-8 import requests,re,urllib opencsv=open('word.csv','a+') for word in open('kws.txt',encoding='utf-8'): headers={'User-Agent:':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'} url='http://www.baidu.com/s?ie=UTF-8&wd=%s'%urllib.parse.quote_plus(word) #format,+word+ html=requests.get(url,headers,timeout=5).text #print (html) redata=re.compile(r'<th><a href="/s\?wd.*?">(.*?)</a></th>') for i in re.findall(redata,html): print(i) opencsv.write('%s\n'%i)
再运行代码,之后打开word,可以看到关键词以打印出来:
至此,Python批量采集百度相关搜索关键词就完成了。
使用Python批量采集关键词相关搜索,可以大大的提升我们的工作效率,也是一个装X利器。
让你工地的程序猿,对你刮目相看,升职加薪,SEO变成CEO,你仅仅需要:
加入大仙的seo付费群(我微信:gz90hudong),目前还差1人,就达到30人,之后将涨价为70元/年(AD)。
赞赏微信赞赏
支付宝赞赏