Python批量采集百度相关搜索词教程

人生苦短,我用Python,从入门到放弃,在到学会装X,这里是一份装X指南,教你如何用Python批量采集百度相关搜索词教程。

 

首先,你得安装好Python以及requests模块,然后,你还得装个sublime text,网上有各种安装教程,这里不做赘述。

 

新建文件名,保存为py后缀,将下面代码复制到sublime编辑中:

#encoding=utf-8
import requests,re,urllib

for word in open('kws.txt',encoding='utf-8'):
  headers={'User-Agent:':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'}
  url='http://www.baidu.com/s?ie=UTF-8&wd=%s'%urllib.parse.quote_plus(word)
  #format,+word+

  html=requests.get(url,headers,timeout=5).text
  #print (html)


  redata=re.compile(r'<th><a href="/s\?wd.*?">(.*?)</a></th>')
  for i in re.findall(redata,html):
    print(i)

 

另外,新建一个关键词txt文档,取名为kws.txt(自定义),里面放入你要采集的关键词,一行一个:

关键词文档

 

保存后运行代码,快捷键ctrl+B即可。

 

采集结果如图,编辑器下方有显示:

采集相关搜索

 

采集完成后,需要将它导入word文档里,删除对opencsv的标注:

#encoding=utf-8
import requests,re,urllib

opencsv=open('word.csv','a+')

for word in open('kws.txt',encoding='utf-8'):
  headers={'User-Agent:':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'}
  url='http://www.baidu.com/s?ie=UTF-8&wd=%s'%urllib.parse.quote_plus(word)
  #format,+word+

  html=requests.get(url,headers,timeout=5).text
  #print (html)


  redata=re.compile(r'<th><a href="/s\?wd.*?">(.*?)</a></th>')
  for i in re.findall(redata,html):
    print(i)
  opencsv.write('%s\n'%i)

 

再运行代码,之后打开word,可以看到关键词以打印出来:

关键词导出

 

至此,Python批量采集百度相关搜索关键词就完成了。

 

使用Python批量采集关键词相关搜索,可以大大的提升我们的工作效率,也是一个装X利器。

 

让你工地的程序猿,对你刮目相看,升职加薪,SEO变成CEO,你仅仅需要:

 

加入大仙的seo付费群(我微信:gz90hudong),目前还差1人,就达到30人,之后将涨价为70元/年(AD)。

相关文章