最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501
当前位置: 首页 - 科技 - 知识百科 - 正文

beautifulsoup学习-抓取页面并解析_html/css_WEB-ITnose

来源:懂视网 责编:小采 时间:2020-11-27 16:02:03
文档

beautifulsoup学习-抓取页面并解析_html/css_WEB-ITnose

beautifulsoup学习-抓取页面并解析_html/css_WEB-ITnose:以汽车之家为例子,抓取页面并进行解析 # -*- coding=utf-8 -*-import urllib2from BeautifulSoup import BeautifulSoup as bs3import jsonimport codecs#字符检测,用来检测其真实的编码格式import chardet#save content
推荐度:
导读beautifulsoup学习-抓取页面并解析_html/css_WEB-ITnose:以汽车之家为例子,抓取页面并进行解析 # -*- coding=utf-8 -*-import urllib2from BeautifulSoup import BeautifulSoup as bs3import jsonimport codecs#字符检测,用来检测其真实的编码格式import chardet#save content

以汽车之家为例子,抓取页面并进行解析
# -*- coding=utf-8 -*-import urllib2from BeautifulSoup import BeautifulSoup as bs3import jsonimport codecs#字符检测,用来检测其真实的编码格式import chardet#save content to filedef save_to_file(filename, content):	f = open(filename, 'w+')	assert(f)	f.write(content)	f.close()	def parse_json_data(content):	print(chardet.detect(content[0]))	name_list = ['keyLink', 'config', 'option','color', 'innerColor']	print(json.dumps(content[0].decode('GB2312')))def parse_content(content):	#content是GB2312的编码	soup = bs3(content)	key_text = 'var levelId'	elem_lib = soup.find('script', text=lambda(x):key_text in x)	#str_script是utf-8的编码	str_script = str(elem_lib.string)	#print(chardet.detect(str_script))	#由于命令行是cp936 GBK的编码,如果编码不符合无法打印	strGBK = str_script.decode('utf-8').encode('gb2312')	#print(strGBK)	#移除html的转义字符 	strGBK = strGBK.replace(' ','')	d = strGBK.splitlines()	list_data = []	for i in d:	if i.isspace():	continue	#过滤不需要的变量	if len(i) < 100:	continue	#取出json数据	idx = i.find('{')	if idx == -1:	continue	#移除最后的;	k = i[idx:-1]	list_data.append(k)	parse_json_data(list_data)	'''	print('json.count=', len(list_data))	for i in list_data:	if len(i) > 200:	print(i[0:200])	else:	print(i)	parse_json_data(list_data)	'''	#不能再函数中直接使用exec,但是可以使用eval	'''	strSentece = ''	for i in d:	if i.isspace():	continue	if 'null' in j:	continue	#移除var的类型定义,javascript需要,python不需要	j = i[4:]	strSentece += i	#可以直接在python中执行json的赋值语句,类似dict赋值	exec(strSentece)	#
输出变量数据 var_list = ['keyLink', 'config','option','color','innerColor'] for i in var_list: exec('print %s' % (i,)) ''' def crawler_4_autohome(): autohome_url = 'http://car.autohome.com.cn/config/series/657.html' #uft-8 content = urllib2.urlopen(url=autohome_url).read() #print(chardet.detect(content)) parse_content(content) if __name__ == '__main__': crawler_4_autohome()

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文档

beautifulsoup学习-抓取页面并解析_html/css_WEB-ITnose

beautifulsoup学习-抓取页面并解析_html/css_WEB-ITnose:以汽车之家为例子,抓取页面并进行解析 # -*- coding=utf-8 -*-import urllib2from BeautifulSoup import BeautifulSoup as bs3import jsonimport codecs#字符检测,用来检测其真实的编码格式import chardet#save content
推荐度:
标签: 网页 css 抓取
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top