成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁技術文章
文章詳情頁

Python爬取豆瓣數據實現過程解析

瀏覽:2日期:2022-07-07 08:58:23

代碼如下

from bs4 import BeautifulSoup #網頁解析,獲取數據import sys #正則表達式,進行文字匹配import reimport urllib.request,urllib.error #指定url,獲取網頁數據import xlwt #使用表格import sqlite3import lxml

以上是引用的庫,引用庫的方法很簡單,直接上圖:

Python爬取豆瓣數據實現過程解析

Python爬取豆瓣數據實現過程解析Python爬取豆瓣數據實現過程解析

上面第一步算有了,下面分模塊來,步驟算第二步來:

這個放在開頭

def main(): baseurl ='https://movie.douban.com/top250?start=' datalist = getData(baseurl) savepath=(’douban.xls’) saveData(datalist,savepath)

這個放在末尾

if __name__ == ’__main__’:main()

不難看出這是主函數,里面的話是對子函數的調用,下面是第三個步驟:子函數的代碼

對網頁正則表達提取(放在主函數的后面就可以)

findLink = re.compile(r’<a href='http://www.piao2010.com/bcjs/(.*?)' rel='external nofollow' rel='external nofollow' >’) #創建正則表達式對象,表示規則(字符串的模式)#影片圖片findImg = re.compile(r’<img.*src='http://www.piao2010.com/bcjs/(.*?)' />’,re.S)#re.S取消換行符#影片片面findtitle= re.compile(r’<span class='title'>(.*?)</span>’)#影片評分fileRating = re.compile(r’<span property='v:average'>(.*?)</span>’)#找到評價的人數findJudge = re.compile(r’<span>(d*)人評價</span>’)#找到概識findInq =re.compile(r’<span class='inq'>(.*?)</span>’)#找到影片的相關內容findBd = re.compile(r’<p class=''>(.*?)</p>’,re.S)

爬數據核心函數

def getData(baseurl): datalist=[] for i in range(0,10):#調用獲取頁面的函數10次 url = baseurl + str(i*25) html = askURl(url) #逐一解析 soup = BeautifulSoup(html,'html.parser') for item in soup.find_all(’div’,class_='item'): #print(item) data=[] item = str(item) link = re.findall(findLink,item)[0] #re庫用來通過正則表達式查找指定的字符串 data.append(link) titles =re.findall(findtitle,item) if(len(titles)==2):ctitle=titles[0].replace(’xa0’,'')data.append(ctitle)#添加中文名otitle = titles[1].replace('xa0/xa0Perfume:','')data.append(otitle)#添加外國名 else:data.append(titles[0])data.append(’ ’)#外國名字留空 imgSrc = re.findall(findImg,item)[0] data.append(imgSrc) rating=re.findall(fileRating,item)[0] data.append(rating) judgenum = re.findall(findJudge,item)[0] data.append(judgenum) inq=re.findall(findInq,item) if len(inq) != 0:inq =inq[0].replace('.','')data.append(inq) else:data.append(' ') bd=re.findall(findBd,item)[0] bd=re.sub(’<br(s+)?/>(s+)?’,' ',bd) #去掉<br/> bd =re.sub(’xa0’,' ',bd) data.append(bd.strip()) #去掉前后的空格 datalist.append(data) #把處理好的一部電影信息放入datalist return datalist

獲取指定網頁內容

def askURl(url): head = { 'User-Agent': 'Mozilla / 5.0(Windows NT 10.0;WOW64) Apple' +'WebKit / 537.36(KHTML, likeGecko) Chrome / 78.0.3904.108 Safari / 537.36' }#告訴豆瓣我們是瀏覽器我們可以接受什么水平的內容 request = urllib.request.Request(url,headers=head) html='' try: response = urllib.request.urlopen(request) html = response.read().decode('utf-8') # print(html) except urllib.error.URLError as e: if hasattr(e,'code'): print(e.code) if hasattr(e,'reason'): print(e.reason) return html

將爬下來的數據保存到表格中

ef saveData(datalist,savepath): print('保存中。。。') book = xlwt.Workbook(encoding='utf-8',style_compression=0) # 創建workbook對象 sheet = book.add_sheet(’douban’,cell_overwrite_ok=True) #創建工作表 cell_overwrite_ok表示直接覆蓋 col = ('電影詳情鏈接','影片中文網','影片外國名','圖片鏈接','評分','評價數','概況','相關信息') for i in range(0,8): sheet.write(0,i,col[i]) for i in range(0,250): print('第%d條' %(i+1)) data = datalist[i] for j in range(0,8): sheet.write(i+1,j,data[j]) book.save(savepath)

以上就是整個爬數據的整個程序,這僅僅是一個非常簡單的爬取,如果想要爬更難的網頁需要實時分析

整個程序代碼

from bs4 import BeautifulSoup #網頁解析,獲取數據import sys #正則表達式,進行文字匹配import reimport urllib.request,urllib.error #指定url,獲取網頁數據import xlwt #使用表格import sqlite3import lxml def main(): baseurl ='https://movie.douban.com/top250?start=' datalist = getData(baseurl) savepath=(’douban.xls’) saveData(datalist,savepath)#影片播放鏈接findLink = re.compile(r’<a href='http://www.piao2010.com/bcjs/(.*?)' rel='external nofollow' rel='external nofollow' >’) #創建正則表達式對象,表示規則(字符串的模式)#影片圖片findImg = re.compile(r’<img.*src='http://www.piao2010.com/bcjs/(.*?)' />’,re.S)#re.S取消換行符#影片片面findtitle= re.compile(r’<span class='title'>(.*?)</span>’)#影片評分fileRating = re.compile(r’<span property='v:average'>(.*?)</span>’)#找到評價的人數findJudge = re.compile(r’<span>(d*)人評價</span>’)#找到概識findInq =re.compile(r’<span class='inq'>(.*?)</span>’)#找到影片的相關內容findBd = re.compile(r’<p class=''>(.*?)</p>’,re.S) def getData(baseurl): datalist=[] for i in range(0,10):#調用獲取頁面的函數10次 url = baseurl + str(i*25) html = askURl(url) #逐一解析 soup = BeautifulSoup(html,'html.parser') for item in soup.find_all(’div’,class_='item'): #print(item) data=[] item = str(item) link = re.findall(findLink,item)[0] #re庫用來通過正則表達式查找指定的字符串 data.append(link) titles =re.findall(findtitle,item) if(len(titles)==2):ctitle=titles[0].replace(’xa0’,'')data.append(ctitle)#添加中文名otitle = titles[1].replace('xa0/xa0Perfume:','')data.append(otitle)#添加外國名 else:data.append(titles[0])data.append(’ ’)#外國名字留空 imgSrc = re.findall(findImg,item)[0] data.append(imgSrc) rating=re.findall(fileRating,item)[0] data.append(rating) judgenum = re.findall(findJudge,item)[0] data.append(judgenum) inq=re.findall(findInq,item) if len(inq) != 0:inq =inq[0].replace('.','')data.append(inq) else:data.append(' ') bd=re.findall(findBd,item)[0] bd=re.sub(’<br(s+)?/>(s+)?’,' ',bd) #去掉<br/> bd =re.sub(’xa0’,' ',bd) data.append(bd.strip()) #去掉前后的空格 datalist.append(data) #把處理好的一部電影信息放入datalist return datalist #得到指定一個url的網頁內容def askURl(url): head = { 'User-Agent': 'Mozilla / 5.0(Windows NT 10.0;WOW64) Apple' +'WebKit / 537.36(KHTML, likeGecko) Chrome / 78.0.3904.108 Safari / 537.36' }#告訴豆瓣我們是瀏覽器我們可以接受什么水平的內容 request = urllib.request.Request(url,headers=head) html='' try: response = urllib.request.urlopen(request) html = response.read().decode('utf-8') # print(html) except urllib.error.URLError as e: if hasattr(e,'code'): print(e.code) if hasattr(e,'reason'): print(e.reason) return html def saveData(datalist,savepath): print('保存中。。。') book = xlwt.Workbook(encoding='utf-8',style_compression=0) # 創建workbook對象 sheet = book.add_sheet(’douban’,cell_overwrite_ok=True) #創建工作表 cell_overwrite_ok表示直接覆蓋 col = ('電影詳情鏈接','影片中文網','影片外國名','圖片鏈接','評分','評價數','概況','相關信息') for i in range(0,8): sheet.write(0,i,col[i]) for i in range(0,250): print('第%d條' %(i+1)) data = datalist[i] for j in range(0,8): sheet.write(i+1,j,data[j]) book.save(savepath) if __name__ == ’__main__’: main()

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: 豆瓣 Python
相關文章:
成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久
亚洲小少妇裸体bbw| 欧美三级电影在线看| 欧美亚洲色图校园春色| 亚洲精品一区二区精华| 蜜臀99久久精品久久久久久软件| 黄色亚洲大片免费在线观看| 日韩欧美国产麻豆| 免费观看在线综合| 国产精品最新自拍| 中文字幕电影一区| 高清在线成人网| 欧美日韩在线播放三区| 亚欧色一区w666天堂| 一本一道久久综合狠狠老精东影业 | 亚洲一区欧美激情| 国产精品久久久久久久久搜平片| 国产aⅴ精品一区二区三区色成熟| 在线免费观看不卡av| 亚洲激情av在线| 99热免费精品在线观看| 中文字幕不卡在线| 欧美成人首页| 久久综合精品国产一区二区三区| 国产一区二区不卡老阿姨| 欧美性猛交xxxx乱大交退制版| 日韩精品五月天| 久久久夜精品| 日韩精品1区2区3区| 久久岛国电影| 亚洲h在线观看| 久久成人资源| 亚洲电影欧美电影有声小说| 亚洲专区欧美专区| 亚洲人成网站在线| 一本色道久久综合亚洲精品婷婷| 亚洲人成在线观看一区二区| 99热免费精品| 亚洲综合一区二区精品导航| 国产一区二区高清不卡| 亚洲国产精品久久一线不卡| 国产日韩一区欧美| 午夜私人影院久久久久| 色系网站成人免费| 蜜桃视频在线观看一区| 色猫猫国产区一区二在线视频| 日韩成人免费在线| 欧美日韩美少妇| 国产一区二区电影| 日韩欧美一区二区免费| 99视频精品在线| 中文一区一区三区高中清不卡| 国产一在线精品一区在线观看| 国产精品日韩成人| 亚洲激情亚洲| 亚洲成a人片在线观看中文| 免费看的黄色欧美网站| 亚洲不卡一区二区三区| 欧美在线看片a免费观看| 韩国女主播成人在线观看| 欧美一区二区久久| 91丨porny丨在线| 亚洲国产成人私人影院tom| 亚洲网站视频| 亚洲狠狠丁香婷婷综合久久久| 香蕉成人久久| 九色综合狠狠综合久久| 欧美一区二区日韩一区二区| 99国产精品99久久久久久| 欧美国产欧美亚州国产日韩mv天天看完整| 国语精品一区| 亚洲午夜三级在线| 欧美性猛片xxxx免费看久爱| 国产精品99久久久| 欧美韩日一区二区三区| 日韩亚洲精品在线| 日韩vs国产vs欧美| 欧美人与禽zozo性伦| 99精品久久免费看蜜臀剧情介绍| 国产清纯在线一区二区www| 亚洲日本黄色| 日本中文在线一区| 日韩欧美国产高清| 欧美一区二区三区久久精品茉莉花 | 亚洲区国产区| 免费在线观看精品| 日韩午夜精品视频| 欧美粗暴jizz性欧美20| 亚洲视频小说图片| 在线视频国内自拍亚洲视频| 岛国精品一区二区| 亚洲欧美综合另类在线卡通| 久久精选视频| 亚洲成a人在线观看| 91精品国产综合久久久蜜臀粉嫩| 农村妇女精品| 亚洲国产美女搞黄色| 欧美体内she精高潮| 91丨九色丨黑人外教| 亚洲综合小说图片| 日韩一区二区免费视频| 亚洲欧洲日本国产| 欧美aaaaa成人免费观看视频| 精品999久久久| 国产伦精品一区二区三区高清版| 亚洲成av人片| 日韩欧美在线影院| 99亚洲视频| 国产成人精品亚洲日本在线桃色| 中文字幕在线一区| 欧美网站大全在线观看| 欧美日韩国产三区| 免费成人美女在线观看| 国产日本欧美一区二区| 老牛国产精品一区的观看方式 | 欧美一区国产一区| 亚洲成人av一区| 日韩免费视频一区二区| 中文日韩欧美| 成人美女在线视频| 午夜不卡av免费| 国产亚洲一区二区三区| 色哟哟亚洲精品| 欧美精品二区| 精品一区二区三区免费毛片爱 | 亚洲国产电影在线观看| 欧美视频自拍偷拍| 欧美网站在线| 久久99久久久久| 自拍偷拍国产亚洲| 日韩午夜激情免费电影| 麻豆成人小视频| 成人av网站在线观看免费| 一级中文字幕一区二区| 精品国产乱码久久| 欧美在线你懂的| 91久久在线| av一区二区久久| 美腿丝袜亚洲色图| 亚洲乱码中文字幕| 久久久欧美精品sm网站| 欧美日韩中文字幕精品| 国产日韩一区欧美| 91亚洲永久精品| 久久成人免费网| 尤物av一区二区| 久久九九99视频| 欧美老年两性高潮| 性一交一乱一区二区洋洋av| 欧美日韩天堂| 岛国精品在线观看| 九九**精品视频免费播放| 一区二区三区精品视频在线| 久久久噜噜噜久久中文字幕色伊伊| 欧美自拍偷拍一区| 亚洲一区图片| 精品电影一区| 不卡在线视频中文字幕| 奇米888四色在线精品| 亚洲欧美国产77777| 久久亚洲捆绑美女| 69堂国产成人免费视频| 色琪琪一区二区三区亚洲区| 99国产精品99久久久久久粉嫩| 丁香天五香天堂综合| 免费成人美女在线观看| 亚洲午夜国产一区99re久久| 中文字幕一区在线观看视频| 国产午夜亚洲精品午夜鲁丝片| 欧美一区二区在线视频| 欧美性色黄大片手机版| 亚洲综合国产| 亚洲日本免费| 欧美日韩精品免费观看视频完整 | 五月激情六月综合| 一区二区三国产精华液| 亚洲婷婷在线视频| 亚洲欧美中日韩| 中文字幕在线视频一区| 国产精品美女久久久久久久久| 久久久不卡影院| 国产日韩亚洲欧美综合| 久久久精品人体av艺术| 精品福利一区二区三区免费视频| 欧美va在线播放| 日韩免费视频一区| 欧美大度的电影原声| 精品日韩成人av| 久久久久久久久久久99999| 久久精品亚洲精品国产欧美 | 欧美日本在线播放| 欧美日韩激情一区二区三区| 欧美亚洲精品一区| 欧美日韩在线观看一区二区| 欧美视频你懂的| 久久久久久一区| 国产高清精品久久久久| 久久一区二区精品| 成人app软件下载大全免费| 欧美肥妇毛茸茸| 91丝袜国产在线播放|