成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁技術文章
文章詳情頁

Python爬蟲獲取豆瓣電影并寫入excel

瀏覽:151日期:2022-07-15 17:07:55

豆瓣電影排行榜前250 分為10頁,第一頁的url為https://movie.douban.com/top250,但實際上應該是https://movie.douban.com/top250?start=0 后面的參數0表示從第幾個開始,如0表示從第一(肖申克的救贖)到第二十五(觸不可及),https://movie.douban.com/top250?start=25表示從第二十六(蝙蝠俠:黑暗騎士)到第五十名(死亡詩社)。等等,

所以可以用一個步長為25的range的for循環參數

復制代碼 代碼如下:for i in range(0, 250, 25): print(i)

分析完頁面組成后,開始獲取頁面,直接request.get()發現沒有返回任何東西,輸出一下響應碼

url = ’https://movie.douban.com/top250?start=0’res = request.get(url=url)print(res.status_code)

發現返回響應碼418

以前沒見過這個,拉網線上網查一下,發現給get里面加一個header參數就行了

這里可以用自己瀏覽器的user-agent,如

headers = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’}

或者用fake_agent(安裝直接用pip install fake_agent) 來為自己生成一個隨機的agent添加到header字典中

from fake_useragent import UserAgentheaders = {’User-Agent’: UserAgent().random}

之后就可以得到頁面源碼了。

然后使用lxml.etree,即xpath解析頁面源碼。用瀏覽器插件xpath finder快速定位到元素

Python爬蟲獲取豆瓣電影并寫入excel

import requestsimport lxml.etree as etreeurl = ’https://movie.douban.com/top250?start=0’headers = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’}res = requests.get(url=url, headers=headers)print(res.text)html = etree.HTML(res.text)name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]')print(name)

但是直接這樣子,解析到的是這樣的結果

[<Element span at 0x20b2f0cc488>]

Python爬蟲獲取豆瓣電影并寫入excel

關于這東西是什么,有文章寫的很好:https://www.jb51.net/article/132145.htm

這里我直接寫解決部分,在使用xpath解析時,后面加上/text()

name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]/text()')

解決后,再使用xpath finder插件,一步一步獲取到電影所有數據

最后把這個寫在函數里,外面再套上一開始說的循環,就OK了

# -*- coding: utf-8 -*-import requestsimport lxml.etree as etreedef get_source(page): url = ’https://movie.douban.com/top250?start={}’.format(page) headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’} print(url) res = requests.get(url=url, headers=headers) print(res.status_code) html = etree.HTML(res.text) for i in range(1, 26): name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()'.format(i)) info = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()'.format(i)) score = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()'.format(i)) slogan = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()'.format(i)) print(name[0]) print(info[0].replace(’ ’, ’’)) print(info[1].replace(’ ’, ’’)) print(score[0]) print(slogan[0])n = 1for i in range(0, 250, 25): print(’第%d頁’ % n) n += 1 get_source(i) print(’==========================================’)

在定位時,發現有4部電影介紹沒有slogan,導致獲取到的信息為空列表,也就導致了list.append()會出錯。所以我加上了幾個差錯處理,解決方式可能有點傻,如果有更好的解決辦法,洗耳恭聽

代碼在最后可以看到

Python爬蟲獲取豆瓣電影并寫入excel

EXCEL保存部分

這里我用的xlwt

book = xlwt.Workbook()

sheet = book.add_sheet(u’sheetname’, cell_overwrite_ok=True)

創建一個sheet表單。

數據保存到一個大列表中,列表嵌套列表

再通過循環把數據導入到excel表單中

r = 1 for i in LIST: #有10頁 for j in i: #有25條數據 c = 2 for x in j: #有5組數據print(x)sheet.write(r, c, x)c += 1 r += 1

最后在保存一下

book.save(r’douban.xls’)

注意文件后綴要用xls,用xlsx會導致文件打不開

然后就大功告成了

打開文件,手動加入排名,等部分信息(這些也可以在程序里完成,我嫌麻煩,就沒寫,直接手動來的快)

Python爬蟲獲取豆瓣電影并寫入excel

前面的✓是我自己整的,用于記錄那些看過,那些沒看過

這也是我寫這個東西的最初的目的

完整代碼在下面,僅用于參考

# -*- coding: utf-8 -*-import requestsimport lxml.etree as etreeimport xlwtdef get_source(page): List = [] url = ’https://movie.douban.com/top250?start={}’.format(page) headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’} print(url) res = requests.get(url=url, headers=headers) print(res.status_code) html = etree.HTML(res.text) for i in range(1, 26): list = [] name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()'.format(i)) info = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()'.format(i)) score = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()'.format(i)) slogan = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()'.format(i)) try: list.append(name[0]) except: list.append(’----’) try: list.append(info[0].replace(’ ’, ’’).replace(’n’, ’’)) except: list.append(’----’) try: list.append(info[1].replace(’ ’, ’’).replace(’n’, ’’)) except: list.append(’----’) try: list.append(score[0]) except: list.append(’----’) try: list.append(slogan[0]) except: list.append(’----’) List.append(list) return Listn = 1LIST = []for i in range(0, 250, 25): print(’第{}頁’.format(n)) n += 1 List = get_source(i) LIST.append(List)def excel_write(LIST): book = xlwt.Workbook() sheet = book.add_sheet(u’sheetname’, cell_overwrite_ok=True) r = 1 for i in LIST: #有10頁 for j in i: #有25條數據 c = 2 for x in j: #有5組數據print(x)sheet.write(r, c, x)c += 1 r += 1 book.save(r’douban1.xls’) #保存代碼excel_write(LIST)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: 豆瓣 Python
相關文章:
成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久
成人深夜在线观看| 国产精品女主播在线观看| 久久久久一区二区三区四区| 国产一区999| 久久久国产精品一区二区三区| 亚洲欧洲精品天堂一级| 国内自拍视频一区二区三区| 精品国产青草久久久久福利| 国产精品亚洲人在线观看| 欧美日韩国产精品自在自线| 久久精品久久综合| 欧美日韩国产片| 看电视剧不卡顿的网站| 91久久线看在观草草青青 | 日韩国产精品久久久| 麻豆精品视频| 偷偷要91色婷婷| 久久人人精品| 欧美资源在线| 亚洲妇女屁股眼交7| 免费在线观看成人av| 午夜视频一区二区三区| 另类激情亚洲| 日韩精品一级中文字幕精品视频免费观看 | 日韩视频在线观看国产| 亚洲日本va午夜在线电影| 亚洲精品黄色| 亚洲午夜电影在线观看| 色婷婷久久综合| 国产在线麻豆精品观看| 欧美电影免费观看高清完整版在线 | 91麻豆自制传媒国产之光| 久久天天做天天爱综合色| 欧美福利影院| 亚洲欧洲制服丝袜| 欧美亚洲视频| 久久99热99| 日韩欧美亚洲一区二区| 91蝌蚪porny九色| 亚洲人午夜精品天堂一二香蕉| 亚洲精品影视| 日韩精品久久理论片| 欧美日韩国产a| 国产成人在线视频免费播放| 久久综合狠狠综合| 亚洲视频观看| 性久久久久久久久| 欧美性生交片4| 成人开心网精品视频| 国产精品视频免费| 免费在线国产精品| 狠狠狠色丁香婷婷综合久久五月| 91精品欧美久久久久久动漫| 91在线免费播放| 亚洲美腿欧美偷拍| 国产精品自拍毛片| 国产喷白浆一区二区三区| 亚洲精品欧洲精品| 七七婷婷婷婷精品国产| 日韩视频一区二区三区| 午夜欧美精品久久久久久久| 亚洲视频在线一区| 一本色道久久综合亚洲aⅴ蜜桃| 国产精品一二三四五| 久久精品亚洲一区二区三区浴池 | av资源站一区| 国产精品麻豆视频| 久久精品欧美| 岛国精品在线观看| 久久女同精品一区二区| 国产精品久久久亚洲一区| 久久99精品国产麻豆婷婷| 精品国产一区a| 国产精品一区在线播放| 久久66热re国产| 国产清纯白嫩初高生在线观看91| 久久久www| 97精品视频在线观看自产线路二| 一区二区三区欧美日| 午夜久久影院| 五月婷婷另类国产| 精品91自产拍在线观看一区| 中国女人久久久| 国产老肥熟一区二区三区| 中文字幕免费不卡在线| 91蝌蚪porny九色| 亚洲国产美女搞黄色| 日韩一区二区三免费高清| 在线播放日韩| 久久成人免费电影| 国产精品护士白丝一区av| 色嗨嗨av一区二区三区| 成人美女在线观看| 亚洲一区av在线| 精品人伦一区二区色婷婷| 国产精品免费在线| www.欧美.com| 香港成人在线视频| 国产视频一区二区在线观看| 欧美三级电影在线观看| 亚洲午夜精品久久| 国产一区二区三区免费看| 亚洲欧洲综合另类在线| 日韩女优av电影| 亚洲国产精品综合| 国产精品影视天天线| 一区二区在线观看视频在线观看| 日韩视频免费观看高清完整版 | 中文字幕人成不卡一区| 欧美日韩国产影片| 亚洲人成免费| 国产不卡一区视频| 亚洲福利视频三区| 国产日韩欧美亚洲| 欧美日韩免费视频| 制服诱惑一区二区| 欧美 日韩 国产一区二区在线视频| 麻豆91免费观看| 亚洲欧美一区二区三区孕妇| 日韩欧美中文字幕一区| 久久精品天堂| 在线日韩中文| 91日韩在线专区| 国产成人综合视频| 美女视频网站黄色亚洲| 亚洲精品videosex极品| 欧美国产一区二区在线观看| 欧美日韩视频专区在线播放| 亚洲美女一区| 欧美日本免费| 成人在线视频一区| 精品亚洲国产成人av制服丝袜| 亚洲一二三四区不卡| 国产精品毛片久久久久久久| 在线不卡a资源高清| 久久久夜精品| 国产日产精品一区二区三区四区的观看方式| 99久久精品99国产精品| 久久国产综合精品| 久久久久亚洲综合| 日韩欧美在线123| 欧美日韩www| 免费永久网站黄欧美| 一本色道久久综合一区| 在线欧美视频| 亚洲午夜一区| 欧美天天在线| 91麻豆swag| 99天天综合性| 国产69精品一区二区亚洲孕妇| 久久精品国产网站| 免费看黄色91| 午夜精品一区在线观看| 亚洲精品亚洲人成人网| 中文字幕亚洲一区二区va在线| 国产午夜精品一区二区三区视频| 欧美一二三区精品| 欧美色图12p| 精品视频免费看| 日本二三区不卡| 色女孩综合影院| 性欧美videos另类喷潮| 最新国产乱人伦偷精品免费网站| 欧美激情性爽国产精品17p| 97精品久久久久中文字幕| 懂色av中文一区二区三区| 丁香亚洲综合激情啪啪综合| 国产精品香蕉一区二区三区| 精品一区二区三区香蕉蜜桃| 激情都市一区二区| 日韩激情一二三区| 日韩激情一区二区| 石原莉奈一区二区三区在线观看 | 91精品国产高清一区二区三区蜜臀| 欧美视频日韩视频在线观看| 色网综合在线观看| 久久婷婷亚洲| 在线精品视频免费观看| 欧美丝袜丝交足nylons图片| 欧美日韩亚洲综合一区二区三区 | 日韩欧美一级特黄在线播放| 欧美va在线播放| 精品国产99国产精品| 精品嫩草影院久久| 国产亚洲欧美日韩日本| 国产免费观看久久| 国产精品久久久久久久岛一牛影视| 中文字幕一区二| 日韩欧美一区二区不卡| 欧美mv日韩mv国产| 国产日本欧洲亚洲| 中文字幕亚洲一区二区va在线| 亚洲精品国久久99热| 亚洲成人中文在线| 日韩在线一区二区三区| 男人的j进女人的j一区| 麻豆中文一区二区| 丁香婷婷深情五月亚洲| 不卡的电影网站| 欧美精品一卡|