成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁技術文章
文章詳情頁

Django結合使用Scrapy爬取數據入庫的方法示例

瀏覽:62日期:2024-09-11 11:40:06

在django項目根目錄位置創建scrapy項目,django_12是django項目,ABCkg是scrapy爬蟲項目,app1是django的子應用

Django結合使用Scrapy爬取數據入庫的方法示例

2.在Scrapy的settings.py中加入以下代碼

import osimport syssys.path.append(os.path.dirname(os.path.abspath(’.’)))os.environ[’DJANGO_SETTINGS_MODULE’] = ’django_12.settings’ # 項目名.settingsimport djangodjango.setup()

3.編寫爬蟲,下面代碼以ABCkg為例,abckg.py

# -*- coding: utf-8 -*-import scrapyfrom ABCkg.items import AbckgItem class AbckgSpider(scrapy.Spider): name = ’abckg’ #爬蟲名稱 allowed_domains = [’www.abckg.com’] # 允許爬取的范圍 start_urls = [’http://www.abckg.com/’] # 第一次請求的地址 def parse(self, response): print(’返回內容:{}’.format(response)) ''' 解析函數 :param response: 響應內容 :return: ''' listtile = response.xpath(’//*[@id='container']/div/div/h2/a/text()’).extract() listurl = response.xpath(’//*[@id='container']/div/div/h2/a/@href’).extract() for index in range(len(listtile)): item = AbckgItem() item[’title’] = listtile[index] item[’url’] = listurl[index] yield scrapy.Request(url=listurl[index],callback=self.parse_content,method=’GET’,dont_filter=True,meta={’item’:item}) # 獲取下一頁 nextpage = response.xpath(’//*[@id='container']/div[1]/div[10]/a[last()]/@href’).extract_first() print(’即將請求:{}’.format(nextpage)) yield scrapy.Request(url=nextpage,callback=self.parse,method=’GET’,dont_filter=True) # 獲取詳情頁 def parse_content(self,response): item = response.meta[’item’] item[’content’] = response.xpath(’//*[@id='post-1192']/dd/p’).extract() print(’內容為:{}’.format(item)) yield item

4.scrapy中item.py 中引入django模型類

pip install scrapy-djangoitem

from app1 import modelsfrom scrapy_djangoitem import DjangoItemclass AbckgItem(DjangoItem): # define the fields for your item here like: # name = scrapy.Field() # 普通scrapy爬蟲寫法 # title = scrapy.Field() # url = scrapy.Field() # content = scrapy.Field() django_model = models.ABCkg # 注入django項目的固定寫法,必須起名為django_model =django中models.ABCkg表

5.pipelines.py中調用save()

import jsonfrom pymongo import MongoClient# 用于接收parse函數發過來的itemclass AbckgPipeline(object): # i = 0 def open_spider(self,spider): # print(’打開文件’) if spider.name == ’abckg’: self.f = open(’abckg.json’,mode=’w’) def process_item(self, item, spider): # # print(’ABC管道接收:{}’.format(item)) # if spider.name == ’abckg’: # self.f.write(json.dumps(dict(item),ensure_ascii=False)) # # elif spider.name == ’cctv’: # # img = requests.get(item[’img’]) # # if img != ’’: # # with open(’圖片%d.png’%self.i,mode=’wb’)as f: # # f.write(img.content) # # self.i += 1 item.save() return item # 將item傳給下一個管道執行 def close_spider(self,spider): # print(’關閉文件’) self.f.close()

6.在django中models.py中一個模型類,字段對應爬取到的數據,選擇適當的類型與長度

class ABCkg(models.Model): title = models.CharField(max_length=30,verbose_name=’標題’) url = models.CharField(max_length=100,verbose_name=’網址’) content = models.CharField(max_length=200,verbose_name=’內容’) class Meta: verbose_name_plural = ’爬蟲ABCkg’ def __str__(self): return self.title

7.通過命令啟動爬蟲:scrapy crawl 爬蟲名稱

8.django進入admin后臺即可看到爬取到的數據。

到此這篇關于Django結合使用Scrapy爬取數據入庫的方法示例的文章就介紹到這了,更多相關Django Scrapy爬取數據入庫內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Django
相關文章:
成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久
av成人动漫在线观看| 成人免费在线视频| 欧美精品一区二区三区久久久| 一区二区三区四区蜜桃| 91在线视频观看| 欧美日韩二区三区| 亚洲午夜电影在线观看| 好看的日韩av电影| 精品国产a毛片| 免费在线观看不卡| 国产精品一页| 日本韩国欧美一区二区三区| 国产精品麻豆99久久久久久| 99热在这里有精品免费| 欧美日产国产精品| 亚洲国产精品高清| 成+人+亚洲+综合天堂| 欧美色爱综合网| 日本亚洲电影天堂| 色婷婷精品久久二区二区蜜臂av| 夜夜精品浪潮av一区二区三区| 91麻豆免费看| 欧美r级在线观看| 激情综合色综合久久| 国产精品视频福利| 亚洲男同性恋视频| 黄色亚洲大片免费在线观看| 国产午夜精品一区二区三区嫩草 | 欧美国产一区在线| 丰满放荡岳乱妇91ww| 欧美日韩精品欧美日韩精品一| 亚洲一级二级在线| 国产精品视频免费观看| 亚洲女女做受ⅹxx高潮| 亚洲午夜视频| 亚洲品质自拍视频| 亚洲经典三级| 亚洲人成伊人成综合网小说| 国内不卡一区二区三区| 国产精品欧美一区二区三区| 欧美日韩岛国| 欧美激情中文不卡| 欧美精品97| 久久精品视频在线看| 波多野结衣一区二区三区| 欧美mv日韩mv国产| 激情综合网最新| 8v天堂国产在线一区二区| 国产精品影视在线观看| 91精品婷婷国产综合久久| 国产一区二区不卡| 这里只有精品99re| 国产成人av电影在线| 欧美成人aa大片| 亚洲欧洲日产国产综合网| 精品久久久久av影院| 久久99精品久久久| av成人黄色| 一区在线观看视频| 激情欧美一区二区三区| 欧美日韩国产大片| 秋霞电影一区二区| 欧美日韩国产天堂| 国产99精品视频| 精品捆绑美女sm三区| 成人sese在线| 国产日韩影视精品| 亚洲国产免费| 亚洲综合免费观看高清完整版在线| 一区二区三区精品视频在线观看 | 久久伊99综合婷婷久久伊| 欧美日韩在线不卡一区| 中文无字幕一区二区三区 | 欧美一区二区三区日韩视频| aaa欧美大片| 国产精品成人免费| 亚洲欧美不卡| 九九视频精品免费| 精品国产亚洲在线| 欧美一区免费视频| 亚洲精选在线视频| 激情久久综合| 午夜影院在线观看欧美| 欧美精品丝袜中出| 99久免费精品视频在线观看| 日韩伦理av电影| 久久久综合网| 国产一区二区美女诱惑| 欧美日韩在线三区| 99久久精品久久久久久清纯| 亚洲精品伦理在线| 国产农村妇女精品一二区| 欧美成人tv| 国产综合色精品一区二区三区| 欧美r级电影在线观看| 99视频精品在线| 亚洲综合视频在线| 在线视频国产一区| 国产黄色精品视频| 国产精品卡一卡二卡三| 欧美一区不卡| 亚洲制服丝袜av| 在线观看日韩一区| 国产成人亚洲综合a∨猫咪| 中文av字幕一区| 91黄色免费看| 91免费国产在线观看| 亚洲欧洲中文日韩久久av乱码| 久久另类ts人妖一区二区| 粉嫩嫩av羞羞动漫久久久| 国产精品夫妻自拍| 91成人免费网站| 欧美成人久久| 婷婷激情综合网| 久久亚洲精精品中文字幕早川悠里| 在线精品亚洲| 精品午夜久久福利影院| 久久夜色精品一区| 麻豆av福利av久久av| 国产福利视频一区二区三区| 亚洲视频在线观看一区| 欧美视频一二三区| 午夜激情一区| 久久精品国内一区二区三区| 欧美国产一区视频在线观看| 欧美性高清videossexo| 欧美午夜在线视频| 蜜桃av一区二区在线观看| 国产三级一区二区三区| 久久亚洲综合| 欧美日韩一区二区视频在线| 激情av综合网| 亚洲欧美偷拍三级| 日韩欧美在线123| 美女91精品| 欧美日韩岛国| 国产不卡视频一区二区三区| 亚洲一区自拍偷拍| 久久久久久久久久久久久久久99| 久久午夜av| 伊人成人在线视频| 国产成人精品网址| 午夜影院久久久| 中文av一区二区| 欧美日韩精品一区视频| 黑人一区二区三区四区五区| 男女男精品视频网| 精品国产亚洲在线| 老司机精品久久| av在线免费不卡| 毛片一区二区三区| 1000精品久久久久久久久| 在线区一区二视频| av电影在线观看完整版一区二区| 五月激情六月综合| 久久精品在线观看| 欧美性欧美巨大黑白大战| 亚洲二区视频| 久久精品国产网站| 亚洲免费在线看| 日韩一级片在线播放| 国产精品日韩一区二区| 成人动漫精品一区二区| 亚洲第四色夜色| 亚洲精品一区二区在线观看| 欧美色一级片| 国产乱妇无码大片在线观看| 亚洲一区国产视频| 国产欧美日韩视频在线观看| 欧美美女激情18p| 亚洲一区国产| 欧美精品一区二区三区在线看午夜 | 亚洲美女电影在线| 欧美mv日韩mv亚洲| 色国产精品一区在线观看| 亚洲精品一区二区三区av| 日韩专区在线视频| 最新国产の精品合集bt伙计| 久久综合久久综合久久| 欧美日本乱大交xxxxx| 久久久久国产精品一区三寸 | 99精品国产在热久久婷婷| 成人做爰69片免费看网站| 一区二区日韩电影| 国产精品午夜免费| 欧美一区二区视频免费观看| 久久激情一区| 亚洲国产欧美不卡在线观看| 成人av资源下载| 精品在线播放午夜| 日韩高清一区在线| 亚洲黄色av一区| 欧美国产精品一区二区| 91精品婷婷国产综合久久| 国产亚洲欧美另类一区二区三区| 午夜视频一区二区| 一区二区三区精品久久久| 国产精品久久看| 欧美xxxxxxxx| 67194成人在线观看|