Scrapy框架教程:深度爬取并持久化保存图片

2023-06-0917:40:56云计算与物联网Comments747 views字数 1798阅读模式

一、新建一个Scrapy项目daimg文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

scrapy startproject daimg

二、进入该项目并创建爬虫文件daimgpc文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

cd daimg
scrapy genspider daimgpc www.xxx.com
Scrapy框架教程:深度爬取并持久化保存图片

三、修改配置文件settings.py文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

ROBOTSTXT_OBEY = False 
LOG_LEVEL = 'ERROR'
USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"

四、进入爬虫文件,编写代码文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

1、指定要爬取的网站文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

start_urls = ["http://www.XXXX.com/photo/world/"]

2、解析该页面获取,获取详情页网址和图片名称文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

列表= response.xpath('/html/body/div[5]/ul/li')
       for i in 列表:
           标题=i.xpath('./a/@title').extract_first()+'.jpg'
           详情页=i.xpath('./a/@href').extract_first()

3、爬取多页图片标题及详情页文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

start_urls = ["http://www.XXXX.com/photo/world/"]
    多页url模板='http://www.XXXX.com/photo/world/list_69_%d.html'
    
         if self.页码<4:
            新url=format(self.多页url模板%self.页码)
            self.页码+=1
            yield scrapy.Request(url=新url,callback=self.parse)

4、解析详情页,获取图片链接文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

yield scrapy.Request(url=详情页,callback=self.详情页解析)
    
    def 详情页解析(self,response):
        图片地址=response.xpath('/html/body/div[4]/div[1]/ul[2]/img/@src').extract_first()
        print(图片地址)

5、将图片地址和图片名称声明到items文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

图片名称 = scrapy.Field()
    图片地址 = scrapy.Field()

6、将DaimgTiem函数导入爬虫文件文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

from ..items import DaimgItem

7、将图片地址和图片名字保存到itme对象,并提交给管道处理文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

itme对象=DaimgItem()
           itme对象['图片名称']=标题
           yield scrapy.Request(url=详情页,callback=self.详情页解析,meta={'item':itme对象})




meta=response.meta
item=meta['item']
item['图片地址']=图片地址
yield item

8、管道文件编写文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

from scrapy.pipelines.images import ImagesPipeline
class DaimgPipeline(ImagesPipeline):
    def get_media_requests(self, item, info):
        请求地址=item['图片地址']
       yield scrapy.Request(url=请求地址,meta={'名称':item['图片名称']})
    def file_path(self, request, response=None, info=None, *, item=None):
        保存名称=request.meta['名称']
        return 保存名称
    def item_completed(self, results, item, info):
        return item

9、配置文件填写保存的文件夹文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

IMAGES_STORE='aiyou'

10、开启管道文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

ITEM_PIPELINES = {
   "daimg.pipelines.DaimgPipeline": 300,
}

五、运行爬虫文件文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

scrapy crawl daimgpc

六、运行结果文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

Scrapy框架教程:深度爬取并持久化保存图片

七、提高效率设置文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

1、线程数量,默认16文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

CONCURRENT_REQUESTS = 32

2、禁止cookies文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

COOKIES_ENABLED = False

3、禁止重试文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

RETRY_ENABLED = False

4、设置超时时间文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html

DOWNLOAD_TIMEOUT = 10
文章源自菜鸟学院-https://www.cainiaoxueyuan.com/yunda/46388.html
  • 本站内容整理自互联网,仅提供信息存储空间服务,以方便学习之用。如对文章、图片、字体等版权有疑问,请在下方留言,管理员看到后,将第一时间进行处理。
  • 转载请务必保留本文链接:https://www.cainiaoxueyuan.com/yunda/46388.html

Comment

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定