scrapy框架爬取数据的步骤——管道保存数据
1.scrapy框架爬取数据的步骤
其中前三步我们上节课有提到,大家可以试着先操作一下。
第一步,新建文件夹
通过终端指令(scrapy+startproject+文件名),我们新建一个名为(house)的文件夹
第二步,新建爬虫文件
我们继续通过终端指令(scrapy+genspider+文件名+通用域名),我们新建一个名为(rent)的爬虫文件
第三步,修改爬虫代码
打开爬虫文件(rent.py),我们修改我们需要爬取的网址,并进行数据解析,解析方式与requests解析几乎一致,只是需要加一个extract方法以及join方法,如下,这样我们就获得了我们想要的数据信息。但是我们接下来要通过管道保存数据
第四步,管道保存数据
1)管道保存数据这一步稍微复杂一点,我们需要先将解析的数据,实例化给item,通过item再传给管道,因此,item尤为关键,首先打开文件夹(items.py),将我们上一步解析到的数据进行属性的设定,如下图:
2)然后解析数据(tt)实例化给item
3)进入文件(pipelines)进行如下设置,通过定义开始爬虫,新建一个“house.txt”文件夹,然后将item文件传给管道,再通过结束爬虫,关闭文件夹。
4)打开(setting)文件夹,设置user-agent的值,以及robot的值,以及管道这个参数(找到该参数将井号去掉即可)
第五步,运行代码
在终端输入,scrapy crawl +爬虫文件名,运行
THE END