1.scrapy项目创建——python scrapy 爬取新浪财经财经新闻
近期需要爬取一些关于银行的新闻,通过尚硅谷老师的讲课进行学习,然后应用到东方财富网和新浪财经,现在以新浪财经为例,记录一下学习成果(有一说一,尚硅谷老师教的真不错(>ω<)喵)。此部分只讲操作,具体scrapy框架原理可以自行学习和了解。1.首先是scrapy的安装正常pip install scrapy就行,可能会遇到各种各样的报错,把错误复制到百度,一堆解决方案,这里就不赘述了。2
近期需要爬取一些关于银行的新闻,通过尚硅谷老师的讲课进行学习,然后应用到东方财富网和新浪财经,现在以新浪财经为例,记录一下学习成果(有一说一,尚硅谷老师教的真不错(>ω<)喵)。此部分只讲操作,具体scrapy框架原理可以自行学习和了解。
1.首先是scrapy的安装
正常pip install scrapy就行,可能会遇到各种各样的报错,把错误复制到百度,一堆解决方案,这里就不赘述了。
2.scrapy项目创建
我想在E:\PythonProject\Crawl_Eastmoney_news下面创建,其中Crawl_Eastmoney_news是一个python工程
在终端中进入到E:\PythonProject\Crawl_Eastmoney_news路径,
然后输入命令 scrapy stratproject sinanews
这里sinanews是我项目的名字,大家可以根据需要改成自己项目的名字
回车运行一下,可以发现此时Crawl_Eastmoney_news项目下多了一个目录,就是我们刚刚新建的sinanews,sinanews下会出现一个spider目录、一个items.py文件、一个middlewares.py、一个pipelines.py文件和一个settings.py文件
3.创建爬虫文件
(1)首先在终端进入到spiders目录下
(2)终端输入 scrapy genspider sina_news finance.sina.com.cn
注意到sina_news是爬虫名称,不能跟爬虫项目名称sinanews一样
(3)结果
spiders下面会产生一个爬虫文件
爬虫文件的内容如下:
4.对网站进行简单测试
(1)修改parse
(2)运行scrapy crawl sina_news可以看到打印内容
如果不想看到这么多日志内容,可以在settings.py文件中加入:LOG_LEVEL = 'WARNING’
查看网页内容,则用response.text
可以在控制台或者终端查看到网页源码
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)