python的requests模块是爬虫的基本模块,让我们看看怎么用!

参考:Python3 网络爬虫开发实战

介绍

Requests 模块是一个用于网络访问的模块。就像这个url:https://www.baidu.com,如果我们想获取这个url的网页源代码,requests模块可以帮我们实现,甚至可以帮我们获取到更多更多的信息。

URL介绍

URL 的一般语法格式为:

protocol :// hostname[:port] / path / [;parameters][?query]#fragment

举例

http://www.imailtone.com:80/WebApplication1/WebForm1.aspx?name=tom&;amp;age=20#resume

protocol一般代表 http/https/ftp 等

hostname 一般代表主机域名或IP地址

port 端口号,可省略。

path 路径 表示主机下的目录路径

param 向服务器传入参数

query代表查询字符串

fragment代表定位 #top代表移动到顶部

浏览器请求

get:向服务器请求数据

post:向服务器提交数据

导入

import requests

使用

import requests

# 有参数,可以无参数

params={

'key1':'value1',

'key2':'value2'

}

r=requests.get('http://baidu.com',params=params)

print(r.url)

# 结果如下

# http://baidu.com/?key2=value2&key1=value1

可以通过requests.get()传入url各部分组成,然后通过url方法获取最后的链接。

import requests

r = requests.get('https://www.baidu.com/')

print(type(r)) # r返回类型

print(r.status_code)# 返回状态200代表正常

print(type(r.text)) # 源代码类型

print(r.text) # 源代码

获取到了网页源代码

image

get请求

import requests

r = requests.get('http://httpbin.org/get')

print(r.text)

http://httpbin.org/get 如果判断是GET请求,就会返回Request信息

image

结果其实就是浏览器看到的

image

也可以模拟get请求,传入参数

import requests

data = {

'name': 'germey',

'age': 22

}

r = requests.get("http://httpbin.org/get", params=data)

print(r.text)

image

添加Headers

有时候也可以通过headers参数来传递头信息。

有些网站需要添加Headers才能正常请求。

比如知乎

import requests

r = requests.get("https://www.zhihu.com/explore")

print(r.text)

image

正常访问应该是可以的。

image

让我们添加头部

import requests

# 可在浏览器的network找得到

headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'

}

r = requests.get("https://www.zhihu.com/explore", headers=headers)

print(r.text)

image

得到源代码

POST请求

post请求就是模拟表单提交,把数据提交到服务器上

用requests实现post请求同样很简单

import requests

data = {'name': 'germey', 'age': '22'}

r = requests.post("http://httpbin.org/post", data=data)

print(r.text)

image

返回结果中的form部分就是提交的数据,就可以证明post请求成功

Response

发送requests请求后,自然就是response响应,上面的实例都是获取到了response内容。

我们可以通过很多方法或属性获取到其他的信息。

例如Headers,cookies,status code等

import requests

r = requests.get('https://www.bilibili.com/')

print(type(r.status_code), r.status_code)

print('\n')

print(type(r.headers), r.headers)

print('\n')

print(type(r.cookies), r.cookies)

print('\n')

print(type(r.url), r.url)

image

超时设置

有时网络不好,请求一个网站就会很慢或者无响应,会等待很久。为了防止服务器不能及时响应,我们可以设置一个响应时间。

即超过这个时间还没得到响应,那就报错

import requests

r = requests.get('https://www.taobao.com', timeout=1)

print(r.status_code)

## 结果

# 200

如果timeout=0.0001就会出错,如图。

image

代理设置

对于爬虫,就是需要频繁的请求,那就容易要输入验证码,甚至把你的IP封禁,这样就不能再访问这个网站了。这就是现在所谓的反爬机制。

为了防止这种情况发生,需要代理IP来解决这个问题。

import requests

# 代理IP

proxies = {

'http': 'http://10.10.1.10:3128',

'https': 'http://10.10.1.10:1080',

}

requests.get('https://www.taobao.com', proxies=proxies)

代理IP有免费的,收费的。但一般收费的才比较稳。

实例

下面我们要把知乎的搜索的热题都给爬取下来

image

首先前面讲过,访问这个网站需要headers

其次这个需要用正则表达式匹配。

让我们看看知乎今日最热模块的代码分析

image

# 知乎搜索遍历

import requests

import re

headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'

}

r=requests.get("https://www.zhihu.com/explore", headers=headers)

print(r.text)

pattern = re.compile('explore-feed.*?question_link.*?>(.*?)',re.S)

titles = re.findall(pattern,r.text)

print(titles)

看结果

['\n为什么faker没进总决赛没人骂,UZI拿了8强舆论一边倒?\n', '\n如何评价罗云熙在《快乐大本营》的表现?\n', '\n为什么有些人能够在受挫后百折不挠,有些人却会在即使前景还是很光明的情况下很快放弃?\n', '\n如何看待酒泉市男孩被七八只野狗咬伤,医院公布血腥图片引发争议事件?\n', '\n有哪些已经堕落了的公司,为什么?\n', '\n抛开粉丝滤镜,金泰亨现在的颜是否下滑?\n', '\n有什么影视剧让你觉得可惜?\n', '\n你们见过最逆天的女主设定是什么样的?\n', '\n如何看待华晨宇歌迷一致要求经纪人王桂红辞职事件?\n', '\n有哪些惊艳到你的句子?\n']

可以看出各标题都给爬取下来了。格式什么的都是浮云,我就懒得调了。

-not end-

python学习笔记

Logo

瓜分20万奖金 获得内推名额 丰厚实物奖励 易参与易上手

更多推荐