当前位置:首页>编程日记>正文

python爬虫实例-Python爬虫案例集合

urllib2

urllib2是Python中用来抓取网页的库,urllib2 是 Python2.7 自带的模块(不需要下载,导入即可使用)

在python2.x里面有urllib和urllib2;在python3.x里面就把urllib和urllib2合成一个urllib;urllib3是在python3.x了里面新增的第三方扩展。

urllib2 官方文档:https://docs.python.org/2/lib...

urllib2 源码:https://hg.python.org/cpython...

urllib2 在 python3.x 中被改为urllib.request

来先看一个简单的Demo,通过请求访问百度

import urllib.request

# 向指定的url地址发送请求,并返回服务器响应的类文件对象

response = urllib.request.urlopen("http://www.baidu.com/")

# 服务器返回的类文件对象支持Python文件对象的操作方法

# read()方法就是读取文件里的全部内容,返回字符串

html = response.read()

# 打印响应内容

print(html)

我们已经拿到百度的首页了,但是目前出现了第一个问题就是,当你使用urllib2去访问的时候,它的User-Agent是Python-urllib/3.6 (user-agent决定用户的浏览器)

python爬虫实例-Python爬虫案例集合 配图01

我们需要稍微伪装下,要不然第一步就会被反爬虫发现

#!/usr/bin/env python

# -*- coding:utf-8 -*-

# urllib2 的User-Agent: Python-urllib/2.7

# User-Agent 爬虫和反爬虫的第一步

ua_headers = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"

}

# 通过urllib.request.Request() 方法构造一个请求对象

request = urllib.request.Request("http://www.baidu.com/", headers = ua_headers)

# urllib.request.urlopen()参数即可以是字符串也可以是对象

response = urllib.request.urlopen(request)

# 返回 HTTP的响应码,成功返回200,4服务器页面出错,5服务器问题

print(response.getcode())

# 返回 返回实际数据的实际URL,防止重定向问题

print(response.geturl())

# 返回 服务器响应的HTTP报头

print(response.info())

#print(html)

爬取百度贴吧

在url后面直接拼接参数,这种请求方式为get请求

#!/usr/bin/python

#coding:utf-8

from urllib import request,parse

def loadPage(fullUrl,filename):

"""

作用:根据url发送请求,获取服务器响应文件

url: 需要爬取的url地址

filename : 处理的文件名

print('正在下载' + filename)

headers = {"User_Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36"}

# 构造请求对象

request1 = request.Request(fullUrl,headers = headers);

return request.urlopen(request1).read()

def wirtePage(html,filename):

作用:将html内容写入到本地

html:服务器相应的文件内容

print('正在保存' + filename)

#文件写入

with open(filename,'w') as f:

# 此时打印的html伪bytes格式的,f.write()参数需要字符串

f.write(html.decode(encoding='utf-8'))

print ('-' * 30)

def tiebaSpider(url,beginPage,endPage):

for page in range(beginPage,endPage+1):

pn = (page-1) * 50

filename = "第" + str(page) +'页.html'

fullUrl = url +'&pn='+str(pn)

# 发起请求

html = loadPage(fullUrl,filename)

# 写网页

wirtePage(html,filename)

if __name__ == '__main__':

kw = input('请输入爬去的贴吧名:')

beginPage = int(input('请输入起始页:'))

endPage = int(input('请输入结束页'))

url = 'http://tieba.baidu.com/f?'

key = parse.urlencode({"kw":kw})

fullUrl = url + key

tiebaSpider(fullUrl,beginPage,endPage)

通过POST请求到有道翻译

有些网站的查询传参不是直接在URL上面拼接而且通过post form data进行,这个时候传递就要模拟post请求

# 通过抓包的方式获取的url,并不是浏览器上显示的url

url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule"

# 完整的headers

headers = {

"Accept" : "application/json, text/javascript, */*; q=0.01",

"X-Requested-With" : "XMLHttpRequest",

"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",

"Content-Type" : "application/x-www-form-urlencoded; charset=UTF-8",

# 用户接口输入

key = input("请输入需要翻译的文字:")

# 发送到web服务器的表单数据

formdata = {

"from" : "AUTO",

"to" : "AUTO",

"smartresult" : "dict",

"client" : "fanyideskweb",

"type" : "AUTO",

"i" : key,

"doctype" : "json",

"keyfrom" : "fanyi.web",

"ue" : "UTF-8",

"version":"2.1",

"action" : "FY_BY_CLICKBUTTON",

"typoResult" : "false"

# 经过urlencode转码

data = parse.urlencode(formdata).encode('utf-8')

print(data)

# 如果Request()方法里的data参数有值,那么这个请求就是POST

# 如果没有,就是Get

request1 = request.Request(url, data = data, headers = headers)

print(request.urlopen(request1).read().decode('utf-8'))

抓取ajax豆瓣电影

有些时候页面上面是空的,内容通过ajax来加载,那么我们爬虫需要关注点就应该到数据源这个位置,ajax加载的页面,数据源一定是json,拿到json也就拿到了数据

python爬虫实例-Python爬虫案例集合 配图02

from urllib import request, parse

url = "https://movie.douban.com/j/chart/top_list?type=11&interval_id=100%3A90&action"

headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

"start":"0",

"limit":"20"


http://www.coolblog.cn/news/e4a44a33e9ecd064.html

相关文章:

  • asp多表查询并显示_SpringBoot系列(五):SpringBoot整合Mybatis实现多表关联查询
  • s7day2学习记录
  • 【求锤得锤的故事】Redis锁从面试连环炮聊到神仙打架。
  • 矿Spring入门Demo
  • 拼音怎么写_老师:不会写的字用圈代替,看到孩子试卷,网友:人才
  • Linux 实时流量监测(iptraf中文图解)
  • Win10 + Python + GPU版MXNet + VS2015 + RTools + R配置
  • 美颜
  • shell访问php文件夹,Shell获取某目录下所有文件夹的名称
  • 如何优雅的实现 Spring Boot 接口参数加密解密?
  • LeCun亲授的深度学习入门课:从飞行器的发明到卷积神经网络
  • Mac原生Terminal快速登录ssh
  • java受保护的数据与_Javascript类定义语法,私有成员、受保护成员、静态成员等介绍...
  • mysql commit 机制_1024MySQL事物提交机制
  • 支撑微博千亿调用的轻量级RPC框架:Motan
  • jquery 使用小技巧
  • 2019-9
  • 法拉利虚拟学院2010 服务器,法拉利虚拟学院2010
  • vscode pylint 错误_将实际未错误的py库添加到pylint白名单
  • 科学计算工具NumPy(3):ndarray的元素处理
  • 工程师在工作电脑存 64G 不雅文件,被公司开除后索赔 41 万,结果…
  • linux批量创建用户和密码
  • newinsets用法java_Java XYPlot.setInsets方法代碼示例
  • js常用阻止冒泡事件
  • 气泡图在开源监控工具中的应用效果
  • 各类型土地利用图例_划重点!国土空间总体规划——土地利用
  • php 启动服务器监听
  • dubbo简单示例
  • 【设计模式】 模式PK:策略模式VS状态模式
  • [iptables]Redhat 7.2下使用iptables实现NAT
  • Ubuntu13.10:[3]如何开启SSH SERVER服务
  • CSS小技巧——CSS滚动条美化
  • JS实现-页面数据无限加载
  • 阿里巴巴分布式服务框架 Dubbo
  • 最新DOS大全
  • Django View(视图系统)
  • 阿里大鱼.net core 发送短信
  • 程序员入错行怎么办?
  • 两张超级大表join优化
  • 第九天函数
  • Linux软件安装-----apache安装
  • HDU 5988 最小费用流
  • Sorenson Capital:值得投资的 5 种 AI 技术
  • 《看透springmvc源码分析与实践》读书笔记一
  • 正式开课!如何学习相机模型与标定?(单目+双目+鱼眼+深度相机)
  • Arm芯片的新革命在缓缓上演
  • nagios自写插件—check_file
  • python3 错误 Max retries exceeded with url 解决方法
  • 行为模式之Template Method模式
  • 通过Spark进行ALS离线和Stream实时推荐