IPProxys代理池项目,提供代理ip。使用python2.7.x开发
详细使用方式,请看我的博客:
http://www.cnblogs.com/qiyeboy/p/5693128.html
我的微信公众号:
希望大家提供更多的代理网站,现在爬取的好用的代理ip还是太少。
同时感谢[super1-chen](https://github.com/super1-chen)对项目的贡献。
##项目依赖 ####ubuntu,debian下
安装sqlite数据库(一般系统内置): apt-get install sqlite3
安装requests库: pip install requests
安装chardet库: pip install chardet
安装lxml: apt-get install python-lxml
安装gevent库: pip install gevent ######(有时候使用的gevent版本过低会出现自动退出情况,请使用pip install gevent --upgrade更新)
####windows下 下载[sqlite](http://www.sqlite.org/download.html),路径添加到环境变量
安装requests库: pip install requests
安装chardet库: pip install chardet
安装lxml: pip install lxml或者下载[lxml windows版](https://pypi.python.org/pypi/lxml/)
安装gevent库: pip install gevent ######(有时候使用的gevent版本过低会出现自动退出情况,请使用pip install gevent --upgrade更新) ## 如何使用
将项目目录clone到当前文件夹
$ git clone
切换工程目录
$ cd IPProxys
运行脚本
python IPProxys.py
GET /
####参数
Name | Type | Description |
---|---|---|
types | int | 0: 高匿代理, 1 透明 |
protocol | int | 0: http, 1 https |
count | int | 数量 |
country | str | 国家 |
area | str | 地区 |
#####IPProxys默认端口为8000
#####如果是在本机上测试:
1.获取5个ip地址在中国的高匿代理:http://127.0.0.1:8000/?types=0&count=5&country=中国
2.响应为JSON格式,按照响应速度由高到低,返回数据:
[{"ip": "220.160.22.115", "port": 80}, {"ip": "183.129.151.130", "port": 80}, {"ip": "59.52.243.88", "port": 80}, {"ip": "112.228.35.24", "port": 8888}, {"ip": "106.75.176.4", "port": 80}]
import requests
import json
r = requests.get('http://127.0.0.1:8000/?types=0&count=5&country=中国')
ip_ports = json.loads(r.text)
print ip_ports
ip = ip_ports[0]['ip']
port = ip_ports[0]['port']
proxies={
'http':'http://%s:%s'%(ip,port),
'https':'http://%s:%s'%(ip,port)
}
r = requests.get('http://ip.chinaz.com/',proxies=proxies)
r.encoding='utf-8'
print r.text
1.添加对Python3.x的支持
2.可自主选择添加squid反向代理服务器,简化爬虫配置
3.重构HTTP API接口
4.增加更多代理网站和数据库适配
-----------------------------2016-11-24----------------------------
1.增加chardet识别网页编码
2.突破66ip.cn反爬限制
-----------------------------2016-10-27----------------------------
1.增加对代理的检测,测试是否能真正访问到网址,实现代理
2.添加通过正则表达式和加载插件解析网页的方式
3.又增加一个新的代理网站
-----------------------------2016-7-20----------------------------
1.修复bug ,将数据库进行压缩