关于Python的优秀Requests模块,只是一个简短的,简单的。
我似乎无法在文档中找到变量'proxies'应包含的内容。当我发送一个带有标准“IP:PORT”值的字典时,它拒绝了它要求2个值。所以,我猜(因为这似乎没有在文档中说明)第一个值是ip而第二个是端口?
文档只提到这个:
proxies - (可选)字典映射协议到代理的URL。
所以我试过了......我该怎么办?
proxy = { ip: port}
在将它们放入dict之前,我应该将它们转换成某种类型吗?
r = requests.get(url,headers=headers,proxies=proxy)
proxies
的dict语法是{"protocol":"ip:port", ...}
。有了它,您可以使用http,https和ftp协议为请求指定不同(或相同)的代理:
http_proxy = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy = "ftp://10.10.1.10:3128"
proxyDict = {
"http" : http_proxy,
"https" : https_proxy,
"ftp" : ftp_proxy
}
r = requests.get(url, headers=headers, proxies=proxyDict)
参数:
method
- 新Request对象的方法。url
- 新Request对象的URL。 ...proxies
- (可选)字典映射协议到代理的URL。 ...
在linux上你也可以通过HTTP_PROXY
,HTTPS_PROXY
和FTP_PROXY
环境变量来做到这一点:
export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128
在Windows上:
set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128
谢谢,杰伊指出这个: 语法随请求2.0.0而变化。 您需要向网址添加架构:http://docs.python-requests.org/en/latest/user/advanced/#proxies
我发现urllib有一些非常好的代码来获取系统的代理设置,它们恰好以正确的形式直接使用。你可以这样使用:
import urllib
...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())
它工作得很好,urllib也知道如何获得Mac OS X和Windows设置。
你可以参考proxy documentation here。
如果需要使用代理,可以使用任何请求方法的proxies参数配置各个请求:
import requests
proxies = {
"http": "http://10.10.1.10:3128",
"https": "https://10.10.1.10:1080",
}
requests.get("http://example.org", proxies=proxies)
要在代理中使用HTTP Basic Auth,请使用http://user:[email protected]/语法:
proxies = {
"http": "http://user:[email protected]:3128/"
}
接受的答案对我来说是一个好的开始,但我不断收到以下错误:
AssertionError: Not supported proxy scheme None
修复此问题是在代理URL中指定http://:
http_proxy = "http://194.62.145.248:8080"
https_proxy = "https://194.62.145.248:8080"
ftp_proxy = "10.10.1.10:3128"
proxyDict = {
"http" : http_proxy,
"https" : https_proxy,
"ftp" : ftp_proxy
}
我会感兴趣的是为什么原版适用于某些人但不适合我。
编辑:我看到主答案现在更新,以反映这:)
这是我在python中的基本类,对于带有一些代理配置和秒表的请求模块!
import requests
import time
class BaseCheck():
def __init__(self, url):
self.http_proxy = "http://user:pw@proxy:8080"
self.https_proxy = "http://user:pw@proxy:8080"
self.ftp_proxy = "http://user:pw@proxy:8080"
self.proxyDict = {
"http" : self.http_proxy,
"https" : self.https_proxy,
"ftp" : self.ftp_proxy
}
self.url = url
def makearr(tsteps):
global stemps
global steps
stemps = {}
for step in tsteps:
stemps[step] = { 'start': 0, 'end': 0 }
steps = tsteps
makearr(['init','check'])
def starttime(typ = ""):
for stemp in stemps:
if typ == "":
stemps[stemp]['start'] = time.time()
else:
stemps[stemp][typ] = time.time()
starttime()
def __str__(self):
return str(self.url)
def getrequests(self):
g=requests.get(self.url,proxies=self.proxyDict)
print g.status_code
print g.content
print self.url
stemps['init']['end'] = time.time()
#print stemps['init']['end'] - stemps['init']['start']
x= stemps['init']['end'] - stemps['init']['start']
print x
test=BaseCheck(url='http://google.com')
test.getrequests()
如果你想持久化cookie和会话数据,你最好这样做:
import requests
proxies = {
'http': 'http://user:[email protected]:3128',
'https': 'https://user:[email protected]:3128',
}
# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies
# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')
这有点晚了,但这是一个包装类,它简化了抓取代理,然后进行http POST或GET:
将ProxyRequests
https://github.com/rootVIII/proxy_requests
我只是做了一个代理抓取器,也可以连接相同的抓取代理,没有任何输入在这里是:
#Import Modules
from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time
#Proxy Grab
options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:
column = column.text.split(" ")
print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")
os.system('clear')
os.system('cls')
#Proxy Connection
print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url, proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code