我在远程FTP服务器上有很多zip存档,它们的大小高达20TB。我只需要这些zip存档中的文件名,这样我就可以将它们插入我的Python脚本中。
有没有办法只获取文件名而不实际下载文件并在我的本地机器上提取它们?如果是这样,有人可以指引我到正确的图书馆/包裹吗?
您可以实现从FTP读取数据的类文件对象,而不是本地文件。并将其传递给ZipFile
constructor,而不是(本地)文件名。
一个简单的实现可以是:
from ftplib import FTP
from ssl import SSLSocket
class FtpFile:
def __init__(self, ftp, name):
self.ftp = ftp
self.name = name
self.size = ftp.size(name)
self.pos = 0
def seek(self, offset, whence):
if whence == 0:
self.pos = offset
if whence == 1:
self.pos += offset
if whence == 2:
self.pos = self.size + offset
def tell(self):
return self.pos
def read(self, size = None):
if size == None:
size = self.size - self.pos
data = B""
# based on FTP.retrbinary
# (but allows stopping after certain number of bytes read)
ftp.voidcmd('TYPE I')
cmd = "RETR {}".format(self.name)
conn = ftp.transfercmd(cmd, self.pos)
try:
while len(data) < size:
buf = conn.recv(min(size - len(data), 8192))
if not buf:
break
data += buf
# shutdown ssl layer (can be removed if not using TLS/SSL)
if SSLSocket is not None and isinstance(conn, SSLSocket):
conn.unwrap()
finally:
conn.close()
try:
ftp.voidresp()
except:
pass
self.pos += len(data)
return data
然后你可以使用它:
ftp = FTP(host, user, passwd)
ftp.cwd(path)
ftpfile = FtpFile(ftp, "archive.zip")
zip = zipfile.ZipFile(ftpfile)
print(zip.namelist())
上述实现相当简单且效率低下。它开始大量(至少三次)下载小块数据以检索包含文件的列表。它可以通过读取和缓存更大的块来优化。但它应该给你的想法。
特别是你可以利用你只会阅读一个列表的事实。该列表位于ZIP存档和。因此,您可以在开始时下载最后(大约)10 KB的数据。并且您将能够从该缓存中完成所有read
调用。
知道了,你实际上可以做一个小黑客。由于列表位于归档的末尾,因此您实际上只能下载归档的末尾。虽然下载的ZIP将被破坏,但仍然可以列出。这样,你就不需要FtpFile
类了。你可以even download the listing to memory(StringIO
)。
zipstring = StringIO()
name = "archive.zip"
size = ftp.size(name)
ftp.retrbinary("RETR " + name, zipstring.write, rest = size - 10*2024)
zip = zipfile.ZipFile(zipstring)
print(zip.namelist())
如果你得到BadZipfile
异常,因为10 KB太小而不能包含整个列表,你可以用更大的块重试代码。