在Python的历史上,存在多个问题(在最新版本中已修复),从文件句柄一次读取超过2-4 GB的数据(该问题的无法修复的版本也发生在32位版本的Python上,但它们根本缺乏)分配缓冲区的虚拟地址空间;与I / O不相关,但最常见的是处理大型文件。可用于散列的一种变通方法是以固定大小的块更新散列(无论如何,这是一个好主意,因为指望RAM大于文件大小是一个糟糕的主意)。最直接的方法是将代码更改为:
with open(file, 'rb') as f:
hasher = hashlib.sha256() # Make empty hasher to update piecemeal
while True:
block = f.read(64 * (1 << 20)) # Read 64 MB at a time; big, but not memory busting
if not block: # Reached EOF
break
hasher.update(block) # Update with new block
print('SHA256 of file is %s' % hasher.hexdigest()) # Finalize to compute digest
如果您喜欢,可以使用two-argiter
和一些functools
魔术“简化”循环,将整个while
循环替换为:
for block in iter(functools.partial(f.read, 64 * (1 << 20)), b''):
hasher.update(block)
在Python 3.8+上,使用walrus运算符,:=
它更简单,无需导入或不可读的代码:
while block := f.read(64 * (1 << 20)): # Assigns and tests result in conditional!
hasher.update(block)