自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Python中最快解壓zip文件的方法

開發(fā) 后端
挑戰(zhàn)在于這些 zip 文件太大了。它們的平均大小是 560MB 但是其中一些大于 1GB。這些文件中大多數(shù)是文本文件,但是其中同樣也有一些巨大的二進(jìn)制文件。不同尋常的是,每個 zip 文件包含 100 個文件但是其中 1-3 個文件卻占據(jù)了多達(dá) 95% 的 zip 文件大小。

[[220979]]

假設(shè)現(xiàn)在的上下文(LCTT 譯注:context,計算機術(shù)語,此處意為業(yè)務(wù)情景)是這樣的:一個 zip 文件被上傳到一個Web 服務(wù)中,然后 Python 需要解壓這個 zip 文件然后分析和處理其中的每個文件。這個特殊的應(yīng)用查看每個文件各自的名稱和大小,并和已經(jīng)上傳到 AWS S3 上的文件進(jìn)行比較,如果文件(和 AWS S3 上的相比)有所不同或者文件本身更新,那么就將它上傳到 AWS S3。

Uploads today

Uploads today

挑戰(zhàn)在于這些 zip 文件太大了。它們的平均大小是 560MB 但是其中一些大于 1GB。這些文件中大多數(shù)是文本文件,但是其中同樣也有一些巨大的二進(jìn)制文件。不同尋常的是,每個 zip 文件包含 100 個文件但是其中 1-3 個文件卻占據(jù)了多達(dá) 95% 的 zip 文件大小。

最開始我嘗試在內(nèi)存中解壓文件,并且每次只處理一個文件。在各種內(nèi)存爆炸和 EC2 耗盡內(nèi)存的情況下,這個方法壯烈失敗了。我覺得這個原因是這樣的。最開始你有 1GB 文件在內(nèi)存中,然后你現(xiàn)在解壓每個文件,在內(nèi)存中大約就要占用 2-3GB。所以,在很多次測試之后,解決方案是將這些 zip 文件復(fù)制到磁盤上(在臨時目錄 /tmp 中),然后遍歷這些文件。這次情況好多了但是我仍然注意到了整個解壓過程花費了巨量的時間。是否可能有方法優(yōu)化呢?

 

原始函數(shù)

首先是下面這些模擬對 zip 文件中文件實際操作的普通函數(shù):

  1. def _count_file(fn):
  2. with open(fn, 'rb') as f:
  3. return _count_file_object(f)
  4.  
  5. def _count_file_object(f):
  6. # Note that this iterates on 'f'.
  7. # You *could* do 'return len(f.read())'
  8. # which would be faster but potentially memory
  9. # inefficient and unrealistic in terms of this
  10. # benchmark experiment.
  11. total = 0
  12. for line in f:
  13. total += len(line)
  14. return total

這里是可能最簡單的另一個函數(shù):

  1. def f1(fn, dest):
  2. with open(fn, 'rb') as f:
  3. zf = zipfile.ZipFile(f)
  4. zf.extractall(dest)
  5.  
  6. total = 0
  7. for root, dirs, files in os.walk(dest):
  8. for file_ in files:
  9. fn = os.path.join(root, file_)
  10. total += _count_file(fn)
  11. return total

如果我更仔細(xì)地分析一下,我將會發(fā)現(xiàn)這個函數(shù)花費時間 40% 運行 extractall,60% 的時間在遍歷各個文件并讀取其長度。

 

***步嘗試

我的***步嘗試是使用線程。先創(chuàng)建一個 zipfile.ZipFile 的實例,展開其中的每個文件名,然后為每一個文件開始一個線程。每個線程都給它一個函數(shù)來做“實質(zhì)工作”(在這個基準(zhǔn)測試中,就是遍歷每個文件然后獲取它的名稱)。實際業(yè)務(wù)中的函數(shù)進(jìn)行的工作是復(fù)雜的 S3、Redis 和 PostgreSQL 操作,但是在我的基準(zhǔn)測試中我只需要制作一個可以找出文件長度的函數(shù)就好了。線程池函數(shù):

  1. def f2(fn, dest):
  2.  
  3. def unzip_member(zf, member, dest):
  4. zf.extract(member, dest)
  5. fn = os.path.join(dest, member.filename)
  6. return _count_file(fn)
  7.  
  8. with open(fn, 'rb') as f:
  9. zf = zipfile.ZipFile(f)
  10. futures = []
  11. with concurrent.futures.ThreadPoolExecutor() as executor:
  12. for member in zf.infolist():
  13. futures.append(
  14. executor.submit(
  15. unzip_member,
  16. zf,
  17. member,
  18. dest,
  19. )
  20. )
  21. total = 0
  22. for future in concurrent.futures.as_completed(futures):
  23. total += future.result()
  24. return total

結(jié)果:加速 ~10%

 

第二步嘗試

所以可能是 GIL(LCTT 譯注:Global Interpreter Lock,一種全局鎖,CPython 中的一個概念)阻礙了我。最自然的想法是嘗試使用多線程在多個 CPU 上分配工作。但是這樣做有缺點,那就是你不能傳遞一個非可 pickle 序列化的對象(LCTT 譯注:意為只有可 pickle 序列化的對象可以被傳遞),所以你只能發(fā)送文件名到之后的函數(shù)中:

  1. def unzip_member_f3(zip_filepath, filename, dest):
  2. with open(zip_filepath, 'rb') as f:
  3. zf = zipfile.ZipFile(f)
  4. zf.extract(filename, dest)
  5. fn = os.path.join(dest, filename)
  6. return _count_file(fn)
  7.  
  8.  
  9.  
  10. def f3(fn, dest):
  11. with open(fn, 'rb') as f:
  12. zf = zipfile.ZipFile(f)
  13. futures = []
  14. with concurrent.futures.ProcessPoolExecutor() as executor:
  15. for member in zf.infolist():
  16. futures.append(
  17. executor.submit(
  18. unzip_member_f3,
  19. fn,
  20. member.filename,
  21. dest,
  22. )
  23. )
  24. total = 0
  25. for future in concurrent.futures.as_completed(futures):
  26. total += future.result()
  27. return total

結(jié)果: 加速 ~300%

 

這是作弊

使用處理器池的問題是這樣需要存儲在磁盤上的原始 .zip 文件。所以為了在我的 web 服務(wù)器上使用這個解決方案,我首先得要將內(nèi)存中的 zip 文件保存到磁盤,然后調(diào)用這個函數(shù)。這樣做的代價我不是很清楚但是應(yīng)該不低。

好吧,再翻翻看又沒有損失??赡埽鈮哼^程加速到足以彌補這樣做的損失了吧。

但是一定記??!這個優(yōu)化取決于使用所有可用的 CPU。如果一些其它的 CPU 需要執(zhí)行在 gunicorn 中的其它事務(wù)呢?這時,這些其它進(jìn)程必須等待,直到有 CPU 可用。由于在這個服務(wù)器上有其他的事務(wù)正在進(jìn)行,我不是很確定我想要在進(jìn)程中接管所有其他 CPU。

 

結(jié)論

一步一步地做這個任務(wù)的這個過程感覺挺好的。你被限制在一個 CPU 上但是表現(xiàn)仍然特別好。同樣地,一定要看看在f1f2 兩段代碼之間的不同之處!利用 concurrent.futures 池類你可以獲取到允許使用的 CPU 的個數(shù),但是這樣做同樣給人感覺不是很好。如果你在虛擬環(huán)境中獲取的個數(shù)是錯的呢?或者可用的個數(shù)太低以致無法從負(fù)載分配獲取好處并且現(xiàn)在你僅僅是為了移動負(fù)載而支付營運開支呢?

我將會繼續(xù)使用 zipfile.ZipFile(file_buffer).extractall(temp_dir)。這個工作這樣做已經(jīng)足夠好了。

 

想試試手嗎?

我使用一個 c5.4xlarge EC2 服務(wù)器來進(jìn)行我的基準(zhǔn)測試。文件可以從此處下載:

  1. wget https://www.peterbe.com/unzip-in-parallel/hack.unzip-in-parallel.py
  2. wget https://www.peterbe.com/unzip-in-parallel/symbols-2017-11-27T14_15_30.zip

這里的 .zip 文件有 34MB。和在服務(wù)器上的相比已經(jīng)小了很多。

hack.unzip-in-parallel.py 文件里是一團(tuán)糟。它包含了大量可怕的修正和丑陋的代碼,但是這只是一個開始。 

責(zé)任編輯:龐桂玉 來源: Linux中國
相關(guān)推薦

2015-04-08 15:40:53

php在線解壓解壓zip文件

2021-05-08 00:00:27

JavaScript ZIP文件

2021-12-10 15:22:26

Go Zip 文件

2019-10-17 17:15:01

Linux解壓文件命令

2011-08-15 14:07:53

Objective-C解壓縮ZIP文件

2020-09-09 14:30:24

2011-12-30 11:14:41

Javazip

2012-05-10 09:43:28

2020-12-21 16:00:07

Pythonzip文件密碼

2012-12-26 09:31:44

C#Winform

2024-06-20 08:09:24

2013-06-13 09:12:07

LinuxLinux技巧海量文件

2011-04-06 16:05:29

SQL Server數(shù)據(jù)導(dǎo)入

2009-03-22 19:19:15

多核多核服務(wù)器多核歷史

2025-02-21 10:46:16

JSForEachAPI

2018-07-05 11:05:10

2023-12-21 07:30:36

PythonZipfileTarfile

2020-12-13 17:57:16

加密密碼Python

2022-06-21 15:00:01

Python語言循環(huán)方式

2019-08-23 08:54:32

LinuxMySQLBSD
點贊
收藏

51CTO技術(shù)棧公眾號