Я знаю, что этот вопрос задавался раньше, и я видел некоторые ответы, но этот вопрос больше касается моего кода и лучшего способа выполнения этой задачи.
Я хочу просканировать каталог и посмотреть, есть ли в нем дубликаты (путем проверки хэшей MD5). Ниже приведен мой код:
import sys
import os
import hashlib
fileSliceLimitation = 5000000 #bytes
# if the file is big, slice trick to avoid to load the whole file into RAM
def getFileHashMD5(filename):
retval = 0;
filesize = os.path.getsize(filename)
if filesize > fileSliceLimitation:
with open(filename, 'rb') as fh:
m = hashlib.md5()
while True:
data = fh.read(8192)
if not data:
break
m.update(data)
retval = m.hexdigest()
else:
retval = hashlib.md5(open(filename, 'rb').read()).hexdigest()
return retval
searchdirpath = raw_input("Type directory you wish to search: ")
print ""
print ""
text_file = open('outPut.txt', 'w')
for dirname, dirnames, filenames in os.walk(searchdirpath):
# print path to all filenames.
for filename in filenames:
fullname = os.path.join(dirname, filename)
h_md5 = getFileHashMD5 (fullname)
print h_md5 + " " + fullname
text_file.write("\n" + h_md5 + " " + fullname)
# close txt file
text_file.close()
print "\n\n\nReading outPut:"
text_file = open('outPut.txt', 'r')
myListOfHashes = text_file.read()
if h_md5 in myListOfHashes:
print 'Match: ' + " " + fullname
Это дает мне следующий результат:
Please type in directory you wish to search using above syntax: /Users/bubble/Desktop/aF
033808bb457f622b05096c2f7699857v /Users/bubble/Desktop/aF/.DS_Store
409d8c1727960fddb7c8b915a76ebd35 /Users/bubble/Desktop/aF/script copy.py
409d8c1727960fddb7c8b915a76ebd25 /Users/bubble/Desktop/aF/script.py
e9289295caefef66eaf3a4dffc4fe11c /Users/bubble/Desktop/aF/simpsons.mov
Reading outPut:
Match: /Users/bubble/Desktop/aF/simpsons.mov
Моя идея была:
1) Сканировать каталог 2) Записать хэши MD5 + имя файла в текстовый файл 3) Открыть текстовый файл только для чтения 4) Сканировать каталог СНОВА и проверить текстовый файл...
Я вижу, что это не очень хороший способ сделать это И это не работает. «Сопоставление» просто распечатывает самый последний файл, который был обработан.
Как я могу заставить этот скрипт находить дубликаты? Может ли кто-нибудь сказать мне лучший/более простой способ выполнения этой задачи.
Большое спасибо за любую помощь. Извините, это длинный пост.