Podczas pracy z dużą ilością multimediów i dokumentów dość często gromadzi się na komputerze wiele kopii tego samego pliku. Nieuchronnie pojawia się zaśmiecona przestrzeń dyskowa wypełniona zbędnymi plikami, co powoduje okresowe sprawdzanie duplikatów plików w systemie.
W tym celu znajdziesz różne programy do identyfikowania i usuwania duplikatów plików. A fdupes jest jednym z takich programów dla Linuksa. Więc kontynuuj, gdy omawiamy fdupes i poprowadzimy Cię przez kroki, aby znaleźć i usunąć duplikaty plików w systemie Linux.
Co to jest fdupes?
Fdupes to oparty na CLI program do wyszukiwania i usuwania duplikatów plików w systemie Linux. Jest wydany na licencji MIT na GitHub .
W najprostszej postaci program działa, uruchamiając określony katalog przez sumę md5, aby porównać sygnatury MD5 swoich plików. Następnie przeprowadza na nich porównanie bajt po bajcie, aby zidentyfikować zduplikowane pliki i upewnić się, że żadne duplikaty nie zostały pominięte.
Gdy fdupes zidentyfikuje zduplikowane pliki, daje możliwość usunięcia ich lub zastąpienia ich twardymi linkami (linkami do oryginalnych plików). Tak więc, w zależności od Twoich wymagań, możesz odpowiednio przystąpić do operacji.
Jak zainstalować fdupes w systemie Linux?
Fdupes jest dostępny w większości głównych dystrybucji Linuksa, takich jak Ubuntu, Arch, Fedora itp. W oparciu o dystrybucję, którą używasz na swoim komputerze, wydaj poniższe polecenia.
W systemach opartych na Ubuntu lub Debianie:
sudo apt install fdupes
Aby zainstalować fdupes w Fedorze/CentOS i innych dystrybucjach opartych na RHEL:
sudo dnf install fdupes
W Arch Linux i Manjaro:
sudo pacman -S fdupes
Jak korzystać z fdupes?
Po zainstalowaniu programu na komputerze wykonaj poniższe czynności, aby znaleźć i usunąć duplikaty plików.
Znajdowanie zduplikowanych plików za pomocą fdupes
Najpierw zacznijmy od wyszukania wszystkich duplikatów plików w katalogu. Podstawowa składnia tego to:
fdupes path/to/directory
Na przykład, jeśli chcesz znaleźć zduplikowane pliki w katalogu Dokumenty , uruchom:
fdupes ~/Documents
Wyjście:
Jeśli fdupes znajdzie zduplikowane pliki w określonym katalogu, zwróci listę wszystkich nadmiarowych plików pogrupowanych według zestawu, a następnie możesz wykonać na nich dalsze operacje, jeśli to konieczne.
Jeśli jednak określony katalog składa się z podkatalogów, powyższe polecenie nie zidentyfikuje duplikatów w nich. W takich sytuacjach wystarczy przeprowadzić wyszukiwanie rekurencyjne, aby znaleźć wszystkie zduplikowane pliki znajdujące się w podkatalogach.
Aby przeprowadzić wyszukiwanie rekurencyjne w fdupes, użyj flagi -r :
fdupes -r path/to/directory
Na przykład:
fdupes -r ~/Documents
Wyjście:
Chociaż powyższe dwa polecenia mogą łatwo znaleźć zduplikowane pliki w określonym katalogu (i jego podkatalogach), ich dane wyjściowe zawierają również duplikaty plików o zerowej długości (lub puste).
Chociaż ta funkcja może się przydać, gdy w systemie jest zbyt wiele pustych zduplikowanych plików, może to wprowadzić zamieszanie, gdy chcesz znaleźć tylko niepuste duplikaty w katalogu.
Na szczęście fdupes pozwala wykluczyć pliki o zerowej długości z wyników wyszukiwania za pomocą opcji -n , której możesz używać w swoich poleceniach.
Uwaga: możesz wykluczyć niepuste zduplikowane pliki zarówno w wyszukiwaniu normalnym, jak i rekurencyjnym.
Aby wyszukać na komputerze tylko niepuste zduplikowane pliki:
fdupes -n ~/Documents
Wyjście:
Jeśli masz do czynienia z wieloma zestawami zduplikowanych plików, mądrze jest przesłać wyniki do pliku tekstowego do wykorzystania w przyszłości.
Aby to zrobić, uruchom:
fdupes path/to/directory > file_name.txt
...gdzie ścieżka/do/katalogu to katalog, w którym chcesz przeprowadzić wyszukiwanie.
Aby wyszukać zduplikowane pliki w katalogu Dokumenty, a następnie wysłać wynik do pliku:
fdupes /home/Documents > output.txt
Wreszcie, jeśli chcesz zobaczyć podsumowanie wszystkich informacji związanych z duplikatami plików w katalogu, możesz użyć flagi -m w swoich poleceniach:
fdupes -m path/to/directory
Aby uzyskać informacje o zduplikowanych plikach dla katalogu Dokumenty :
fdupes -m ~/Documents
Wyjście:
W dowolnym momencie podczas korzystania z fdupes, jeśli potrzebujesz pomocy z poleceniem lub funkcją, użyj opcji -h , aby uzyskać pomoc wiersza poleceń :
fdupes -h
Usuwanie zduplikowanych plików w systemie Linux za pomocą fdupes
Po zidentyfikowaniu zduplikowanych plików w katalogu możesz kontynuować usuwanie/usuwanie tych plików z systemu, aby uporządkować bałagan i zwolnić miejsce w pamięci.
Aby usunąć zduplikowany plik, określ flagę -d za pomocą polecenia i naciśnij Enter :
fdupes -d path/to/directory
Aby usunąć zduplikowane pliki w folderze Pobrane :
fdupes -d ~/Downloads
Fdupes przedstawi teraz listę wszystkich zduplikowanych plików w tym katalogu i da ci możliwość zachowania tych, które chcesz zachować na swoim komputerze.
Na przykład, jeśli chcesz zachować pierwszy plik w zestawie 1, wpisz 1 po danych wyjściowych wyszukiwania fdupes i naciśnij Enter .
Co więcej, w razie potrzeby można również zapisać wiele wystąpień plików w zestawie zwróconych duplikatów plików. W tym celu musisz wprowadzić liczby odpowiadające duplikatom plików na liście oddzielonej przecinkami i nacisnąć Enter .
Na przykład, jeśli chcesz zapisać pliki 1, 3 i 5, musisz wpisać:
1,3,5
Jeśli chcesz zachować pierwsze wystąpienie pliku w każdym zestawie zduplikowanych plików i chcesz zignorować monit, możesz to zrobić, dołączając przełącznik -N , jak pokazano w następującym poleceniu:
fdupes -d -N path/to/directory
Na przykład:
fdupes -d -N ~/Documents
Pomyślne usuwanie zduplikowanych plików w systemie Linux
Organizowanie plików jest samo w sobie żmudnym zadaniem. Dodaj do tego problemy, które powodują zduplikowane pliki, a masz kilka godzin czasu i wysiłku zmarnowanego na uporządkowanie swojej nieuporządkowanej pamięci masowej.
Ale dzięki narzędziom takim jak fdupes znacznie łatwiej i wydajniej jest identyfikować duplikaty plików i je usuwać. Powyższy przewodnik powinien pomóc ci w tych operacjach na twoim komputerze z systemem Linux.
Podobnie jak duplikaty plików, duplikaty słów i powtarzające się wiersze w pliku mogą być frustrujące i wymagają usunięcia zaawansowanych narzędzi. Jeśli napotkasz takie problemy, możesz użyć uniq, aby usunąć zduplikowane wiersze z pliku tekstowego.