Synology-Forum.nl

Packages => Officiƫle Packages => Photo Station / Photos => Topic gestart door: krekel op 11 januari 2025, 09:39:00

Titel: Dubbele foto's in Synology Photo's
Bericht door: krekel op 11 januari 2025, 09:39:00
Is er een tool waarmee ik dubbele foto's automatisch kan verwijderen in Synology Photos?
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: Matr1x op 12 januari 2025, 21:09:48
Synology Photos heeft een instelling die dubbele foto's bij uploaden of verplaatsen kan herkennen en ze kan hernoemen of vervangen:

[attachimg=1]

Ik gebruik zelf een python script om foto's te ontdubbelen en te organiseren.

Je kunt ook het pakket Opslaganalyser gebruiken. Die kan dubbele bestanden (niet alleen foto's) vinden:

[attachimg=2]
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: jeene@langevoord.com op 19 januari 2025, 17:24:10
andere optie is Total Commander. voor mij een zalige tool met veel mogelijkheden dubbele bestanden, hernoemen van bestanden etc
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: Babylonia op 19 januari 2025, 18:51:44
Zeker. Dat Total Commander stamt nog uit lang vervlogen "oude" Windows versies.
Door de jaren heen aangepast naar huidige normen. Maar achterliggend eigenlijk nog steeds met veel "MDOS" structuur erin.
Kleine en compacte tool, maar functioneert nog steeds uitermate goed in dit soort basis bewerkingen.
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: Briolet op 20 januari 2025, 14:16:52
De Syno community heeft een aantal pakketten met tools. Bij de filetools zitten meerdere programmatjes om dubbele bestanden te vinden. o.a. Total Commander.
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: Matr1x op 26 januari 2025, 11:29:08
Hoe vindt Total Commander dubbele bestanden? Op basis van naam en grootte? Want met dubbele foto's gaat dat niet werken. Dan zou je een MD5 vergelijk moeten doen of zo.

Met Advanced Find dus, zie ook: https://ghisler.ch/board/viewtopic.php?t=42563
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: racefiets op 30 januari 2025, 15:54:01
TotalCommander is nog steeds mij go-to programma als ik folders aan het opruimen en organiseren ben.
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: Birdy op 30 januari 2025, 16:24:04
Ja, dat weten de meesten wel maar, het gaat nu meer om wat @Matr1x aanhaalde:
Hoe vindt Total Commander dubbele bestanden? Op basis van naam en grootte? Want met dubbele foto's gaat dat niet werken. Dan zou je een MD5 vergelijk moeten doen of zo.
Titel: Re: Dubbele foto's in Synology Photo's
Bericht door: Briolet op 31 januari 2025, 12:02:37
Met TC zou je zowel files op gelijke inhoud (= gelijke MD5) als op gelijke naam moeten kunnen zoeken.  En je wilt het eerste, en niet gelijke naam.

Overigens vergiste is me eerder. In de syno file tools zit geen TC maar Midnight Commander en die heeft niets voor gelijke files.  In dat pakket zit wel "jdupes" voor het behandelen van dubbele files.  Je kunt dubbele files zelfs omzetten in "hard links" zodat je effectief 1 file overhoud, maar er wel de fileverwijzingen blijven op de oorspronkelijke plaatsen.

$ jdupes --help
Usage: jdupes [options] FILES and/or DIRECTORIES...

Duplicate file sets will be printed by default unless a different action
option is specified (delete, summarize, link, dedupe, etc.)
 -@ --loud        output annoying low-level debug info while running
 -0 --print-null  output nulls instead of CR/LF (like 'find -print0')
 -1 --one-file-system do not match files on different filesystems/devices
 -A --no-hidden    exclude hidden files from consideration
 -B --dedupe      do a copy-on-write (reflink/clone) deduplication
 -C --chunk-size=# override I/O chunk size in KiB (min 4, max 262144)
 -d --delete      prompt user for files to preserve and delete all
                  others; important: under particular circumstances,
                  data may be lost when using this option together
                  with -s or --symlinks, or when specifying a
                  particular directory more than once; refer to the
                  documentation for additional information
 -e --error-on-dupe exit on any duplicate found with status code 255
 -f --omit-first  omit the first file in each set of matches
 -h --help        display this help message
 -H --hard-links  treat any linked files as duplicate files. Normally
                  linked files are treated as non-duplicates for safety
 -i --reverse      reverse (invert) the match sort order
 -I --isolate      files in the same specified directory won't match
 -j --json        produce JSON (machine-readable) output
 -l --link-soft    make relative symlinks for duplicates w/o prompting
 -L --link-hard    hard link all duplicate files without prompting
 -m --summarize    summarize dupe information
 -M --print-summarize print match sets and --summarize at the end
 -N --no-prompt    together with --delete, preserve the first file in
                  each set of duplicates and delete the rest without
                  prompting the user
 -o --order=BY    select sort order for output, linking and deleting; by
                  mtime (BY=time) or filename (BY=name, the default)
 -O --param-order  Parameter order is more important than selected -o sort
 -p --permissions don't consider files with different owner/group or
                  permission bits as duplicates
 -P --print=type  print extra info (partial, early, fullhash)
 -q --quiet        hide progress indicator
 -Q --quick        skip byte-for-byte confirmation for quick matching
                  WARNING: -Q can result in data loss! Be very careful!
 -r --recurse      for every directory, process its subdirectories too
 -R --recurse:    for each directory given after this option follow
                  subdirectories encountered within (note the ':' at
                  the end of the option, manpage for more details)
 -s --symlinks    follow symlinks
 -S --size        show size of duplicate files
 -t --no-change-check disable security check for file changes (aka TOCTTOU)
 -T --partial-only match based on partial hashes only. WARNING:
                  EXTREMELY DANGEROUS paired with destructive actions!
 -u --print-unique print only a list of unique (non-matched) files
 -U --no-trav-check disable double-traversal safety check (BE VERY CAREFUL)
                  This fixes a Google Drive File Stream recursion issue
 -v --version      display jdupes version and license information
 -X --ext-filter=x:y filter files based on specified criteria
                  Use '-X help' for detailed extfilter help
 -y --hash-db=file use a hash database text file to speed up repeat runs
                  Passing '-y .' will expand to  '-y jdupes_hashdb.txt'
 -z --zero-match  consider zero-length files to be duplicates
 -Z --soft-abort  If the user aborts (i.e. CTRL-C) act on matches so far
                  You can send SIGUSR1 to the program to toggle this