我正在对5亿个文件运行以下MD5检查,以检查是否重复。这些脚本永远无法运行,我想知道如何加快运行速度。我怎样才能加快速度?当哈希已经存在时,我可以使用try catch循环而不是contains引发错误吗?你们都会推荐什么?
$folder = Read-Host -Prompt 'Enter a folder path'
$hash = @{}
$lineCheck = 0
Get-ChildItem $folder -Recurse | where {! $_.PSIsContainer} | ForEach-Object {
$lineCheck++
Write-Host $lineCheck
$tempMD5 = (Get-FileHash -LiteralPath $_.FullName -Algorithm MD5).Hash;
if(! $hash.Contains($tempMD5)){
$hash.Add($tempMD5,$_.FullName)
}
else{
Remove-Item -literalPath $_.fullname;
}
}
我想您代码中最慢的部分是Get-FileHash
调用,因为其他所有事情都不是计算密集型的,也不是受您的硬件(磁盘IOPS)限制的。
您可以尝试通过调用本机工具来替换它,该本机工具具有更优化的MD5实现,看是否有帮助。
当哈希已经存在时,我可以使用try catch循环而不是包含来引发错误吗?
异常很慢,不建议将它们用于流控制:
虽然使用异常处理程序来捕获会干扰程序执行的错误和其他事件是一种好习惯,但将异常处理程序用作常规程序执行逻辑的一部分可能会很昂贵,应避免使用此方法
实现这些的人有一个明确的答案-克里斯·布鲁姆(Chris Brumme)。他写了一篇关于该主题的出色博客文章(警告-很长)(警告2-很好写,如果您是技术人员,则需要阅读到末尾,然后下班后要花点时间:) )
执行摘要:它们很慢。它们被实现为Win32 SEH异常,因此有些甚至会超过Ring 0 CPU边界!
如注释中所建议,如果与首先找到的文件长度匹配,则可以考虑开始对文件进行散列。这意味着您将不会为任何唯一的文件长度调用昂贵的哈希方法。 *注意:Write-Host
命令本身非常昂贵,因此,我将notWrite-Host $lineCheck
),但例如仅在找到匹配项时。$Folder = Read-Host -Prompt 'Enter a folder path'
$FilesBySize = @{}
$FilesByHash = @{}
Function MatchHash([String]$FullName) {
$Hash = (Get-FileHash -LiteralPath $FullName -Algorithm MD5).Hash
$Found = $FilesByHash.Contains($Hash)
If ($Found) {$Null = $FilesByHash[$Hash].Add($FullName)}
Else {$FilesByHash[$Hash] = [System.Collections.ArrayList]@($FullName)}
$Found
}
Get-ChildItem $Folder -Recurse | Where-Object -Not PSIsContainer | ForEach-Object {
$Files = $FilesBySize[$_.Length]
If ($Files) {
If ($Files.Count -eq 1) {$Null = MatchHash $Files[0]}
If ($Files.Count -ge 1) {If (MatchHash $_) {Write-Host 'Found match:' $_.FullName}}
$Null = $FilesBySize[$_.Length].Add($_.FullName)
} Else {
$FilesBySize[$_.Length] = [System.Collections.ArrayList]@($_.FullName)
}
}
显示找到的重复项:
ForEach($Hash in $FilesByHash.GetEnumerator()) {
If ($Hash.Value.Count -gt 1) {
Write-Host 'Hash:' $Hash.Name
ForEach ($File in $Hash.Value) {
Write-Host 'File:' $File
}
}
}