但是,我知道这太好了,不可能.在该驱动器上,100%的重复数据删除来自sql Server备份:
考虑到文件夹中存在20倍大小的数据库备份,这似乎是不现实的.举个例子:
它估计13.3GB的备份文件已经被重复为0字节.当然,当我对它进行测试恢复时,该文件实际上并不起作用.
为了增加对伤害的侮辱,该驱动器上还有另一个文件夹,其中有几乎TB的数据应该已经扣除了很多,但却没有.
Server 2012 R2重复数据删除是否有效?
通过重复数据删除,磁盘上的大小字段变得毫无意义.这些文件不再是通常的“文件”,而是重新分析点,不包含实际数据,而是重复数据删除引擎重建文件的元数据.
据我所知,由于每个卷的重复数据删除块存储空间无法节省每个文件,因此您只能节省每个卷.
http://msdn.microsoft.com/en-us/library/hh769303(v=vs.85).aspx
如果其他一些数据尚未被删除,也许您的重复数据删除作业尚未完成.它不是超快,默认情况下是时间限制的,可能会受资源限制,具体取决于您的硬件.从服务器管理器检查重复数据删
我已经在不同场景(SCCM DP,不同部署系统,通用文件服务器,用户主文件夹文件服务器等)的多个系统(Windows 2012 R2)上部署了重复数据删除大约一年.只要确保你完全打补丁,我记得自RTM以来,有几个补丁重复功能(包括累积更新和修补程序).
但是,存在一些问题,某些系统无法直接从本地系统中的优化文件读取数据(在某些情况下,IIS,SCCM).正如yagmoth555所建议的那样,您应该尝试使用Expand-DedupFile来优化它,或者只是制作文件的副本(目标文件将在下次优化运行之前未被优化)并重试.
http://blogs.technet.com/b/configmgrteam/archive/2014/02/18/configuration-manager-distribution-points-and-windows-server-2012-data-deduplication.aspx
https://kickthatcomputer.wordpress.com/2013/12/22/no-input-file-specified-windows-server-2012-dedupe-on-iis-with-php/