重复数据删除技术在今天的备份领域已经非常普遍了,它被认为是理所当然的。然而在选择重复数据删除之前,有很多重要的事情需要考虑。 在过去的几年中,重复数据删除已经从一个“锦上添花”的功能变成了备份产品的一个必备清单项目。事实上,重复数据删除已经变得司空见惯,以至于出现了组织机构竟然没有意识到他们已经使用重复数据删除技术的情况。
鉴于重复数据删除司空见惯的时代已经来临,以下问题仍然是值得考虑的,那就是是否有正当的理由来避免使用重复数据删除技术。为了回答这个问题,我们有必要先来看看重复数据删除是如何工作的。 重复数据删除架构 关于重复数据删除,首先要了解的是它有许多不同的类型。重复数据删除能够在硬件层……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号

TechTarget
官方微博

TechTarget中国
重复数据删除技术在今天的备份领域已经非常普遍了,它被认为是理所当然的。然而在选择重复数据删除之前,有很多重要的事情需要考虑。
在过去的几年中,重复数据删除已经从一个“锦上添花”的功能变成了备份产品的一个必备清单项目。事实上,重复数据删除已经变得司空见惯,以至于出现了组织机构竟然没有意识到他们已经使用重复数据删除技术的情况。
鉴于重复数据删除司空见惯的时代已经来临,以下问题仍然是值得考虑的,那就是是否有正当的理由来避免使用重复数据删除技术。为了回答这个问题,我们有必要先来看看重复数据删除是如何工作的。
重复数据删除架构
关于重复数据删除,首先要了解的是它有许多不同的类型。重复数据删除能够在硬件层面或软件层面上来实现,或者两者结合实现。同样,重复数据删除可以在数据源端进行,在备份目标端进行或者两者兼而有之。
源端重复数据删除在数据传输链路较慢的应用场景中会有帮助。在源端进行重复数据删除的数据使得数据可以在传输之前被压缩,从而能够更快速地传输数据。
目标重复数据删除是在备份目标或远程存储设备上进行操作的。它的主要目的是降低存储成本。目标重复数据删除通过删除重复数据,使实际使用的存储空间远低于原本的使用情况。
有时候,源端和目标端重删需要同时使用。这一方法背后的想法是,正在传送至目标端的数据可以通过源端重复数据删除而减少。然而如果多个数据源同时存在,那么在这些数据源中间,可能会存在一定的冗余度。目标重复数据删除过程消除了所有的跨数据源的冗余,从而进一步的降低备份存储的成本。
同样需要了解的是重复数据删除可以在线处理或者后处理。在线重复数据删除是实时进行的。数据在传输或存储的过程中就会进行重删操作。后处理重复数据删除是在存储层面上实现的,它需要将数据以一种未压缩的形式进行初始的存储。后处理重复数据删除可以将重复数据删除进程推迟运行,从而在用户使用系统的高峰期不占用额外的系统资源。
重复数据删除潜在的缺点
多数情况下,重复数据删除并没有实际的缺点。一些已经干了数十年IT的管理员表示了对重复数据删除技术的反感,因为它让人想起了一种叫做交叉连接文件的常见文件格式。因此,他们质疑重复数据删除进程的可靠性。
一些组织不愿意使用重复数据删除的一个更重要的原因是,他们担心重删进程可能会在某些情况下对性能产生不良的影响。以源端重复数据删除为例。如果重删是在软件层面上进行的,则重删进程不但会消耗内存和CPU资源,同时也会导致额外的磁盘I/O消耗。
尽管重复数据删除造成的系统开销不可否认,但这种影响也可以忽略不计。假设你的硬件资源对于这些指定的工作负载(以及任何可能发生的负载峰值)能够很好支持,这会是一个很好的机会,硬件能够很好的处理重复数据删除进程而不会产生明显的性能降低。
此外,重复数据删除对性能的影响可能也是值得的。如果源端重复数据删除导致系统性能下降5%,但传送数据快了50倍,那这些性能影响相对于效率的提高是不是值得的?也许吧。如果5%的性能损失会导致系统变得明显迟缓,那么可能是服务器超载了。
有些组织避免使用重复数据删除的另一个原因是因为对于某些数据类型它可能是无效的。只有当数据中存在冗余数据,重复数据删除才能起到很好的效果。但是如果数据是非常独特的,或者是已经被压缩过的(如ZIP文件或流媒体文件),那么重复数据删除将不会发挥什么作用。
虽然一些组织不选择重复数据删除技术事出有因,但还是有更多组织抱着极大的兴趣去部署它。重复数据删除技术足够成熟,并且是稳定和可靠的。此外,重复数据删除技术可以减少存储成本,同时提升带宽使用效率。当然,要有效利用重复数据删除技术的关键是找到适合您特定需求的最佳方法。
翻译
相关推荐
-
【高层访谈】Commvault CEO谈GDPR准备工作、Ransomware、区块链
GDPR、勒索软件(ransomware)、区块链(blockchain),以及厂商的合并与拆分已经改变了数据保护市场。Commvault的首席执行官Bob Hammer分享了他的建议。
-
专家答疑:重复数据删除在云中是如何工作的?
重复数据删除过程减少了存储系统中的数据量,但云中的重复数据删除可能比客户对云提供者更有价值。
-
实现勒索软件恢复?离线备份来帮忙
随着勒索软件威胁的盛行,启动公司保护战略的一个方法是确保关键数据的备份与主存储断开连接。
-
GitLab删库300G事故敲响警钟:如何寻求专业的数据保护机制?
Gitlab一位操作员为解决一个恶意攻击的问题,误删除了主数据库的数据,最终导致300GB的文件只剩下4.5GB。这件事故为我们敲响警钟:如何寻求专业的数据保护机制?