我们应该如何减轻领先的加密算法在不久的将来意外损坏的风险



我考虑过这个问题,想知道下面的答案是可行的还是完全荒谬的?

组织应始终将其数据存储在备份服务器上。备份服务器应该存在,以防数据发生任何问题。为了降低领先的加密算法在不久的将来意外损坏的风险,应该至少有两个备份服务器,它们使用不同的加密算法进行加密,这样,如果在加密算法中发现缺陷,可以立即关闭保存当前数据的服务器场,以保护信息。然后留下两个备份服务器场,其中一个作为主数据运行,第三个作为备份,同时构建第二个备份服务器形式。

大家有什么建议?

如果您正在考虑静态数据,这基本上意味着对称密钥加密。我怀疑,如果有一个根本性的突破或发现,少数顶级算法之间有足够的相似性,它可能会打破所有算法。

就我个人而言,我更害怕僵尸末日。

我想说,管理多个冗余、不同加密的备份系统的额外开销远远超过了所获得的好处。任何现代主流加密算法在不久的将来被"破坏"的可能性都非常低,任何这样的破坏都会产生巨大的影响和影响,以至于你的历史公司记录应该在优先名单上排名靠后。

例如,破解RSA需要开发快速、高效的量子计算,或者有人找到素数分解问题的新的快速解决方案。这两种发展都将从根本上改变计算行业和互联网的功能,超越RSA的损失。

如果你想让你的数据经得起未来考验,只需使用一个经过测试的现代算法和一个长密钥,并确保密钥的安全。数学有力地表明,在不久的将来,它们都不会被打破。

(最后一点需要注意的是,您提出的系统对任何一个算法的破坏仍然很弱。如果有人可以访问所有系统,他们只需解密最弱的一个就可以获得所有数据。您需要在服务器集群之间分发备份,每个集群使用不同的算法,每个集群最多有1/(#个集群)的备份数据。如上所述,这是一个疯狂的、不切实际的开销,你会大大增加你的钥匙的潜在暴露,让你更容易受到攻击。更不用说,即使你这样做,一些数据仍然会被暴露。)

继续@Zaph的想法,你做出了一个毫无根据的假设,即如果你的加密方案被泄露,你会和攻击者同时知道这一点。没有理由相信这种假设。假设相反,攻击者早在你之前就知道某个漏洞(这很常见),那么你的攻击面就增加了一倍,损害了你的安全。

因此,如果首次以某种公开方式发现漏洞,你可能会赢(除非攻击者早些时候已经窃取了你的数据,在这种情况下你会输)。如果它第一次被攻击者秘密发现,你就输了。如果这些事件的概率是未知的(我相信是这样),那么你不是在做风险管理,你只是在赌博。当被迫赌博时,总是在更简单的解决方案上赌博。

最新更新