如何定期将地理复制的Azure数据库(PAAS)数据下载到本地数据库中



我们在Azure SQL中有一个地理复制数据库(平台作为服务(。这是一种主/从类型的布置,因此仅读取地理复制数据库。

我们想定期从此Azure SQL数据库下载数据到具有相同架构的SQL Server数据库,而不会对性能产生太大影响(Azure数据库是应用程序使用的主数据库(。

我们最初查看了Azure SQL数据同步,希望从地理复制数据中读取数据并将其拉到本地,但需要创建触发器 跟踪表。我对此并不感到过于满意,因为不可能在仅阅读的从属数据库中运行此操作,因此必须在交易主数据库(影响应用程序性能(上进行设置,这又会重新使用。 - 在地理复制数据库上创建这些额外的数据同步工件。似乎杂乱无章的数据(我们有大量的表和数据,并且Azure PAAS数据库的大小限制(,我们还使用Redgate数据库生命周期管理管理,这可能会击中这些模式对象和跟踪表远离每次我们执行发行版时,它们不是由我们创建的,也不在我们的源控制中。

还有哪些其他可行的选项(另一个然后远离PAAS,在本地和云上进行群集的IaAS VM环境,并安装了SQL Server,安装了SQL Server等(。请记住,我们根据员工的资源是资源,这就是为什么PAA是我们数据库的理想场所。

我应该提到,我们希望本地数据库与Azure数据库"相对",但是数据本地可以最多可达一个小时的旧数据。

我的头顶,有些选择可能是SSIS软件包?或以某种方式定期下载数据库的BACPAC并每30分钟恢复本地级(但这是一个很大的数据库(。

请注意,此阶段只需要是单向的(Azure降至本地(。

您可以尝试使用Azure Data Factory,因为它允许您将数据附加到目标表上或在SQL Server用作SQL Server时使用自定义逻辑的存储过程,下沉"。您可以在这里了解更多。

Azure Data Factory允许您使用具有最后更新的时间戳或增量密钥的水印列后,在初始数据加载后增加加载数据(Delta(。三角洲加载解决方案在旧水印和新水印之间加载了更改的数据。您可以在本文中使用Azure Data Factory了解更多方法。

希望这会有所帮助。

最新更新