从url解析XML或者将信息保存在数据库中会更快吗



我对使用asp.net(C#)和SQL server 2008开发网站相对陌生(直到现在我都在使用php/mySQL)。我目前面临着一些选择,任何帮助我做出选择的建议都将不胜感激:

我有一个数据库(我们称之为DB_a),它在SQL server Express(2008)下运行。我不能修改它(但我可以使用它或进行复制(DB_C)。问题是这个数据库每天都在更新,所以有可能定期更新副本吗?

此外,我必须通过解析网络中的XML文件来获取一些信息。所以我想知道,每当有人请求需要这些信息的页面时,直接用C#解析它是否更快,或者定期(自动)解析一次并将数据保存在SQL表中(在DB_C中)是否更好/更快?但我不知道最后一种方法是否可行。

一种情况是这样的:网站只连接到DB_A,其他需要的信息将通过解析XML(从url)直接获得。

有人对此有什么建议吗?

对于第一部分,复制数据库并同步更改:

我建议实施复制解决方案,将数据从主数据库复制到您的副本。

请在此处查看Microsoft文章,以了解可供选择的可用复制方案的一些信息。

对于第二部分,解析XML数据:

这取决于数据本身;如果数据很大,需要大量的处理、业务验证。。等等,并且数据不需要立即更新,确保您不必每次请求都对其进行解析只需运行一个周期性解析器来处理发送给您的XML,这是一个与您的网站分离的作业,即:服务/批处理/。。。etc

否则(数据是敏感的),我认为您需要对每个请求进行解析。

但这一切都取决于您的网络应用的业务需求

最新更新