对这种方法有什么看法?有没有人用过这个或类似的东西?
使用azure,您可以查看3件事.
>共享存储,可能会有一些与获取自己的专用存储相关的成本,我不确定配置,但Azure提供此功能.这将确保所有文件在写入后立即可供每个服务器使用.
> Azure DFS,DFS是一个基于Windows的目录同步工具,运行得相当好,也不确定成本,但配置可能会更容易一些. DFS确实异步工作,所以有一点延迟但不是很多.
>(我将解释如何做到这一点,然后再也不谈论它,因为这是一个可怕的想法并且会失败.)创建一个脚本,首先比较所有四个服务器上的数据然后复制差异数据.您需要将每个目录共享到运行脚本的一个服务器,设置权限,以便服务器可以读取和写入,然后排除故障,排除故障.
如果你的工作取决于这项工作,我们建议你远离选项3.
话虽如此,你并不想花钱,请按照以下步骤操作.
>查看名为“免费文件同步”的程序.免费版本有一些非常好的功能我相信有一个付费的版本但我不确定你得到的增强功能.我在很多我的开发环境中使用它时,试图实现类似于你想要做的事情,并且懒得设置DFS.
>只使一个服务器可写,这可以通过在每个服务器上配置一个URI来轻松完成,该URI说明如果创建文章转到ServerA,或者在web.config中重写URL,或者是wordpress是PHP使用的:
标题(‘位置:http://myhost.com/mypage.php‘);
每个都需要一点点编码和PHP,IIS知识.
>真正有趣的部分,ServerA是作者服务器(只有可写服务器),如何在没有负载均衡器的情况下将流量引导到ServerB,ServerC和ServerD进行读取?
简短的回答你不能,这不完全正确,我曾经有一个客户坚持不使用负载balencer他能够通过一系列powershell脚本将一个服务器的连接从一个服务器移动到另一个服务器的数量每个盒子上的工人进程或类似的东西.无论哪种方式都很难做,不值得提出时间和精力.
看看您是否无法在服务器上配置网络负载平衡,它将需要一个额外的IP,但它只需要一次DNS更改,并且可以分配流量以便在3台服务器上进行读取.
祝好运!