常规负载均衡办法受阻
大家都知道,要解决网站大流量压力的问题,就是通过负载均衡的办法来解决,当然,篱笆网的工程师也想到了这一点。
于是,他们展开以下的行动:
一方面,篱笆网设立了两个机房数据中心:吴江机房、苏州双线机房。通过两个数据中心来分担数据访问压力,在两个机房之间,通过软件配置的DNS负载均衡来解决两者的工作协同问题。
另一方面,篱笆网为了加速网站的访问速度,采用了Cache技术。 篱笆网另外购买了多台服务器,并且通过Squid Cache这种开源技术,将这几台服务器配置成机房数据中心的Squid Cache服务器,从而加速网络访问速度。
当此方案实施后,起了一定的效果。但没过多久,网络访问速度依然很慢。这是什么原因呢?
据Array Networks市场总监陈凯介绍到:篱笆网之所以出现这样的问题,主要是因为一般的软件负载均衡并不能解决真正的大流量压力问题。
软DNS负载均衡无力
其中,DNS负载均衡由于是软件编写的DNS,无法保证网站机房的高可用性:由于DNS无法实现对IDC站点和应用内容的健康检查,所以当某个IDC的链路或IDC内的应用出现故障时,DNS软件无法得知IDC的状况,仍然会把用户请求发送到该IDC去,从而导致部分用户出现访问不到页面的状况。如此,篱笆网就无法真正实现吴江机房、苏州双线机房两个机房的广域网负载均衡。
Squid Cache服务器效果不佳
另外,当使用Squid服务器做Cache服务时,每台服务器缓存的内容都是一样的,这样就造成了缓存的浪费,不利于提高服务器的使用效率。如果能够根据用户的访问,在每台服务器上分别缓存不同的内容,则可缓存的内容数量就会大大增加,同时使用N+1或N+M的方式来进行容灾,会大大提高工作效率,同时也能较高提升业务应用的可靠性。