@H_403_2@今天看了一篇文章觉得不错,大体上总结如下:
@H_403_2@
@H_403_2@说到伸缩性,我们一般都会想到存储的伸缩以及本身应用程序的伸缩,下面这篇文章讲解了对传统的关系数据的伸缩以及如何通过内存数据网格来进行应用程序的伸缩。
@H_403_2@首先对于传统的RDBMS的伸缩,大家比较熟悉主要有以下两种方式:
@H_403_2@Databasereplication:@H_403_2@这也是经典的Master/salve模式的实现,这种方式最大的优点就是通过增加savle来进行read操作的负责均衡,是一种对read的scaleout方式,但是同时这种方式也存在以下的缺点:
@H_403_2@1只是适合于read频繁的情况,Databasereplication方式通过多个replica来对read进行伸缩,但是对于write操作则不能进行scaleout.
@H_403_2@2性能问题,因为数据库操作是一种磁盘io操作
@H_403_2@3一致性(consistence),关于这个问题,如果深入讨论可以独立写一篇文章来进行讨论,这里简短的说一下,Master/savle中,如果采用异步复制,那么不同的节点的状态可能是不一致的,相反的如果采用同步方式,那么又会造成很大的延迟。
@H_403_2@4容量问题,复制(replication)技术要求每个节点保存完整的数据,这就带来了两个问题,第一个问题就是对于每个节点来说,数据还是会变得越来越多,这样查询的速度也会相应的变慢,第二个问题就是我们需要提供N+1倍的存储空间。
@H_403_2@5复杂性以及非标准化问题,大多数的数据库复制技术都是相对复杂的,同时不同的厂商所采用的方式也是不一样的,这样就会造成应用和存储的依赖性。
Datebasepartitioning:@H_403_2@这种方式也就是大家熟悉的数据库sharding技术,这种方式使得数据库中数据分布在多个节点上面,这样每个节点都存储一部分数据,这样的好处就是可以对read和writer操作都具有一定的scaleout,但是同样这种方式也存在以下的缺点:
@H_403_2@1要求应用程序的数据必须是能很容易切分的。
@H_403_2@3要求改变数据模型,很多的数据sharding技术都要求应用程序知道数据在哪一个partition上面。
@H_403_2@5静态性,在许多的数据库实现中,当增加Partition的时候,都要求重新的划分partition.相反的目前流行的key-value存储系统通过consistenthashing解决了这个问题。
@H_403_2@6复杂性
@H_403_2@7非标准的
@H_403_2@前面是针对传统的数据库对scalability的解决方案,下面作者指出了如何通过内存数据网格(In-memorydategrids)来进行应用程序的scaleout.
@H_403_2@
@H_403_2@ 在说IMDG之前,作者也指出了目前很多互联网公司采用的方式:通过内存缓存来scaleout应用程序,目前比较经典的做法就是在DB前端引入分布式的缓存系统(memcached,terracotta等),这样可以对大部分的读取操作进行非常有效的scaleout,但是此种方案还是没有解决对write操作的scaleout。
@H_403_2@下面就说说IMDG对scaleout的解决方案。
@H_403_2@作者指出了Paas的说法,说白了就是将对象和数据的持久化仅仅当做是一种服务而已,以下作者以问答的方式阐述了几个常见的问题。
@H_403_2@1Paas如何工作
@H_403_2@利用Paas,IMDG将会屏蔽到数据库,内存IMDG和底层数据库的同步操作由IMDG来完成,这种内存和数据库的同步可以通过异步的方式来进行。
@H_403_2@2Paas和RDBMS相比是如何提供性能的
@H_403_2@2.1Paas依赖内存来存储系统的状态,而内存操作和磁盘IO操作来比是非常快速的,同时也支持更大的并发访问。
@H_403_2@2.2因为是内存存储,所以数据访问通过内存引用或者指针,而不需要序列化的开销。
@H_403_2@2.3数据操作直接针对内存对象
@H_403_2@2.4减低了竞争条件,这种方式是将数据分配到多个内存节点上。
@H_403_2@2.5并行的聚合查询,这种方式非常类似Map-reduce并行计算模型,它是一种将计算移动到存储数据的节点进行并行计算的方式,这样将会更好的利用cpu和内存资源
@H_403_2@2.6避免了ORM,读取操作直接从内存进行,避免了ORM的开销,ORM只是在初始化的时候进行。
@H_403_2@3如果要同步数据库,那么此种解决方案不会受到数据性能的影响吗?
@H_403_2@不会,原因如下:
@H_403_2@3.1数据以批量的方式异步的同步到数据库。
@H_403_2@3.2更新操作是可以在多个Partition节点并行的进行
@H_403_2@3.3更新操作发生在和需要更新的数据在同一台物理机器上面,这样避免了网络开销.
@H_403_2@3.4我们不是为了高可用性的目的来使用RDBMS的,RDBMS是一个强一致性,低可用性的解决方案(CAP理论),采用IMDG所有的查询操作都是直接的内存操作,而只有update和insert操作才会触发数据库,并且这个时候会以partition的方式,也就是说write操作也是被scaleout的操作。
@H_403_2@3.5应用程序和数据库现在是松耦合的,这样更加方便进行优化
@H_403_2@4异步的同步IMDG和数据库是不是意味着当失败发生的时候,数据可能会丢失?
@H_403_2@IMDG会进行backup,当一个节点发生失败的时候,备份节点会接着进行,所以不会失败。
@H_403_2@5如果其中一个内存节点失败会发生什么问题?
@H_403_2@这个问题非常类似于hadoop的Namenode和datenode节点模型,熟悉hadoop的朋友应该能容易理解。
@H_403_2@6如果数据失败会发生什么问题?
@H_403_2@IMDG会保留一个记录所有更新和插入的日志,当数据库失败的时候,更新和插入操作还会继续,不会影响到系统终端用户,当底层数据库再次可用的时候,IMDG会根据日志来同步数据。
@H_403_2@7IMDG怎么处理事务完整性?
@H_403_2@大家都知道2PC事务是一种反伸缩性的实践,它使得所有的partition耦合在同一事务当中,目前比较好的做法就是将事务分为几个小的事务,每个小的事务都在单独的partition上面完成,这样即使存在部分partition失败,但是IMDG还是会保证整个系统处于一致性的状态。
@H_403_2@下面我发发牢骚。
@H_403_2@目前随着互联网的的快速发展,对于一些热门的应用会造成非常大的读写压力,尤其是目前社会化网络使得传统的RDBMS更加受到打击。
@H_403_2@说到伸缩性,我们一般都会想到应用程序本身的伸缩和存储的伸缩,应用的伸缩要求我们对应用程序进行合理的切分,按照功能,按照层的方式进行,而存储的伸缩,传统方式采用复制,sharding等方式,但是这种方式是有很多限制的,限制上面也说了。因此我们如何寻找一种能对read和write都具有scaleout的解决方案就成了目前一个难题。幸好,目前NOsql运动给我们带来了福音,通过分布式的key-value存储系统可以更好的对read和write操作进行scaleout.比如像Twitter这样的应用,它是一个读和写都很频繁的应用,采用传统的解决方案肯定是不行,因此需要一种新的解决方案,这就要求我们吸取NOsql运动的思想,Twitter每天的有100亿条数据写操作,因此这么频繁的write就需要通过consistenthashing根据用户的ID或者名称来进行均匀的切分,比如hash(userID)%node_number,这样又会造成一个问题,就是读取操作怎么办?因为通过切分,不同的用户被分配到了不同的虚拟节点上面,那么一个Twitter用户想要读取最新Tweet的时候就需要从多个节点进行读取,这个时候就需要利用map-reduce的思想,通过移动运算到存储数据的地方,最后在聚合所有的查询操作(在客户端进行reduce操作)。
@H_403_2@原文地址:Scaling with mysql
<!--EndFragment-->
原文链接:/nosql/204828.html