WZ_XJTU_JAVA_SPACE

while(true) {System.out.println("wz.xjtu");}

2010年2月24日

这篇文章是用英文写的,由于某种原因,这篇文章可以很直接的说是Anti-MongoDB一个和谐的DB(一)。写一的时候其实有很多问题,还是不很清楚的。所以有了以下的问题:

I has some questions about the nosql and the document database solutions because I just touch the nosql solutions these days,
I tried to understand and find the benefit of the NOSQL solutions (performance and scalability), but I cannot convince myself for the reasons, specially for the complex business related cases,
After read a lot of the articles and find the CAP, relational and Scalability are the three points for the NOSQL solutions,
CAP : only can pickup two of the three factors, and the NOSQL solutions pickup the AP, and use the eventually consistency to handle the consistency, now, let's check the RDBMS, if we have a lot of database servers, we also cannot have a good Consistency because of the performance issues, so we can choose the Master/Slave and asynchronize copy to handle the consistency (Similar with Eventually Consistency) which is similar with the NOSQL, so what is the benefit of the NOSQL (specify document database) from the CAP theory?
No-Relational object : the NOSQL is good at the no-relationship objects, for example, log. but log also can save to the RDBMS without relationship, so for the no-relationship objects, I think the mongo solution and the RDBMS solutions should be have the same performance and scalability. right?
Relational : in the mongodb.org there is a good example as following,

the address is embedded into the student which is reasonable and will make the performance better if we need load the address from the student in the UI, but the RDBMS also can do it for the 1-1 relationship, and the scores need ref to the another collection and which is also similar with the RDBMS and also need touch database two times when we load the course which also similar with RDBMS. so what is the benefit.
Partition and Sharding : RDBMS also provide the solutions (although need change some codes), and RDBMS also can handle them.

posted @ 2010-02-24 10:47 wz.xjtu 阅读(231) | 评论 (0)编辑 收藏

NOSQL数据库经过了风风火火的一年,各个解决方案做的一个比一个有个性,并且大部分都有了商业应用,总体来说自己创造出来并且可以进行自行优化的东东还是经得起历练的。

MongoDB在过去的一年中,变化非常之大,刚开始关注它的时候,它只是一个没有1.0版本的东东,但是现在已经加上太多太多的功能了,其中包括 MapReduce,Auto Sharding,等。

经过了比较深入的研究(还会继续研究),发现这个最像关系型数据库的数据确实做的很强大。有很多东西还是非常值得探讨的。我们先从以下方面进行研究关系型数据库和非关系型数据库的区别,以及为什么要在某种条件下摈弃关系型数据库。

1. 关系型数据库的产生就是为关系所生,如果一条条的都不是关系型的数据,需要进行关系型数据库吗? 答案很简单:不需要

经典应用:Log的存储 (存储到关系型数据库的话,耽误了我们可怜的不好扩张的数据库呀,如果存储在文件里面,那又不好进行管理,所以非关系型数据库是一个很好的解决方案)

2. 关系型数据库过多的强调了关系,关系型数据库的目标是把我们的数据库打造成一个第三范式遍布的数据结构(无传递函数依赖和部分函数依赖)。但是这种拆解变相的多了一次数据库操作,也就是一次IO,性能也就会下降了。 例子如下:当我们想打开一个帖子的时候,我们肯定还是想把下面的Comments都拿到的,如果我们直接能把Comments存在这个帖子之下就很容解决了吧。

3. 关系型数据库过的关注consistency,其实我们很多的系统中并不需要这么好的consistency,起码很多的Web2.0或者是普通的网站来说,只要把Support,维护,alert机制做好,不需要太多的consistency一样可以做出很好的系统。当然我们也可以通过一些机制实现 eventually consistency (没有很深入的研究过)。太多的consistency的关注必然导致最后的available不会做到很好。进而关系型数据库很难scaling out。为了scaling out read,我们只能去做partition,但是partition很难做呀,一半都会牵扯到很多代码的改动。这些代码的改动会严重影响项目的稳定性而且风险性很大。而为了scaling out write 只能去做master-slave的解决方案(async和sync每种都有自己的问题)。很多NOSQL都解决了这个问题,无论是auto- sharding(因为是key做主的东西,可以很好的拆分)还是replication。(这一块要进一步研究)

4. Schema问题。关系型数据的schema都是一定的,如果增加或减少一个column那可是一个大动呀。但是NOSQL却是能很容易的解决这个问题,因为他们就是key-value而已。

NOSQL的提出是一个思想的进步,是一种编程理念的进步,数据库只是一个存储的库而已,他不应该过多的关注于其他的business相关的东西。将来发展的前景是我们所有的business的逻辑都应该在Domain里面体现,我们不用关注下面到底存储到那里。

posted @ 2010-02-24 10:46 wz.xjtu 阅读(318) | 评论 (0)编辑 收藏

2010年1月18日

Key-Value存储

为了实现高性能和高可用性,我们只允许非常简单的键值数据存取。key和value可以是list和map的复杂类型,但美中不足的是只有以下的查询是有效的:

value = store.get(key)
store.put(key, value)
store.delete(key)

这可不是解决了所有的问题,其实做了许多的取舍:

缺点

没有复杂的查询过滤器

所有的联合查询必须在代码实现

没有外键的结构

没有触发器和视图

优点

只有高效的查询可用,性能是可想像的

容易分布到集群

不管怎样,面向服务常常不允许外键的结构,并且强制在代码中实现联合(因为和数据相关的key这个关系 在另一个服务中维护着)

使用关系型数据库你必须要有一个缓存层用来扩展读操作,不过这个缓存层很典型地强制你使用了key-value的存储系统

为了性能,最后不得不使用xml或者是其他不够正规的一砣文本

使逻辑和存储分离清晰(出于性能原因,SQL鼓励将商业逻辑和存储操作混在一起)

没有对象-关系数据的丢失匹配问题

数据模型的详细的讨论将在下面给出。

系统架构

代码中的每层实现了简单的put get和delete操作的接口。每一层都会负责一个方法,诸如tcp/ip网络通信、序列化、版本冲突解决、内部结点路由等等。例如路由层负责发起一个操作,比方说是Put,并且分发给N个存储并行执行复制,同是要捕获所有的失败。

图1

保持每一层独立意味着可以混合和匹配使用以满足运行中不同的需求。例如,我们可以增加一个压缩层,将字节值的压缩水平降低到序列化之下。同样,在将 数据路由到分区的时候我们可以做灵活的智能路由。硬件负载均衡的http客户端(用ruby写的)这项工作可以在客户端做(smart的客户端),也可以 在服务端做成傻瓜式的使用。要把网络层放在路由层的上面还是下面,我们需要做的是一件简单的事情。

图2

在上图中“Load Bal.”是指负载均衡的硬件或者是轮循软件负载均衡器,“Partition-aware routing”是存储的内部路由。从传延迟角度来看,越少的跳是件好事(因为,嗯,这样就跳得少了),从吞吐量的角度来说也是件好事(因为可预见的瓶颈 更少了),但是需要把路由信息放到栈顶(例如,客户端必须是java的而且还要使用我们的库)。最后,最右的图中,http-rpc发送到服务的请求被路 由到了包含正确数据的机器(如果有的话),因此,在一个单独的复制读的简单的情况下,机器必须能够直接从本地bdb线程内部获取数据。

这一灵活性使得高性能的配置成为可能。在存储中,磁盘的访问是一个独立的最大的性能冲击,第二个是网络的跳数。靠分区数据和尽可能缓存数据,可以避 免磁盘访问。网络跳数需要架构的灵活性来消除。请注意在上图中,我们可以用不同的配置文件来执行3跳2跳和1跳的远程服务。要获得非常高的性能,就必须路 由服务直接找到正确的服务器。

数据分区和复制

数据必须分区到一个集群的所有服务器上,使没有任何一台单一的服务器需要保存所有的数据集。即便数据可以在一个单独的磁盘上存下,磁盘访问小值数据 的时候是受寻找时候所控制,因此分区有改善缓存性能的作用,它依靠把热的数据集分成更小的块,能够(希望能够)整个地放到那个存有整个分区的服务器内存 里。这就意味着,在集群里的机器是不可以互换的,请求必须被路由到保存有所请求的数据的机器,而不只是随便地到某一台可用的机器上。

同样,因为负载过重或者是维护原因的停机,服务器经常会不可用。如果有S台机器并且每台机器一天有p的概率会独自挂掉,因此一天里一台机器丢失数据的概率为1 - (1 - p)s,显然,鉴于这一事实,我们不能将数据只保存在一台机器上,或者说,数据丢失的概率与群集中的数量成反比。

最简单的方式来完成这件事是,将数据分成S个分区(每个机器一个),并且在R台机器上面保存键为K的值的拷贝。用K这个键来关联R台机器的一种方法 是,设a=K%S,然后将这个值保存在机器a,a+1,a+2,…a+r。因此,对于任何的概率p,你都可以选择一个合适的复制因子R,来达到一个可接受 的够低的数据丢失的概率。

这个系统有个非常漂亮的特性,那就是任何人只要知道数据的key就可以计算到数据所处的位置,系统允许我们以peer-to-peer的方式做数据寻找,而不需要联系一个装有所有的key到服务器的映射信息的中央元数据服务器。

当从集群中添加、删除机器时(这样说是因为我们购买新的硬件或服务器临时关闭),上述方法会导致缺点。在这种情况下,d会被改变,数据会在机器之间迁移。假如d不变,那负载不会平均地从原来删除的或者是坏了的机器分布到集群中剩余的部分。

一致性哈希是一种避免这种问题的技术,我们用它来计算每个key在集群中所处的位置。使用这种技术,伏地魔有了这样的特性,当一台机器挂了的时候,负载可以平均地分布到集群中剩余的机器。同样,当增加一台机器给一个有S台机器的集群时,只有1/(S+1)的机器上的值需要迁移到新机器。

为了形象化一致性哈希方法,我们可以看到,用可能出现的整数哈希值,这样,环就从0开始,顺着环旋转到2^31-1。这个环被平均分成Q个分 区,Q>>S,这样S个机器中的每个,都能分到Q/S个分区。一个key用任何一种哈希算法映射到环上,然后我们顺时针看分区找到第一个唯一 的R节点,计算出一个负责这个key的R个所有机器的列表。下面这个图画出了ABCD四个机器的一个哈希环。箭头表示key映射到哈希环,结果给出当R为 3时对应的保存了那个key的值的所有机器的列表。

图3

数据格式化和查询

在关系数据库中的数据被分成二维表。在这里它的等价物是“存储”,如果数据不是必须成表,我们不使用字表结构(一个值可以包括列表,以及不需要考虑严格的关系型的映射)。每个key都有一个唯一的存储,并且每个key都最多只能有一个值。

查询

伏地魔系统支持哈希表的语义,因此一个单独的值可以一次进行修改,同时可以按照主键查询。因为可以通过主键来切分,这使得通过机器做分布式非常简单。

请注意,虽然我们不支持一对多的关系,但我们支持把列表做为值,这样也就完成了同样的事情,因此存储一个合理数量的有关联的值成为可能。这相当于一 个java.util.Map的值是一个java.util.List。在大多数情况下,这样不规范来做是一个巨大的性能改善,因为只需要一个单独的磁盘 寻址过程。但对于非常大的一个一对多关系(例如,而一个key映射到数千万的value),必须保存在机器上,再通过游标慢吞吞地过一遍,这样子是不实际 的。这(很少见),必须将他们分成子查询或以其他方式在应用层处理。

查询简单可能是一种优势,因为每个查询都有非常可预测的性能,很容易将服务的性能拆分成存储操作的数量份,它执行并迅速估计负载。相反,SQL查询 往往不透明,而且执行计划是数据依赖的,因此很难估计一条给定的SQL在实际负载下的数据中还能很好地执行(特别是对于一项新的功能,既没有数据也没有负 载的情况下)。

此外,有三个操作接口,使得在整个存储层之上的透明层成为可能,并且在单元测试中使用模拟存储,它的实现不过是一个HashMap的模拟。这样可使得单元测试在特殊的容器或者是环境之外,会更加实用。

数据模型和序列化

在伏地魔系统中,序列化是可插拔的,因此你可以使用一个弄好的序列化方法同时也可以简单也写自己的。在伏地魔系统的最底层,数据格式是只包括key 和value的字节数组。高层次的数据格式化是每个存储都设置的配置选项,处理字节到对象的转变时,依靠实现序列化类,所有格式的数据都可支持。这样做要 确保客户端的字节序列正确。

通过输入在存储上的配置文件,我们可以广泛地支持以下各种类型:

json–二进制,类型的JSON数据模型,支持列表,地图,日期,布尔值和各种精度数字。这是唯一的一种可以从字节<->对象和字符 串<->对象映射的序列化的类型。这就意味着,它可以和SQL相互作用(例如通过命令行客户端)。我们当前的产品设计中使用了一种有类型的、 压缩的、结构检查的类Json格式;但这并没有特殊的状态,对于其他的应用软件来说,其他的序列化机制可能会更好。

字符串–只保存原生的字条串类型。对xml数据块比较有用。

java序列化–我们的老朋友java序列化。当你保存许多的java对象之前,请确认了解java序列化所提供的兼容性保证。

protobuf–Protocol buffers是来自google的代码生成的序列化格式,这可能是条不错的道,如果你不需要命令行访问的话。

identity–这个类型有效地禁止了序列化,将返回给你确切的byte[]

字符串和identity的序列化都是相当的不言自明。Protocol Buffers最好的说明应该是google来说。因此本节的剩余部分讲述json背后的机制。

json序列化类型详解

可能会有三种状态的数据会驻留,我们希望能够在它们之间进行转换:

在内存中的数据结构,例如一个User对象;

持久性和网络传输的字节;

文本表示:DBA在检查特定的值和在线升级时不需要写新的代码是非常重要的。

SQL基本上就通过文本查询格式化来达到标准化,程序来处理这些字符串和程序所使用的内部数据结构的映射关系。这是传统的对象关系映射的问题。

对于存储来说,json是一个优秀的数据模型,因为它支持了所有编程语言中的数据类型(字符串,数字,列表/数组,以及对象/哈希表)。问题在于, 它是本质上是少结构的。对于任何存储问题最常见的情况,是有使用完全相同的格式保存的N行数据(包括有相同的列),在这种情况下,用json是一种浪费, 因为它每一行都带有数据的格式。同样,我们希望能够数据的表单声明,避免错拼了列保存了脏数据。为了避免这种情况,我们要给每个存储上的key和 value都分配一个结构,这个结构要能描述什么允许保存,以及怎么样转成字节和从字节转成数据。使用如下的类型,json本身就可以指定结构:

int8, int16, int32, int64, float32, float64,string, date, object, bytes, boolean, object, array
例如,如果我希望一个存储包含字符串,我指定那个表的类型为:
"string"
请注意,此类型的定义本身就是有效的JSON。
JAVA代码取到数据的时候就是字符串类型的。
如果我期望存储包含一个整数列表,例如,会员ID,我可以指定类型:
["int32"]
JAVA代码将会返回List<Integer>。
如果我期望存储包含一个简单的用户对象,可以定义的类型:
{"fname":"string", "lname":"string", "id":"int32", "emails":["string"]}
这里JAVA代码将返回 Map<String,Object> ,包含了每个给出的key,以及对应的值。
下面是所有允许的类型:
type storable substyles bytes used Java type example JSON example type definition
number int8, int16, int32, int64, float32, float64, date 8, 16, 32, 64, 32, 64, 32 Byte, Short, Integer, Long Float, Double, Date 1 “int32″
string string, bytes 2 + length of string or bytes String, byte[] “hello” “string”
boolean boolean 1 Boolean true “boolean”
object object 1 + size of contents Map<String,Object> {”key1″: 1, “key2″:”2″, “key3″:false} {”name”:”string”, “height”:”int16″}
array array size * sizeof(type) List<?> [1, 2, 3] ["int32"]

从这个意义上来说,类型定义是一套在标准json上的限制集,这样能使序列化高效执行(通过分段重复的字段,并且压缩数字),并且允许基础数据正确性检测。

请注意,即使一个值可能有不同的字段,但只支持依赖存储时定义的key来查询。

为了帮助结构的发展,这JSON实现了版本,允许数据的逐步迁移的结构。数据总是以最新的结构来写,但是,读的时候要可以用任何一种写的时候用的结构。这样做可以在结构迁移的时候不需要停下服务来取数据。

一致性和版本化

当多个同步的写到多个分布的机器(甚至是多个数据中心),数据的一致性成了一个难题。传统的解决这个问题是分布式事务,但这些都是缓慢(由于很多 跳)和脆弱的,因为他们要求所有服务器将可用于处理。如果应用程序运行在多个数据中心,而跨数据中心操作的延迟将会非常地高,特别地,任何一个算法要提及 大于百分之五十的机器都能保证一致性将会非常困难。

其他的解决办法是容忍不一致的可能性,并在读取时解决不一致。这就是这里所探讨的。

应用程序通常只读、修改、更新序列时,修改数据。例如,一个用户往他的账号里增加一个email,我们必须先搞到用户对象,增加email,然后把 新的值写回到db。数据库的事务是这个问题的解决方案,但当事务跨越多个页面的加载时(有可能加载完也可能没完,并且可能在指定的时间片里完成),这并不 是一个真正的选项。

当所有的update不存在时,给定的key的值是一致的,所有的读操作都将会返回一个相同的值。在只读世界中,数据被以一致性的方法创建并且永不 改变。当我们增加了写操作、复制,会遇到问题:现在我们需要更新在多个机器上的多份数据,并且要让所有的东东都保持一致。在机器故障面前,这样做很困难, 在网络分区的面前,这样做被证明是不可能的(例如分区的情况,A和B可以互通,C和D可以互通,但是A、B与C、D并不能互通 )。

下面有些方法,靠不同的保证和折衷性能来达到一致性:

两步提交–这是一个锁协议,包括在机器之间两轮的协作。它是完全一致的,但不能兼容出错,而且很慢。

Paxos式的共识–这是一个在一个值上达成共识的协议,能够更多地兼容出错。

读修复–前两种方法防止永久不一致。这种方法在写的时候写入所有的不一致版本,在读的时候检测所有的冲突并且解决问题。这不涉及协调工作,是完全兼容出错的,但可能需要额外的应用程序逻辑来解决冲突。

我们使用版本和读修复。这有一个最好的可用性保证,和最高的性能(N次复制只需要W次的网络往返写,W可以配置成小于N的值)。两步提交需要2N次的阻塞网络往返。Paxos变化有很大不同,但相比两步提交也差不多。

许多的细节,以下文件借自亚马逊

这里有一些很好的写关于这个问题的东东:

分布式系统中的版本

一个简单的版本控制系统只是乐观锁定–我们保存一个唯一的计数器或者是时钟值在每一片数据上,并且只允许更新数据的时候才能更新这个值。

在集中式的数据库中这运行良好,但在一个机器时好时坏、复制需要时间的分布式系统中,它就挂了。对于这种用法,一个单一的值不能保存足够的写入历史,以便我们丢弃老的版本。考虑下面的一系列指令:

#两个机器同时取一个相同的值
[client 1] get(1234) => {"name":"jay", "email":"jay.kreps@linkedin.com"}
[client 2] get(1234) => {"name":"jay", "email":"jay.kreps@linkedin.com"}

#1客户端作了一次对name的修改并且put了一下
[client 1] put(1234, {"name":"jay kreps", "email":"jay.kreps@linkedin.com"})
#2客户端作了一次对email的修改也put了一下
[client 2] put(1234, {"name":"jay", "email":"jay.kreps@yahoo.com"})

#现在我们有了以下的冲突版本
{"name":"jay", "email":"jay.kreps@linkedin.com"}
{"name":"jay kreps", "email":"jay.kreps@linkedin.com"}
{"name":"jay", "email":"jay.kreps@yahoo.com"}

在这个模型中,后面两次的写入使原值不再可用(因为是基于原值的修改)。尽管如此,我们没有规则来告诉服务器是要抛弃对name的修改,还是对email的修改。因此我们需要一个版本系统来允许我们检测重写和抛弃老版本内容,同时也要能检测冲突并且让客户去解决。

解决这个问题的一个答案是靠传说中的向量时钟版本。一个向量时钟在每次写机器的时候都保持一个计数器,在两个版本冲突和一个版本成功或者是比另一个新的时候,我们能计算它。

向量时钟是一个服务器和版本对的列表:

 [1:45,2:3,5:55]

从这个版本能够看出对那个写的数字来说这是一台主服务器。

对i来说v1继承自v2,v1i > v2i。如果 v1 > v2v1 < v2都不满足,那么v1和v2同现,也就是冲突了。下面是两个冲突的版本的例子:

	[1:2,2:1]
[1:1,2:2]

我们的版本结构定义了一个偏序,而简单的乐观锁是一个全序。

路由参数

任何持久存储的系统都需要回答的一个问题就是“我的东西存在哪里”。如果我们有一个集中的数据库,这是一个简单的问题,因为答案总是“它们在数据库 里的某个地方”。在一个键分离的系统中,可能在在多台机器有所需要的数据。当我们执行读操作的时候,我们至少需要从一台机器去取数据,当我们写的时候,我 们需要写到N个复制去。

因此,有三个参数的问题:

  • N - 复制的次数
  • R - 读数据的节点数
  • W -写成功的分区数

请注意,如果R + W > N能够保证我们“读我们所写”。如果w=0,那么写操 作是不阻塞的,写成功是没有保障的。取操作和删除操作既不是立即一致的,也不是孤立的。这意思是说:如果一个put/delete操作要成功,需要W个节 点都进行了同样的操作;然而,如果写失败了(这样说是因为极少数的节点能够马上完成操作),那状态就是不确定的了。如果一个put/delete操作成功 了,那最后这个值都会变成最终的值,但如果没有成功的这个值将会失效。如果客户端要确保这个状态,必须在一次写操作失败后再发起一次写操作。

持久层

持久存储我们默认使用JAVA版的BDB。MYSQL和内存存储也同样支持。要添加一个新的持久化实现,你需要实现put\get\delete,并且要提供一个本地存储的值的迭代程序。

批量计算数据支持

数据最密集的存储需求之一是在我们的系统批量计算关于成员和内容的数据。这份工作常常涉及到实体之间的关系(比如说有关系的用户、相关的新闻文章等),那这样N个实体就会增长出N2个 关系来。在LinkIn的一个实例是用户网络,如果要为所有用户准确保存会在12TB的范围。批量数据处理通常比随机访问更有效率,也就意味着批量处理的 数据可以被实际系统简单地访问。Hadoop极大地扩充了这一点。我们正在开源伏地魔的后端持久化的东东,它支持非常高效的只读访,还能解建立、发布以及 管理大量的、只读地指计算数据集等许多痛苦的事情。

处理批量计算的大多数痛苦来自于从数据仓库或者是hadoop传输数据到线上系统的“推送”的过程。在传统DB这意味着在线上机器重建新数据的索 引。做数以百万计的insert和update操作一般不会所有都很高效地执行,通常在一个sql数据库里数据需要被布到一个新的表中,当新表建立完毕, 再交换回来替换当前数据。比数百万计的单独的update操作来说这样做更好,但是,当同时服务于真实环境时,这仍然意味着线上系统现正为新的数据集(或 者是performa)兴建许多GB的索引。仅此一点可能需要数小时或数天,并可能会毁了实时查询的性能。有人想搞定这个问题,通过将数据库级别的 swap换出(比如说,有一个在线的DB和一个离线的DB,进行交换),但这要求做许多事并且意味着你将只有一半的硬件正在使用。伏地魔依靠尽可能的离线 重建自身的索引(在hadoop之上或者其他),然后简单地推送给线上机器并且透明地进行交换。

参考文献

posted @ 2010-01-18 22:45 wz.xjtu 阅读(327) | 评论 (0)编辑 收藏

2010年1月11日

  周末,由于项目需要,作为一个开发者,我决定研究一下自动化测试,因为最近,我们要统计User Story所带来的Defect的个数,所以Dev要在开始的时候就要准备自己在自己的开放环境上多测试几遍。

公司一直在用QTP测试,用VB去写脚本,额的神呀,那语言我玩不转,所以还是选择了Selenium,因为它提供了Java的driver,还是不错的。先装了一个Firefox插件,录制了一些脚本,拷贝到JUnit里面,竟然不可以运行。网上Google了很久没有找到好的方法,一方面是由于我们的这个frame写的不是怎么标准,另外一个方面估计是网络太慢了。所以我加上了一个waitForPageLoad,竟然神奇的可以通过了。不知道为什么,但是这样的脚本的东西,我也懒得去理解为什么。

  一直想怎么把东西做到超级的自动化,自动化达到在一个地方输入,另一个地方就可以验证了,最后决定,把输入数据写到Excel里面,中间的数据存储到数据库中(必须的,其实还是可以在Excel里面存着,不过懒得这样存,访问Excel不是俺的强项)。最后去根据这些中间的结果去验证最后的输出是不是正确。

  想法很好,开始做了,遇到了第一个问题,输出是简单的<tr><td>test</td></tr>, 怎么去验证这个test是不是正确呢? 去网上继续搜索,发现用xpath能解决这个问题,最后用以下的path解决了这个东东,如下(xpath=//div[@id='reponseFormHeader']/div/table/tbody/tr[1]/td[1]) 可以用一个firefox差价xpather去发现这个东东,并且写上去,也解决了给这些没有必要的text写上一个Identifier的问题 (QA一直强调要给这些Text都加上一个ID方便自动化测试)。

  最后选择把中间结果写在MongoDB里面,原因很简单,Schemaless和Map driven的DB,我仅仅需要把Map往里面一扔,后面的就不用管了。简单粗暴,但是又是很实用。 自动化测试不是很难,但是要用心去做,QA也不是很容易,很多东西,资料不多,写起来也很奇怪。

  最后说说敏捷软件开发,什么时候写自动化测试呢? 看网上有人说,QA测试中80%的要手工测试,我比较不同意,我认为80%都可以进行自动化测试。自动化测试是QA可以在很早就可以开始的,Mockup出来后就可以开始了。只要我们把自动化测试当成一回事去做,可以省去很多很多的effort,不失为一种敏捷的快捷之路。

posted @ 2010-01-11 00:02 wz.xjtu 阅读(266) | 评论 (0)编辑 收藏

2009年12月20日

最近在准备一个小的讨论会,题目可以自定,我感觉这个MongoDB还是蛮有意义的,值得讨论一下。做了一些slides,节选如下,

  1. What is NOSQL

    1. NOSQL != NO SQL

    2. NOSQL = Not Only SQL

  2. What do we want?

    1. Performance

    2. Scalability

    3. Flexibility

  3. Two important theories

    1. CAP (Every system only can match 2 of them, NoSQL supports to match A and P)

      1. Consistency

      2. Availability

      3. Tolerance to network Partitions

    2. ACID & BASE(Anti-ACID)

      1. ACID – RDBMS use this theory

      2. BASE – Anti-ACID and NoSQL use it.

  4. Compare with current RDBMS with NoSQL solutions

    1. RDBMS are working w/ relationship, and the relationship are not easy to extend (scalability)

    2. RDBMS software are implemented as a big system with additional function which make the database slow

    3. ACID can make the data perfect, but it does not care about the performance.

    4. Most of NoSQL solutions are schemaless

    5. Make the simple things simple (for example: log)

  5. Upcoming solutions of the software.

    1. NoSQL is nibbling up the SQL solutions.

    2. NoSQL + SQL = Data solution

  6. What is the issues we are meeting now?

    1. Performance

    2. Document generation (PDF/Email)

    3. Image solutions

  7. Compare with MySQL

    1. Performance is better

    2. Scalability is excellent

  8. MongoDB vs CouchDB

    1. Similar solutions.

    2. Performance of MongoDB is better than CouchDB

    3. MongoDB is better at web solutions.

  9. Three words about the MongoDB

    1. NOSQL –> RDBMS

    2. BSON

    3. GridFS

  10. How to use it?

    1. 1 Click install

    2. 2 clicks helloworld using java client

    3. types which mongo supports now

    4. Collection oriented database.

    5. index using with MongoDB

    6. GridFS for the big file

  11. Sharding with Mongodb

    1. How to shard?

    2. Scalability is excellent.

  12. Upcoming solutions for Mongodb

    1. ORM with MongoDB java client

    2. Performance tuning with java client

  13. What can Mongodb  do? cannot do?

    1. Document

    2. Image store

    3. Real-time Analysis

    4. Caching

  14. Upcoming simple desgin with Mongodb.

image

posted @ 2009-12-20 01:31 wz.xjtu 阅读(2563) | 评论 (0)编辑 收藏

2009年12月9日

这两日对Cache研究了一点,读了一些源代码,自己也写了点code,借此假期也算是休闲加学习了。

什么时候用Cache?

在系统中,如果要考虑系统的性能,我们最好都使用Cache,在各个层次上都用上Cache,这样的话可以尽最大程度的减少数据库的压力。估计现在的系统都在分层,vo,po,do(domain object);我们可以把这些东西能缓存的都缓存起来,当然要根据具体系统具体分析(Cache多长时间,Cache多少东西)。
Tip:公司的系统中,由于用一台数据库,数据库的压力一直都是一个很大的问题,timeout,too many connection,等问题应接不暇。

怎么用Cache?

估计每个公司都有自己的Cache framework,简单的就是几个类,麻烦的可以做个小的framework去包装已有的opensource的cache provider。很多opensource的cache provider(例如:oscahe,ehcache)都对性能进行了优化,所以肯定性能比Map好很多,但是肯定不能拿过来就用,那样的话每次调用的时候太过于麻烦,写很多的类,很多的方法。所以说包装是很重要的,建议包装成一个Bus一样的东西(CacheBus,叫做CacheManager比较好),这样的话就可以在各个层次都向上面写和读了。

Tip: Cache就是key value,我们只要能写好key-value怎么写都可以的。这样也让系统变得简单实用(更能体现OO)

Cache Provider

Oh,这方面太多东西了,oscache(貌似停止开发了),ehcache(被terracotta收购了,前途不错),treecache(jbosstreecache大而全),memecached(很火了很久),nosql相关的东西(couchdb,mongodb)。Oh...不能忘记Map

其实用什么都可以,关键是用好,一般的解决方案很简单,既然你要在系统中用Cache并且想风风火火的用一下,那就来个二级Cache,第一级用本地Cache(速度快,但是东西不能太多),第二级,用memcached (能存放大的东东,便宜)。第一级Cache上3分钟(自己要调试确定时间),自动收割到第二级Cache中。

什么在第一级Cache中永远存活? 小的,永远都要用的,例如用户信息,Site信息,一些template等。

特别强调一下nosql 这方面mongodb和couchdb做的很好,在document相关的东西,可以缓存到这里面,例如:系统要在半天后发一封邮件,这封邮件所有的数据现在内存中都有,比较大的东东。到时候再去太复杂,太浪费内存了。怎么办呢? 放在一级缓存肯定不合适,放在二级缓存,要存活半天呀,太浪费时间了,存在数据库里面,增加压力,也不是很好,NOSQL的mongodb和couchdb就可以解决这个问题,这个schemaless的数据库,可以让你轻松的存任何的东西(性能不错)。(自己要优化一下代码)


举例:

Annotation

@Documented
@java.lang.annotation.Target(value
={java.lang.annotation.ElementType.TYPE})
@java.lang.annotation.Retention(value
=java.lang.annotation.RetentionPolicy.RUNTIME)
public @interface CacheIt {
    
//Provide the cacheProvider which will be use to cache the object which is just used to replace the xml configuration.
    public String cacheProvider();
    
//Used to define how long the cache need to be provide
    public long cacheDuration();
    
//The level of the cache, define, level1, level2 (If there is level2 defination in the annotation, the cache will be kick to level2 after the timeout in the level1)
    public int cacheLevel();

}

一个VO的configuration

@CacheIt(cacheProvider="com.javaeye.wmwm.cache.impl.HashMapCacheProvider", cacheDuration=10000, cacheLevel=1)
public class TestVo {
    
    @Identifier
    
public String key;

    
public String test;

    
public String getKey() {
        
return key;
    }

    
public void setKey(String key) {
        
this.key = key;
    }

    
public String getTest() {
        
return test;
    }


之后写一个CacheManager

public class CommonCacheManager implements CacheManager {
    
/**
     * Cache the object into the cache.
     * <p> the provider is defined in the annotation in the related Vo/PO/DO
     * <p> the key is annotated by the <code>Identifier</code>.
     * 
@param object represents the input objects which needs to be cached.
     
*/
    
public void cache(Object object) {
        Cache cache 
= CachePool.getInstance().loadCache(object.getClass());
        Object key 
= new CacheKeyFinder().find(object);
        cache.put(key, object);
    }

    
public Object load(Class<?> clazz, Object key) {
        Cache cache 
= CachePool.getInstance().loadCache(clazz);
        
return cache.get(key);
    }
}






posted @ 2009-12-09 11:44 wz.xjtu 阅读(1922) | 评论 (6)编辑 收藏
仅列出标题  

导航

<2024年12月>
24252627282930
1234567
891011121314
15161718192021
22232425262728
2930311234

统计

常用链接

留言簿

随笔档案

搜索

最新评论

  • 1. re: Cache之我见
  • 评论内容较长,点击标题查看
  • --awp001
  • 2. re: Cache之我见
  • 评论内容较长,点击标题查看
  • --wz.xjtu
  • 3. re: Cache之我见
  • 在分布式环境里,多个用户共用一个Cache,从Cache中获取对象的时候,如何解决用户之间的争抢问题,锁定吗?
  • --awp001
  • 4. re: Cache之我见
  • 目前我的核心任务是实现一个对象池,减少垃圾收集,楼主能否提供一些建议?
  • --awp001
  • 5. re: Cache之我见
  • 我这几天正在研究在系统内引入缓存,楼主说的一级缓存 二级缓存 是一个很好的想法。
  • --awp001

阅读排行榜

评论排行榜