paulwong

#

Install Hadoop in the AWS cloud

  1. get the Whirr tar file
    wget http://www.eu.apache.org/dist/whirr/stable/whirr-0.8.2.tar.gz
  2. untar the Whirr tar file
    tar -vxf whirr-0.8.2.tar.gz
  3. create credentials file
    mkdir ~/.whirr
    cp conf/credentials.sample ~/.whirr/credentials
  4. add the following content to credentials file
    # Set cloud provider connection details
    PROVIDER=aws-ec2
    IDENTITY=<AWS Access Key ID>
    CREDENTIAL=<AWS Secret Access Key>
  5. generate a rsa key pair
    ssh-keygen -t rsa -P ''
  6. create a hadoop.properties file and add the following content
    whirr.cluster-name=whirrhadoopcluster
    whirr.instance-templates=1 hadoop-jobtracker+hadoop-namenode,2 hadoop-datanode+hadoop-tasktracker
    whirr.provider=aws-ec2
    whirr.private-key-file=${sys:user.home}/.ssh/id_rsa
    whirr.public-key-file=${sys:user.home}/.ssh/id_rsa.pub
    whirr.hadoop.version=1.0.2
    whirr.aws-ec2-spot-price=0.08
  7. launch hadoop
    bin/whirr launch-cluster --config hadoop.properties
  8. launch proxy
    cd ~/.whirr/whirrhadoopcluster/
    ./hadoop-proxy.sh
  9. add a rule to iptables
    0.0.0.0/0 50030
    0.0.0.0/0 50070
  10. check the web ui in the browser
    http://<aws-public-dns>:50030
  11. add to /etc/profile
    export HADOOP_CONF_DIR=~/.whirr/whirrhadoopcluster/
  12. check if the hadoop works
    hadoop fs -ls /

















posted @ 2013-09-08 13:45 paulwong 阅读(401) | 评论 (0)编辑 收藏

Redis与Memcached的区别(转)

 如果简单地比较Redis与Memcached的区别,大多数都会得到以下观点:
1 Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,hash等数据结构的存储。
2 Redis支持数据的备份,即master-slave模式的数据备份。
3 Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用。

在Redis中,并不是所有的数据都一直存储在内存中的。这是和Memcached相比一个最大的区别(我个人是这么认为的)。

Redis只会缓存所有的key的信息,如果Redis发现内存的使用量超过了某一个阀值,将触发swap的操作,Redis根据“swappability = age*log(size_in_memory)”计算出哪些key对应的value需要swap到磁盘。然后再将这些key对应的value持久化到磁盘中,同时在内存中清除。这种特性使得Redis可以保持超过其机器本身内存大小的数据。当然,机器本身的内存必须要能够保持所有的key,毕竟这些数据是不会进行swap操作的。

同时由于Redis将内存中的数据swap到磁盘中的时候,提供服务的主线程和进行swap操作的子线程会共享这部分内存,所以如果更新需要swap的数据,Redis将阻塞这个操作,直到子线程完成swap操作后才可以进行修改。

可以参考使用Redis特有内存模型前后的情况对比:

VM off: 300k keys, 4096 bytes values: 1.3G used
VM on: 300k keys, 4096 bytes values: 73M used
VM off: 1 million keys, 256 bytes values: 430.12M used
VM on: 1 million keys, 256 bytes values: 160.09M used
VM on: 1 million keys, values as large as you want, still: 160.09M used 

当从Redis中读取数据的时候,如果读取的key对应的value不在内存中,那么Redis就需要从swap文件中加载相应数据,然后再返回给请求方。这里就存在一个I/O线程池的问题。在默认的情况下,Redis会出现阻塞,即完成所有的swap文件加载后才会相应。这种策略在客户端的数量较小,进行批量操作的时候比较合适。但是如果将Redis应用在一个大型的网站应用程序中,这显然是无法满足大并发的情况的。所以Redis运行我们设置I/O线程池的大小,对需要从swap文件中加载相应数据的读取请求进行并发操作,减少阻塞的时间。

redis、memcache、mongoDB 对比
从以下几个维度,对redis、memcache、mongoDB 做了对比,欢迎拍砖

1、性能
都比较高,性能对我们来说应该都不是瓶颈
总体来讲,TPS方面redis和memcache差不多,要大于mongodb


2、操作的便利性
memcache数据结构单一
redis丰富一些,数据操作方面,redis更好一些,较少的网络IO次数
mongodb支持丰富的数据表达,索引,最类似关系型数据库,支持的查询语言非常丰富


3、内存空间的大小和数据量的大小
redis在2.0版本后增加了自己的VM特性,突破物理内存的限制;可以对key value设置过期时间(类似memcache)
memcache可以修改最大可用内存,采用LRU算法
mongoDB适合大数据量的存储,依赖操作系统VM做内存管理,吃内存也比较厉害,服务不要和别的服务在一起

4、可用性(单点问题)

对于单点问题,
redis,依赖客户端来实现分布式读写;主从复制时,每次从节点重新连接主节点都要依赖整个快照,无增量复制,因性能和效率问题,
所以单点问题比较复杂;不支持自动sharding,需要依赖程序设定一致hash 机制。
一种替代方案是,不用redis本身的复制机制,采用自己做主动复制(多份存储),或者改成增量复制的方式(需要自己实现),一致性问题和性能的权衡

Memcache本身没有数据冗余机制,也没必要;对于故障预防,采用依赖成熟的hash或者环状的算法,解决单点故障引起的抖动问题。

mongoDB支持master-slave,replicaset(内部采用paxos选举算法,自动故障恢复),auto sharding机制,对客户端屏蔽了故障转移和切分机制。


5、可靠性(持久化)

对于数据持久化和数据恢复,

redis支持(快照、AOF):依赖快照进行持久化,aof增强了可靠性的同时,对性能有所影响

memcache不支持,通常用在做缓存,提升性能;

MongoDB从1.8版本开始采用binlog方式支持持久化的可靠性


6、数据一致性(事务支持)

Memcache 在并发场景下,用cas保证一致性

redis事务支持比较弱,只能保证事务中的每个操作连续执行

mongoDB不支持事务


7、数据分析

mongoDB内置了数据分析的功能(mapreduce),其他不支持


8、应用场景
redis:数据量较小的更性能操作和运算上

memcache:用于在动态系统中减少数据库负载,提升性能;做缓存,提高性能(适合读多写少,对于数据量比较大,可以采用sharding)

MongoDB:主要解决海量数据的访问效率问题

posted @ 2013-09-06 11:12 paulwong 阅读(17841) | 评论 (0)编辑 收藏

MONGODB资源

R利剑NoSQL系列文章 之 MongoDB
http://cos.name/2013/04/nosql1-rmongodb/

MongoDB在盛大大数据量项目中的应用
http://www.infoq.com/cn/presentations/glj-mongodb-in-sdo


















posted @ 2013-09-01 13:25 paulwong 阅读(348) | 评论 (0)编辑 收藏

REDIS资源

R利剑NoSQL系列文章 之 MongoDB
http://cos.name/2013/04/nosql-r-redis/

REDIS书籍
http://abcfy2.gitbooks.io/redis-in-action-reading-notes/getting_to_know_redis/session1.html


















posted @ 2013-09-01 13:21 paulwong 阅读(355) | 评论 (0)编辑 收藏

HIVE资源

Hive是建立在Hadoop上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言,称为 HQL,它允许熟悉 SQL 的用户查询数据。同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。


Hive 没有专门的数据格式。 Hive 可以很好的工作在 Thrift 之上,控制分隔符,也允许用户指定数据格式


hive与关系数据库的区别:

数据存储不同:hive基于hadoop的HDFS,关系数据库则基于本地文件系统

计算模型不同:hive基于hadoop的mapreduce,关系数据库则基于索引的内存计算模型

应用场景不同:hive是OLAP数据仓库系统提供海量数据查询的,实时性很差;关系数据库是OLTP事务系统,为实时查询业务服务

扩展性不同:hive基于hadoop很容易通过分布式增加存储能力和计算能力,关系数据库水平扩展很难,要不断增加单机的性能


Hive安装及使用攻略
http://blog.fens.me/hadoop-hive-intro/


R利剑NoSQL系列文章 之 Hive
http://cos.name/2013/07/r-nosql-hive/








posted @ 2013-09-01 12:41 paulwong 阅读(407) | 评论 (0)编辑 收藏

分布式搜索资源

云端分布式搜索技术
http://www.searchtech.pro


ELASTICSEARCH中文社区
http://es-bbs.medcl.net/categories/%E6%9C%80%E6%96%B0%E5%8A%A8%E6%80%81


http://wangwei3.iteye.com/blog/1818599


Welcome to the Apache Nutch Wiki
https://wiki.apache.org/nutch/FrontPage


elasticsearch客户端大全
http://www.searchtech.pro/elasticsearch-clients


客户端
http://es-cn.medcl.net/guide/concepts/scaling-lucene/
https://github.com/aglover/elasticsearch_article/blob/master/src/main/java/com/b50/usat/load/MusicReviewSearch.java


 

posted @ 2013-08-31 15:52 paulwong 阅读(402) | 评论 (0)编辑 收藏

Install hadoop+hbase+nutch+elasticsearch

     摘要: This document is for Anyela Chavarro. Only these version of each framework work together Code highlighting produced by Actipro CodeHighlighter (freeware) http://www.CodeHighlighter.com/ -->H...  阅读全文

posted @ 2013-08-31 01:17 paulwong 阅读(6293) | 评论 (3)编辑 收藏

Implementation for CombineFileInputFormat Hadoop 0.20.205

运行MAPREDUCE JOB时,如果输入的文件比较小而多时,默认情况下会生成很多的MAP JOB,即一个文件一个MAP JOB,因此需要优化,使多个文件能合成一个MAP JOB的输入。

具体的原理是下述三步:

1.根据输入目录下的每个文件,如果其长度超过mapred.max.split.size,以block为单位分成多个split(一个split是一个map的输入),每个split的长度都大于mapred.max.split.size, 因为以block为单位, 因此也会大于blockSize, 此文件剩下的长度如果大于mapred.min.split.size.per.node, 则生成一个split, 否则先暂时保留.

2. 现在剩下的都是一些长度效短的碎片,把每个rack下碎片合并, 只要长度超过mapred.max.split.size就合并成一个split, 最后如果剩下的碎片比mapred.min.split.size.per.rack大, 就合并成一个split, 否则暂时保留.

3. 把不同rack下的碎片合并, 只要长度超过mapred.max.split.size就合并成一个split, 剩下的碎片无论长度, 合并成一个split.
举例: mapred.max.split.size=1000
mapred.min.split.size.per.node=300
mapred.min.split.size.per.rack=100
输入目录下五个文件,rack1下三个文件,长度为2050,1499,10, rack2下两个文件,长度为1010,80. 另外blockSize为500.
经过第一步, 生成五个split: 1000,1000,1000,499,1000. 剩下的碎片为rack1下:50,10; rack2下10:80
由于两个rack下的碎片和都不超过100, 所以经过第二步, split和碎片都没有变化.
第三步,合并四个碎片成一个split, 长度为150.

如果要减少map数量, 可以调大mapred.max.split.size, 否则调小即可.

其特点是: 一个块至多作为一个map的输入,一个文件可能有多个块,一个文件可能因为块多分给做为不同map的输入, 一个map可能处理多个块,可能处理多个文件。

注:CombineFileInputFormat是一个抽象类,需要编写一个继承类。


import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileSplit;
import org.apache.hadoop.mapred.InputSplit;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.LineRecordReader;
import org.apache.hadoop.mapred.RecordReader;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.lib.CombineFileInputFormat;
import org.apache.hadoop.mapred.lib.CombineFileRecordReader;
import org.apache.hadoop.mapred.lib.CombineFileSplit;

@SuppressWarnings("deprecation")
public class CombinedInputFormat extends CombineFileInputFormat<LongWritable, Text> {

    @SuppressWarnings({ "unchecked", "rawtypes" })
    @Override
    public RecordReader<LongWritable, Text> getRecordReader(InputSplit split, JobConf conf, Reporter reporter) throws IOException {

        return new CombineFileRecordReader(conf, (CombineFileSplit) split, reporter, (Class) myCombineFileRecordReader.class);
    }

    public static class myCombineFileRecordReader implements RecordReader<LongWritable, Text> {
        private final LineRecordReader linerecord;

        public myCombineFileRecordReader(CombineFileSplit split, Configuration conf, Reporter reporter, Integer index) throws IOException {
            FileSplit filesplit = new FileSplit(split.getPath(index), split.getOffset(index), split.getLength(index), split.getLocations());
            linerecord = new LineRecordReader(conf, filesplit);
        }

        @Override
        public void close() throws IOException {
            linerecord.close();

        }

        @Override
        public LongWritable createKey() {
            // TODO Auto-generated method stub
            return linerecord.createKey();
        }

        @Override
        public Text createValue() {
            // TODO Auto-generated method stub
            return linerecord.createValue();
        }

        @Override
        public long getPos() throws IOException {
            // TODO Auto-generated method stub
            return linerecord.getPos();
        }

        @Override
        public float getProgress() throws IOException {
            // TODO Auto-generated method stub
            return linerecord.getProgress();
        }

        @Override
        public boolean next(LongWritable key, Text value) throws IOException {

            // TODO Auto-generated method stub
            return linerecord.next(key, value);
        }

    }
}


在运行时这样设置:

if (argument != null) {
                conf.set("mapred.max.split.size", argument);
            } else {
                conf.set("mapred.max.split.size", "134217728"); // 128 MB
            }
//

            conf.setInputFormat(CombinedInputFormat.class);


posted @ 2013-08-29 16:08 paulwong 阅读(380) | 评论 (0)编辑 收藏

HBase、Redis中关于“长事务”(Long Transaction)的一点讨论

首先解释下标题,可能命名不是那么严谨吧,大致的定义如下:

sometimes you are in a situation where you want to read a record, check what is in it, and depending on that update the record. The problem is that between the time you read a row and perform the update, someone else might have updated the row, so your update might be based on outdated information.

摘要一下:进程A读取了某行R,进行时间较长的计算操作,在这个计算过程中B对行R进行了更改。A计算完毕后,若直接写入,会覆盖B的修改结果。此时应令A写入失败。

以下的讨论整理自下述两个页面,表示感谢!

http://www.ngdata.com/hbase-row-locks/

http://redis.io/topics/transactions

一个最简单、直接的思路是:Transaction + Row Lock。类似于传统DBMS的思路:首先开启行锁,新建一个Transaction,随后进行各种操作,最后commit,最最后解除行锁。看似很简单,也没什么Bug,但注意,若计算时间较长,整个DB就挂起了,不能执行任何操作。

BigTable的Paper中,对这类问题进行了讨论。

总体来说解决思路有三:

1、Rowlock,但是对于HBase来说,RegionLock更成熟。因为RowLock会长时间(从Transction开始到更新)占用一个线程。当并发量很大的时候,系统会挂掉。。。

2、ICV即HBase的incrementColumnValue()方法。

3、CAS即HBase的checkAndPut方法:在Put之前,先检查某个cell的值是否和value一样,一样再Put。注意,这里检查条件的Cell和要Put的Cell可以是不同的column,甚至是不同的row。。。

综上在HBASE中,使用上述CAS方法是较好的解决方案。

上面说了HBase,再来看一个轻量级的Redis:

Redis也支持事务,具体见:http://redis.io/topics/transactions

通过MULTI开始一个事务,EXEC执行一个事务。在两者之间可以“执行”多个命令,但并未被实际执行,而是被Queue起来,直到EXEC再一起执行。Redis保证:在一个事务EXEC的过程中,不会处理其他任何Client的请求(会被挂起)。注意这里是EXEC锁,而不是整个MULTI锁。所以并发性能还是有保障的。

为了支持Paper中CAS方案,Redis提供了WATCH命令:

So what is WATCH really about? It is a command that will make the EXEC conditional: we are asking Redis to perform the transaction only if no other client modified any of the WATCHed keys. Otherwise the transaction is not entered at all.

已经很显然了,更多具体的,读上述网页的文档吧。

posted @ 2013-08-24 22:39 paulwong 阅读(393) | 评论 (0)编辑 收藏

zookeeper client使用笔记

Zookeeper数据模型

  1. zk具有像文件系统一样的层状的命名空间。
  2. 命名空间中的每一个节点都可存储数据。
  3. 只有绝对路径,名字都是unicode字符。
  4. 每个节点都是ZNode类型(如同文件系统的stat)。
  5. 每个ZNode上可以设置Watch,znode改变会通知设置的watch的客户端,同时清除Watch
  6. 每次对znode的读写都是原子的,每次读写都是带要操作znode版本号的。
  7. 尽量保证单个znode在1MB一下。通常几K。
  8. 临时节点的概念:只存在于一个Session的有效期内的节点。临时节点不允许有子节点。
  9. 使用zxid来标示zk中的每个事件(导致zk状态改变的事件)。全局唯一。
  10. 对每个znode的改变触发当前znode versions的改变。每个znode维护三个version(version:对应每次znode data改变,cversion:对应每次子节点改变,aversion:对应每次acl改变)

Zookeeper状态转换

  1. session timeout时间至少是ticket time(默认是2000ms)的2倍,同时最大不能超过20倍ticket time
  2. 一旦session 过期,不必手动重新连接。zk client会处理重连。
  3. Session的过期与否是由server端决定的。在timeout时间之内,server没有收到来自
    client的任何信息(心跳)时,则判定client session过期。同时会删掉属于这个session的临时节点(znode),同时通知watch这个节点的client。
  4. 一旦session过期的client重新连接上zk cluster,将会受到“session expired”通知。
  5. 在建立zk连接时,会设置一个默认的watcher,当client状态改变的时候,这个watcher会被调用。一般将这个watcher的初始状态设为disconnect。这样就可以处理后续的session 过期事件。

Zookeeper Watch

  1. 每一次的读操作(getData(), getChildren(), exists())都可以对操作的节点设置watcher。
  2. watch是一次性的。一旦数据改变或是删除,则触发watcher,后续的改变则不会再触发。
  3. 因为watch是异步发送的,所以有可能在节点操作返回码返回之前先返回给client。zk只能保证client收到的watch事件是在他设置watch事件返回成功后收到。
  4. watch的两种类型:data watch(由getData() 和 exists()设置),返回znode data 和 child watch(由getChildren()设置), 返回children list。
  5. 导致watch事件丢失的一种情况:“ a watch for the existance of a znode not yet created will be missed if the znode is created and deleted while disconnected.

posted @ 2013-08-23 10:47 paulwong 阅读(700) | 评论 (0)编辑 收藏

仅列出标题
共112页: First 上一页 58 59 60 61 62 63 64 65 66 下一页 Last