Posted on 2014-01-08 12:08
陕西BOY 阅读(263)
评论(0) 编辑 收藏 所属分类:
kafka
##broker标识,id为正数,且全局不得重复.
broker.id=0
##日志文件保存的目录 推荐放到存储大的盘目录
log.dirs=/opt/kafkadata/logs
##broker需要使用zookeeper保存meata信息,因此broker为zk
##此处为zookeeper集群的connectString,后面可以跟上path
##不过需要注意,path的全路径需要有自己来创建(使用zookeeper脚本工具)
zookeeper.connect=hostname1:port1,hostname2:port2/kafka
##用来侦听链接的端口,prudcer或consumer将在此端口建立链接
port=10000
##指定broker实例绑定的网络接口地址
host.name=ip
##每个topic默认partition的个数,默认为1
num.partitions=2
##日志文件中每个segment文件的尺寸,默认为1G
##log.segment.bytes=1024*1024*1024
##滚动生成新的segment文件的最大时间
##log.roll.hours=24*7
##segment文件保留的最长时间,超时将被删除
##log.retention.hours=24*7
##partiton中buffer中,消息的条数,达到阀值,将触发flush到磁盘.
log.flush.interval.messages=30000
#消息buffer的时间,达到阀值,将触发flush到磁盘.
log.flush.interval.ms=5000
##partition leader等待follower同步消息的最大时间,
##如果超时,leader将follower移除同步列表
replica.lag.time.max.ms=10000
##消息的备份的个数,默认为1,通常使用在replication-cluster环境中
##kafka-cluster已经具备自动故障转移能力(>0.8V)
num.replica.fetchers=1