from:http://logos.name/archives/515
虽然ES提供了replicas shards的机制来保证数据的完整性不会因为几个节点的奔溃而被破坏,但是定期的数据备份以备不时之需依然重要。此外,通过备份与恢复也可实现数据在不同集群间的迁移(直接复制data目录下的索引文件的做法我尝试过,但没有成功)。
备份的方式在官方文档里有清楚的交代:先创建仓库(repository),再往仓库里添加一个快照(snapshot),查看备份状态,搞定。虽然官方文档很轻描淡写,但我在第一步就卡住了,创建仓库时需要一个共享文件系统(每个ES节点都需要能访问),我只是想把数据从线上集群迁移到线下进行更全面的测试,为了这么点事去找系统部走流程等待共享服务器是多么头疼啊……
一阵Google之后,决定使用sshfs在ES集群中每个节点的相同位置挂载一个共享目录,以下是操作命令:
1 2 3 4 5 6 7 8 9 10 11 12 | // 在每个节点上安装sshfs
yum install fuse sshfs
// 选定一个节点的一个目录作为共享目录(不要放在系统盘所在目录)
mkdir /data0/es_backup
// 在每个节点的相同位置创建目录,并挂载共享目录
mkdir /mnt/backup
sshfs root@192.168.x.x: /data0/es_backup /mnt/backup -o allow_other
// 测试运行ES的用户是否有对共享目录的写权限
sudo -u elasticsearch touch /mnt/backup/test
|
这里最大的坑是写权限问题,我试过在创建/mnt/backup时把owner改成elasticsearch或者在挂载的时候用-o uid= gid= 这样参数更改目录的owner,然并卵……折腾了一下午。最后总算在stack overflow找到了这个参数-o allow_other,但其实这样做比较粗鲁,机器上的任何用户都可以访问这个目录了,有更优雅实现方式的同学请赐教。
解决了共享目录的问题之后,就可以像官方文档一样轻描淡写啦:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | // 在_plugin /marvel/sense 里
// 创建仓库
PUT _snapshot /my_backup
{
"type" : "fs" ,
"settings" : {
"location" : "/mnt/backup" ,
"compress" : true
}
}
// 针对具体的index创建快照备份
PUT _snapshot /my_backup/snapshot_test
{
"indices" : "index_1, index_2"
}
// 查看备份状态
GET _snapshot /my_backup/snapshot_test/_status
|
现在可以开始进行迁移了:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 | // 备份创建好之后,在共享目录 /data0/es_backup 里是这样的:
-rw-r--r-- 1 root root 31 12月 15 22:14 index
drwxr-xr-x 3 root root 4096 12月 15 22:14 indices
-rw-r--r-- 1 root root 83 12月 15 22:14 metadata-snapshot_test
-rw-r--r-- 1 root root 181 12月 15 22:14 snapshot-snapshot_test
// 在迁移目标的集群上重复上面创建仓库的操作
// 将源集群的备份内容( /data0/es_backup 里的所有文件),复制到迁移目标的集群仓库目录里
// 在sense中使用RESTful API进行备份的恢复
POST _snapshot /my_backup/snapshot_test/_restore
// 查看恢复的状态
GET _snapshot /my_backup/snapshot_test/_status
|
以上就是参照官方文档实施的ES数据备份与迁移,希望对大家有帮助,欢迎留言与交流。