redis的RDB和AOF 持久化方案

最近在弄docker的Redis部署,顺便去温习了一下redis 的持久化方案,整理了一下笔记:

 如果想基础学起可以看之前的文章: http://www.dczou.com/viemall/439.html

本章大纲:

  RDB和AOF两种持久化机制的介绍:

  RDB持久化机制的优点

  RDB持久化机制的缺点

  AOF持久化机制的优点

  AOF持久化机制的缺点

  RDB和AOF如何选择;

  RDB 实战:

  AOF 实战:


RDB和AOF两种持久化机制的介绍:

    RDB持久化机制,对redis中的数据执行周期性的持久化,是基于二进制文件形式保存

AOF机制对每条写入命令作为日志,以append-only的模式写入一个日志文件中,在redis重启的时候,可以通过回放AOF日志中的写入指令来重新构建整个数据集

   如果我们想要redis仅仅作为纯内存的缓存来用,那么可以禁止RDB和AOF所有的持久化机制;

  禁止:RDB   要设置 save "",还要把持久化的本地文件干掉!

  禁止: AOF   appendonly=no;

  通过RDB或AOF,都可以将redis内存中的数据给持久化到磁盘上面来.

  在生产环境中,我们可以定期将持久化文件同步到其他备份机器或者是阿里云服务;

 如果同时使用RDB和AOF两种持久化机制,那么在redis重启的时候,会使用AOF来重新构建数据,因为AOF中的数据更加完整

RDB持久化机制的优点

   (1)RDB会生成多个数据文件,每个数据文件都代表了某一个时刻中redis的数据,这种多个数据文件的方式,非常适合做冷备,可以将这种完整的数据文件发送到一些远程的安全存储上去;

(2)RDB对redis对外提供的读写服务,影响非常小,可以让redis保持高性能,因为redis主进程只需要fork一个子进程,让子进程执行磁盘IO操作来进行RDB持久化即可

(3)相对于AOF持久化机制来说,直接基于RDB数据文件来重启和恢复redis进程,更加快速

 

RDB持久化机制的缺点

   (1)如果想要在redis故障时,尽可能少的丢失数据,那么RDB没有AOF好。一般来说,RDB数据快照文件,都是每隔5分钟,或者更长时间生成一次,这个时候就得接受一旦redis进程宕机,那么会丢失最近5分钟的数据

(2)RDB每次在fork子进程来执行RDB快照数据文件生成的时候,如果数据文件特别大,可能会导致对客户端提供的服务暂停数毫秒,或者甚至数秒

RDB 实战:

   配置RDB 持久化:

image.png

   每隔60s,如果有超过1000个key发生了变更,那么就生成一个新的dump.rdb文件,就是当前redis内存中完整的数据快照,这个操作也被称之为snapshotting,快照

  客户端也可以使用 save或者 bgsave 命令通知 redis做一次快照持久化。save 操作是在 主线程中保存快照的, 由于 redis 是用一个主线程来处理所有客户端的请求, 这种方式会阻 塞所有客户端请求。 所以不推荐使用。 另一点需要注意的是, 每次快照持久化都是将内存数 据完整写入到磁盘一次, 并不是增量的只同步增量数据。 如果数据量大的话, 写操作会比较 多,必然会引起大量的磁盘 IO操作,可能会严重影响性能。
  注意: 由于快照方式是在一定间隔时间做一次的,所以如果 redis意外当机的话,就会丢失最后一次快照后的所有数据修改

工作机制:  

    (1)redis根据配置自己尝试去生成rdb快照文件

(2)fork一个子进程出来

(3)子进程尝试将数据dump到临时的rdb快照文件中

(4)完成rdb快照文件的生成之后,就替换之前的旧的快照文件

dump.rdb,每次生成一个新的快照,都会覆盖之前的老快照

实战测试:

 我们在redis 保存几条数据,然后shutdown 掉服务,然后重新启动服务,你会发现保存的数据都还存在, 通过redis-cli SHUTDOWN这种方式去停掉redis,其实是一种安全退出的模式,redis在退出的时候会将内存中的数据立即生成一份完整的rdb快照

     注:用kill -9粗暴杀死redis进程,模拟redis故障异常退出,你就会发现导致内存数据丢失的场景了,所以需要通过save 来设置一个时间的间隔和数量;

     如:配置成  save 5 1 ,你会发现,插入几条数据后,待5秒后kill服务,重新启动该保存的数据还会存在。


RDB 的数据导入:

redis中使用redis-dump导出、导入、还原数据实例: https://blog.csdn.net/dszgf5717/article/details/48002943

AOF持久化机制的优点: 

    (1)AOF可以更好的保护数据不丢失,一般AOF会每隔1秒,通过一个后台线程执行一次fsync操作,最多丢失1秒钟的数据 

   (2)AOF日志文件以append-only模式写入,所以没有任何磁盘寻址的开销,写入性能非常高,而且文件不容易破损,即使文件尾部破损,也很容易修复

   (3)AOF日志文件即使过大的时候,出现后台重写操作,也不会影响客户端的读写。因为在rewrite log的时候,会对其中的指导进行压缩,创建出一份需要恢复数据的最小日志出来。再创建新日志文件的时候,老的日志文件还是照常写入。当新的merge后的日志文件ready的时候,再交换新老日志文件即可。

  (4)AOF日志文件的命令通过非常可读的方式进行记录,这个特性非常适合做灾难性的误删除的紧急恢复。比如某人不小心用flushall命令清空了所有数据,只要这个时候后台rewrite还没有发生,那么就可以立即拷贝AOF文件,将最后一条flushall命令给删了,然后再将该AOF文件放回去,就可以通过恢复机制,自动恢复所有数据

AOF持久化机制的缺点

   (1)对于同一份数据来说,AOF日志文件通常比RDB数据快照文件更大

(2)AOF开启后,支持的写QPS会比RDB支持的写QPS低,因为AOF一般会配置成每秒fsync一次日志文件,当然,每秒一次fsync,性能也还是很高的

AOF 实战:

   配置AOF持久化:

   AOF持久化,默认是关闭的,默认是打开RDB持久化 

   Appendonly=yes,可以打开AOF持久化机制,在生产环境里面,一般来说AOF都是要打开的,除非你说随便丢个几分钟的数据也无所谓, AOFRD同时开启的时候,rdb里也有部分数据,aof里也有部分数据,这个时候其实会发现,rdb的数据不会恢复到内存中


工作机制:

   打开AOF持久化机制之后,redis每次接收到一条写命令,就会写入日志文件中,当然是先写入os cache的,然后每隔一定时间再fsync一下,

而且即使AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为aof数据比较完整


可以配置AOF的fsync策略,有三种策略可以选择,一种是每次写入一条数据就执行一次fsync; 一种是每隔一秒执行一次fsync; 一种是不主动执行fsync

 

always: 每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保说redis里的数据一条都不丢,那就只能这样了

 

everysec: 每秒将os cache中的数据fsync到磁盘,这个最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的

 

no: 仅仅redis负责将数据写入os cache就撒手不管了,然后后面os自己会时不时有自己的策略将数据刷入磁盘,不可控了

实战测试:

  重复RDB 实战测试的步骤,你可以发现数据被恢复回来了,就是从AOF文件中恢复回来的

  同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整。

AOF的 rewrite log 机制:

redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉

redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中

所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀,到很大很大

所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了; redis内存只剩下10万; 基于内存中当前的10万数据构建一套最新的日志,到AOF中; 覆盖之前的老日志; 确保AOF日志文件不会过大,保持跟redis内存数据量一致

可以通过配置来配置rewrite策略:

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

 

比如说上一次AOF rewrite之后,是128mb

然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,256mb,就可能会去触发一次rewrite

但是此时还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite

 

AOF破损文件的修复:

    如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损

 用redis-check-aof –fix命令来修复破损的AOF文件,用的很少;


RDB和AOF如何选择;

(1)不要仅仅使用RDB,因为那样会导致你丢失很多数据

(2)也不要仅仅使用AOF,因为那样有两个问题,第一,你通过AOF做冷备,没有RDB做冷备,来的恢复速度更快; 第二,RDB每次简单粗暴生成数据快照,更加健壮,可以避免AOF这种复杂的备份和恢复机制的bug

(3)综合使用AOF和RDB两种持久化机制,用AOF来保证数据不丢失,作为数据恢复的第一选择; 用RDB来做不同程度的冷备,在AOF文件都丢失或损坏不可用的时候,还可以使用RDB来进行快速的数据恢复

深入浅出Docker技术- Disconf 分布式配置中心

 

本文主要介绍基于Disconf 搭建

环境准备:

   docker/centos7

Disconf 不懂的可以看我之前的系列文章:


   分布式配置中心 Disconf实践-概念片

   分布式配置中心 Disconf实践- 安装篇

   分布式配置中心 Disconf实践- 升级篇


image.png


 docker compose文件编写:

     https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/disconf

docker compose 服务启动;

    docker-compose up –d

docker ps –a : 服务列表

      image.png

所有容器启动正常以后,就可以通过 http://yourhost  访问Disconf-web服务了。Disconf的客户端需要访问zookeeper,所以在配置Disconf的客户端时请配置hosts文件,将主机名disconf-zoo映射到Docker所在的服务器上。

 image.png

   不过我用 admin admin 后台始终提示密码错误?????;

参考资料:

     https://github.com/friddle/docker-disconf

 

深入浅出Docker技术- mysql 部署;

本章目录:

 1.环境准备;

 2. mysql 启动命令:

环境准备:

     docker/centos7

 简单命令:

docker run -d -p 3306:3306 --restart=always viemall-mysql -e MYSQL_ROOT_PASSWORD=123456 \
    -v /opt/docker/compose/mysql/data:/var/lib/mysql \
	-v /opt/docker/compose/mysql/conf/utf8.cnf:/etc/mysql/my.cnf \
	 mysql:5.7

初始化启动mysql文件命令:

docker run -d -p 3306:3306 --restart=always viemall-mysql -e MYSQL_ROOT_PASSWORD=123456 \
-v /opt/docker/compose/mysql/sql:/docker-entrypoint-initdb.d \
-v /opt/docker/compose/mysql/data:/var/lib/mysql \
-v /opt/docker/compose/mysql/conf/utf8.cnf:/etc/mysql/my.cnf \
mysql:5.7

初始文件:

create DATABASE `disconf` character set utf8;
create user 'disconf'@'localhost' identified by 'disconf';
grant all privileges on disconf.* to 'disconf'@'%';
FLUSH PRIVILEGES ;


深入浅出Docker技术- Redis sentinel 集群的搭建

本章目录:

 1.环境准备;

 2.集群启动与测试:

 3. redis ha 常用方案:

 4. sentinel.conf 介绍:

 5.Java 操作 sentinel

 

本文主要介绍基于redis高可用的集群搭建

环境准备:

   docker/centos7

上一章介绍了基于redis slaveof 实现的redis主从复制;但是有一个问题是就, 当master节点失效时,应选举出一个slave节点作为新的master。然而Redis本身(包括它的很多客户端)没有实现自动故障发现并进行主备切换的能力,需要外部的监控方案来实现自动故障恢复。Redis Sentinel是官方推荐的高可用性解决方案。它是Redis集群的监控管理工具,可以提供节点监控、通知、自动故障恢复和客户端配置发现服务。

 

Redis slaveof 部署拓扑结构图

image.png

 

Redis sentinel部署拓扑结构图:

 image.png 

分别有3个Sentinel节点,1个主节点,2个从节点组成一个Redis Sentinel。采用docker 容器方式:

 

role

IP

port

master

127.0.0.1

6379

slave1

127.0.0.1

6379

slave2

127.0.0.1

6379

Sentinel1

127.0.0.1

26379

Sentinel2

127.0.0.1

26379

Sentinel3

127.0.0.1

26379


 docker compose
文件编写:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/redis-sentinel

docker compose 服务启动;


  docker-compose up –d


检查一下docker 集群容器:

   image.png 

验证一下是否成功:

 

查看 redis-sentinel_sentinel_1 容器日记:

  image.png

查看 redis-master 的主从关系:

docker exec -it redis-master  redis-cli info Replication

  image.png

查看 redis-sentinel_redis-slave_1  的主从关系:

docker exec -it redis-sentinel_redis-slave_1  redis-cli info Replication

image.png

停止 redis-master 容器,看是否会自动切换master :

# docker stop redis-master

#

发现Redi-master主节点已经不能连接,redis-sentinel_redis-slave_1 成了主节点!

说明 sentinel 部署成功;

启动sentinel 多实例:

使用docker-compose scale指定某一个服务启动的容器的个数;

启动3个sentinel服务:

docker-compose scale sentinel=3

 image.png 

启动两次从节点:

docker-compose scale redis-slave=2

 image.png 

Docker ps –a 查看:

 image.png 

最终保持了有3个Sentinel节点,1个主节点,2个从节点组成一个Redis Sentinel;

验证测试如上面操作一样;

 

注意:在生产环境下建议sentinel节点的数量能在3个以上,并且最好不要在同一台机器上(使用同一网卡)。 所以一般正式环境上的操作,是采用docker 单个服务运行;

 

 

sentinel.conf配置文件介绍:

 

port 26379 #当前Sentinel服务运行的端口

 

# Sentinel服务运行时使用的临时文件夹

dir /tmp

 

#指定别名  主节点地址  端口  哨兵个数(有几个哨兵监控到主节点宕机执行转移)

sentinel monitor mymaster redis-master 6379 $SENTINEL_QUORUM

 

# Sentinel去监视一个名为mymaster的主redis实例,这个主实例的IP地址为本机地址redis-master 容器,端口号为6379,而将这个主实例判断为失效至少需要2个 Sentinel进程的同意,只要同意Sentinel的数量不达标,自动failover就不会执行

 

#如果哨兵3s内没有收到主节点的心跳,哨兵就认为主节点宕机了,默认是30秒 

sentinel down-after-milliseconds mymaster $SENTINEL_DOWN_AFTER

 

#选举出新的主节点之后,可以同时连接从节点的个数

#指定了在执行故障转移时,最多可以有多少个从Redis实例在同步新的主实例,在从Redis实例较多的情况下这个数字越小,同步的时间越长,完成故障转移所需的时间就越长

sentinel parallel-syncs mymaster 1

 

#如果在该时间(ms)内未能完成failover操作,则认为该failover失败

sentinel failover-timeout mymaster $SENTINEL_FAILOVER

 

#配置连接redis主节点密码 

#sentinel auth-pass mymaster 123456 

# sentinel notification-script <master-name> <script-path>:指定sentinel检测到该监控的redis实例指向的实例异常时,调用的报警脚本。该配置项可选,但是很常用

 

 

 

常用的redis HA 方案:

 

Redis 一般以主/从方式部署(这里讨论的应用从实例主要用于备份,主实例提供读写)该方式要实现 HA 主要有如下几种方案: 


  1)keepalived:通过 keepalived 的虚拟 IP,提供主从的统一访问,在主出现问题时, 通过 keepalived 运行脚本将从提升为主,待主恢复后先同步后自动变为主,该方案的好处是主从切换后,应用程序不需要知道(因为访问的虚拟 IP 不变),坏处是引入 keepalived 增加部署复杂性,在有些情况下会导致数据丢失; 


  2) zookeeper: 通过 zookeeper 来监控主从实例, 维护最新有效的 IP, 应用通过 zookeeper取得 IP,对 Redis 进行访问,该方案需要编写大量的监控代码; 


  3)sentinel:通过 Sentinel 监控主从实例,自动进行故障恢复,该方案有个缺陷:因为主从实例地址(IP&PORT)是不同的, 当故障发生进行主从切换后, 应用程序无法知道新地址,故 在 Jedis2.2.2 中 新 增 了 对 Sentinel 的 支 持 , 应 用 通 过redis.clients.jedis.JedisSentinelPool.getResource()取得的Jedis实例会及时更新到新的主实例地址。 

 

 

Java 客户端操作:

public class RedisSentinelTest {

 

      public static void main(String[] args) {

 

           Set<String> sentinels = new HashSet<String>();

        sentinels.add("127.0.0.1:26379");

        sentinels.add("127.0.0.1:26380");

        sentinels.add("127.0.0.1:26381");

 

           String clusterName = "redis-master";

           String password = "";

 

           JedisSentinelPool redisSentinelJedisPool = new JedisSentinelPool(clusterName, sentinels, password);

           Jedis jedis = null;

           try {

                 jedis = redisSentinelJedisPool.getResource();

                 jedis.set("key", "value");

           } catch (Exception e) {

                 e.printStackTrace();

           } finally {

                 redisSentinelJedisPool.close();

           }

          

      }

 

}

 

 

 

参考资料:

 https://www.cnblogs.com/LiZhiW/p/4851631.html

 

深入浅出Docker技术- Redis 集群的搭建-1

本文主要介绍基于redis的集群搭建

环境准备:

   docker/centos7

实例机器:
  192.168.137.128 由于机子原因,采用一台机器多容器部署的方式;

  

单机部署命令:

  docker run -d –name=redis  -p 6179:6179  –restart=always redis:4.0.9

 

redis主从复制部署方式:

master

   docker run -d -p 6379:6379 –restart=always –name=viemall-redis-master  –net=viemall-zookeeper -v /opt/docker/compose/redis/redis-a/conf/redis-master.conf:/usr/local/etc/redis/redis.conf redis:4.0.9 redis-server /usr/local/etc/redis/redis.conf

 

slave

   docker run -d -p 6380:6379 –restart=always –name=viemall-redis-slave –net=viemall-zookeeper  -v /opt/docker/compose/redis/redis-a/conf/redis-slave.conf:/usr/local/etc/redis/redis.conf redis:4.0.9 redis-server /usr/local/etc/redis/redis.conf

 

当配好主从redis之后,经常会发现,slave无法连接上master。

出现如下错误: Error condition on socket for SYNC: No route to host

解决的方式:

在redis主服务器上的redis.conf中修改bind字段,将

bind 127.0.0.1

 修改为 bind 0.0.0.0  

又或者直接注释掉bind字段

# bind 127.0.0.1

原因: 
        如果redis主服务器绑定了127.0.0.1,那么跨服务器IP的访问就会失败,从服务器用IP和端口访问主的时候,主服务器发现本机6379端口绑在了127.0.0.1上,也就是只能本机才能访问,外部请求会被过滤,这是linux的网络安全策略管理的。如果bind的IP地址是172.168.10.70,那么本机通过localhost和127.0.0.1、或者直接输入命令redis-cli登录本机redis也就会失败了。只能加上本机ip才能访问到。 
所以,在研发、测试环境可以考虑bind 0.0.0.0,线上生产环境建议绑定IP地址。

 

如果完成了上述操作还是出现slave无法连接上master问题:

执行” sudo iptables F ” 就轻松解决了;

 

测试:

 

#主服务器查看主从信息
#[root@php1 ~]# redis-cli -h 127.0.0.1 -a redispass info replication
# Replication

role:master

connected_slaves:1

slave0:ip=172.18.0.1,port=6379,state=online,offset=1108,lag=1

master_replid:766cd3d92f9bb8ea4f19ce71d653ab9ff47e2d45

master_replid2:0000000000000000000000000000000000000000

master_repl_offset:1108

second_repl_offset:-1

repl_backlog_active:1

repl_backlog_size:1048576

repl_backlog_first_byte_offset:1

repl_backlog_histlen:1108

 


#
从服务器查看主从信息
#[root@mysql1 ~]# redis-cli -h 127.0.0.1 -a redispass info replication
# Replication

role:slave

master_host:192.168.137.128

master_port:6379

master_link_status:up

master_last_io_seconds_ago:8

master_sync_in_progress:0

slave_repl_offset:1178

slave_priority:100

slave_read_only:1

connected_slaves:0

master_replid:766cd3d92f9bb8ea4f19ce71d653ab9ff47e2d45

master_replid2:0000000000000000000000000000000000000000

master_repl_offset:1178

second_repl_offset:-1

repl_backlog_active:1

repl_backlog_size:1048576

repl_backlog_first_byte_offset:1

repl_backlog_histlen:1178

 

 

#写同步测试
#主服务器 

# redis-cli -h 127.0.0.1 -a redispass 
redis 127.0.0.1:6379> set a 123
OK
redis 127.0.0.1:6379> get a
"123"

 

#从服务器
[root@mysql1 ~]# redis-cli -h 127.0.0.1 -a redispass
 
redis 127.0.0.1:6379> get a
"123"
[root@mysql3 ~]# redis-cli -h 127.0.0.1 -a redispass
redis 127.0.0.1:6379> get a
"123"

redis 127.0.0.1:6379> set b 234
(error) READONLY You can't write against a read only slave.
(开起了只读模式,所以从将不能写入数据,可以保证数据只从主服务器同步至从服务器)

#故障测试
#从服务器宕机

将自动从主服务器的主从关系中解除
#主服务器宕机,从服务器显示,并且不能自动切换

[15932] 03 Nov 09:46:25.465 * Connecting to MASTER…
[15932] 03 Nov 09:46:25.465 * MASTER <-> SLAVE sync started
[15932] 03 Nov 09:46:25.466 # Error condition on socket for SYNC: Connection refused

后面的Redis主从切换部署方式 将在下一章讲述;

深入浅出Docker技术- tomcat redis session 共享

 环境准备:

   docker/centos7

实例机器:
  192.168.0.1

192.168.0.2


采用普通方式:

       http://www.dczou.com/viemall/535.html

本章采用的基于Docker 方式;

      通过TomcatClusterRedisSessionManager  方式来实现redis共享;

启动redis容器:   

docker run -d –name=redis  -p 6379:6379 –restart=always redis:4.0.9  –requirepass "shop_123"

 

创建Tomcat 的镜像文件;

#cd /opt/program/tools/docker-file/tomcat-session-redis (dockerfile看附件)

# docker build -t  tomcat8-session-redis:v1 .

# 把镜像文件push公司的harbor镜像仓库中;

: 根据你的信息修改conf/redis-data-cache.properties 的redis 配置信息;

 

 启动Tomcat-A容器:

     在机器: 192.168.0.1

   docker run -d –name=tomcat-1  -p 8084:8080 -v /opt/program/tools/docker-file/tomcat-session-redis/viemall-session-test:/usr/local/tomcat/webapps/ROOT –restart=always tomcat8-session-redis:v1

启动Tomcat-B容器:

     在机器: 192.168.0.2

      docker run -d –name=tomcat-2  -p 8084:8080 -v /opt/program/tools/docker-file/tomcat-session-redis/viemall-session-test:/usr/local/tomcat/webapps/ROOT –restart=always tomcat8-session-redis:v1

 

测试流程:

为了方便我直接采用阿里云的SLB方式(可以采用其他负载服务器)来进行session的高可用测试,并且进行负载测试;

采用SLB 统一监听入口 http://xx.190.126.100/SessionServlet

image.png

登录redis客户端,查看session

  image.png

session已经被保存到redis

下面,我们进行一项测试

查看两台机器的后台日记,可以看到阿里云SLB会负载个上面两台服务器;

image.png 

然后将对应的tomcat停掉

刷新该应用,sessionId未变,则表示redis保存session成功。

该方案将session集中保存在了redis服务器,并做了主备容灾,从一定程度上提高了系统的高可用,由于

redis是内存存储,访问效率较高,在性能上也是比较好的,但是在用户量 非常大,并发访问量非常高的时候,session服务器会成为性能瓶颈。

本章所有的资料文件:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/dockerfile/tomcat-session-redis

深入浅出Docker技术- 基于Docker Solr集群的搭建

    SolrCloud是基于Solr和Zookeeper的分布式搜索方案,是正在开发中的Solr4.0的核心组件之一,它的主要思想是使用Zookeeper作为集群的配置信息中心。它有几个特色功能:1)集中式的配置信息 2)自动容错 3)近实时搜索查询时自动负载均衡 

   SolrCloud 是指 Solr 中一套新的潜在的分发能力。这种能力能够通过参数让你建立起一个高可用、容错的 Solr 服务集群。当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud(solr 云)。


本文主要介绍基于 solrCloud的搭建

环境准备:

   docker/centos7

实例机器:
   192.168.1.102 由于机子原因,采用一台机器多容器部署的方式;

概括:

   基于三个容器,来实现Zookeeper的集群模式,3个Solr容器来实现集群;

一:单机启动solr 服务;

docker run --name solr-simple  -d -p 8983:8983 solr:6.6.4

二:命令方式启动solrCloud:

    由于上一章基于讲解了Zookeeper 的集群:  http://www.dczou.com/viemall/818.html 

      下面启动命令之前依赖上一章的环境;

Solr1容器:

docker run --name solr1 --net=viemall-zookeeper -d -p 8983:8983 solr:6.6.4  
bash -c '/opt/solr/bin/solr start -f -z zookeeper-A:2181,zookeeper-B:2181,zookeeper-C:2181'

Solr2容器:

docker run --name solr2 --net=viemall-zookeeper -d -p 8984:8983 solr:6.6.4  
bash -c '/opt/solr/bin/solr start -f -z zookeeper-A:2181,zookeeper-B:2181,zookeeper-C:2181'

Solr3容器:

docker run --name solr3 --net=viemall-zookeeper -d -p 8985:8983 solr:6.6.4 
 bash -c '/opt/solr/bin/solr start -f -z zookeeper-A:2181,zookeeper-B:2181,zookeeper-C:2181'

方式二: docker compose 一键搭建solrCloud 环境:

    docker compose文件编写 : 文件地址:  https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/solr

三. 通过集群(Core Admin)管理

image.png

No config set found to associate with the collection. 刚启动的没有默认的Solr配置

手动执行命令:

 docker exec -it solr-1  /opt/solr/bin/solr create_collection  -c collection1 -shards 1 -replicationFactor 3 -p 8983 创建一个默认的collection,以后就可以用这个作为基础;

image.png

参数:

name:将被创建的集合的名字
numShards:集合创建时需要创建逻辑碎片的个数
replicationFactor:分片的副本数。replicationFactor(复制因子)为 3 意思是每个逻辑碎片将有 3 份副本。

image.png

现在只有一片,1个主,2个备

也可以使用命令来创建分片:

http://127.0.0.1:8080/solr/admin/collections?action=CREATE&name=collection2&numShards=1&replicationFactor=3

三. 客户端API:

public class SolrCloudTest {
 
    @Test
    public void testAddDocument() throws Exception {
        //创建一个和solr集群的连接
        String zkHost = " 192.168.137.128:2181, 192.168.137.128:2182, 192.168.137.128:2183";
        CloudSolrServer solrServer = new CloudSolrServer(zkHost);
        //指定默认的collection
        solrServer.setDefaultCollection("collection2");
        //创建一个文档对象
        SolrInputDocument document = new SolrInputDocument();
        //向文档中添加域
        document.addField("id", "test001");
        document.addField("item_title", "测试商品");
        //把文档添加到索引库
        solrServer.add(document);
        //提交
        solrServer.commit();
    }
    
    @Test
    public void deleteDoucment()  throws Exception {
        //创建一个和solr集群的连接
        String zkHost = "192.168.242.135:2181,192.168.242.135:2182,192.168.242.135:2183";
        CloudSolrServer solrServer = new CloudSolrServer(zkHost);
        //指定默认的collection
        solrServer.setDefaultCollection("collection2");
        solrServer.deleteByQuery("*:*");
        solrServer.commit();
    }
}

资料参考:

http://eksliang.iteye.com/blog/2124078

https://www.cnblogs.com/wxisme/p/5180120.html

https://github.com/freedev/solrcloud-zookeeper-docker


深入浅出Docker技术- 基于Docker ZooKeeper 集群的搭建

  ZooKeeper为分布式应用提供高效、高可用的分布式协调服务,它有三种运行模式:单机模式、伪集群模式和集群模式。如果对于ZooKeeper 不了解可以查看我之前的Zookeeper 系列教程:  

  ZooKeeper为分布式应用提供高效、高可用的分布式协调服务,它有三种运行模式:单机模式、伪集群模式和集群模式。如果对于ZooKeeper 不了解可以查看我之前的Zookeeper 系列教程:  

       Zookeeper教程

环境准备:

    docker/centos7

实例机器:
     192.168.1.102 本地虚拟机

概括:

   基于三个容器,来实现Zookeeper的集群模式:

方式一:

     采用传统的docker命令,一个一个的容器部署,dockerfile 这里我就不编写,采用官网的docker文件;

 1.新建docker网络

docker network create viemall-zookeeper
docker network ls

2.启动容器服务:

容器A:

docker run -d \
	 --restart=always \
	 -v /opt/docker/zookeeper/zoo1/data:/data \
	 -v /opt/docker/zookeeper/zoo1/datalog:/datalog \
	 -e ZOO_MY_ID=1 \
	 -e ZOO_SERVERS="server.1=zookeeper-A:2888:3888 server.2=zookeeper-B:2888:3888 server.3=zookeeper-C:2888:3888" \
	 --name=zookeeper-A \
	 --net=viemall-zookeeper \
	 --privileged \
	 zookeeper:3.4.11

容器B: 

docker run -d \
	 --restart=always \
	 -v /opt/docker/zookeeper/zoo2/data:/data \
	 -v /opt/docker/zookeeper/zoo2/datalog:/datalog \
	 -e ZOO_MY_ID=2 \
	 -e ZOO_SERVERS="server.1=zookeeper-A:2888:3888 server.2=zookeeper-B:2888:3888 server.3=zookeeper-C:2888:3888" \
	 --name=zookeeper-B \
	 --net=viemall-zookeeper \
	 --privileged \
	 zookeeper:3.4.11

容器C:

docker run -d \
	 --restart=always \
	 -v /opt/docker/zookeeper/zoo3/data:/data \
	 -v /opt/docker/zookeeper/zoo3/datalog:/datalog \
	 -e ZOO_MY_ID=3 \
	 -e ZOO_SERVERS="server.1=zookeeper-A:2888:3888 server.2=zookeeper-B:2888:3888 server.3=zookeeper-C:2888:3888" \
	 --name=zookeeper-C \
	 --net=viemall-zookeeper \
	 --privileged \
	 zookeeper:3.4.11

下面验证一下集群是否工作正常:

查看三个容器的IP:

docker   inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}'   b0a6bb150200

可以通过命令:echo stat|nc 172.20.0.4 2181 来查看哪个节点被选择作为follower或者leader 

image.png

通过上面的命令可见集群搭建成功,并且有一个节点为leader状态。

方式二: docker compose

       docker compose是docker编排服务的一部分,可以让用户在其他平台上快速的安装docker,一键就部署成功了;  

      docker compose文件编写:

                Zookeeper compose 地址:  https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/zookeeper

     docker compose 服务启动;

          docker-compose up -d

 

ZooKeeper 常用四字命令:

      ZooKeeper 支持某些特定的四字命令字母与其的交互。它们大多是查询命令,用来获取 ZooKeeper 服务的当前状态及相关信息。用户在客户端可以通过 telnet 或 nc 向 ZooKeeper 提交相应的命令

·         1. 可以通过命令:echo stat|nc 127.0.0.1 2181 来查看哪个节点被选择作为follower或者leader

·         2. 使用echo ruok|nc 127.0.0.1 2181 测试是否启动了该Server,若回复imok表示已经启动。

·         3. echo dump| nc 127.0.0.1 2181 ,列出未经处理的会话和临时节点。

·         4. echo kill | nc 127.0.0.1 2181 ,关掉server

·         5. echo conf | nc 127.0.0.1 2181 ,输出相关服务配置的详细信息。

·         6. echo cons | nc 127.0.0.1 2181 ,列出所有连接到服务器的客户端的完全的连接 / 会话的详细信息。

·         7. echo envi |nc 127.0.0.1 2181 ,输出关于服务环境的详细信息(区别于 conf 命令)。

·         8. echo reqs | nc 127.0.0.1 2181 ,列出未经处理的请求。

·         9. echo wchs | nc 127.0.0.1 2181 ,列出服务器 watch 的详细信息。

·         10. echo wchc | nc 127.0.0.1 2181 ,通过 session 列出服务器 watch 的详细信息,它的输出是一个与 watch 相关的会话的列表。

·         11. echo wchp | nc 127.0.0.1 2181 ,通过路径列出服务器 watch 的详细信息。它输出一个与 session 相关的路径。

 

深入浅出Docker技术- 快速运行Mysql容器

环境准备:

    docker/centos7

实例机器:
     192.168.1.102 
本地虚拟机

资料准备:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/mysql

 docker run -d -p 3306:3306 --name=viemall-mysql --restart=always  -e TZ="Asia/Shanghai" \
 -e MYSQL_ROOT_PASSWORD=123456 \
 -v /opt/docker/mysql/data:/var/lib/mysql \
 -v /opt/docker/mysql/conf/utf8.cnf:/etc/mysql/conf.d/utf8.cnf  mysql:5.7.22 \
 --character-set-server=utf8

资料参考:   https://www.cnblogs.com/mmry/p/8812599.html

深入浅出Docker技术- 快速构建Nginx Web负载均衡

image.png

环境准备:

    docker/centos7

实例机器:
     192.168.1.102
本地虚拟机

资料准备:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/nginx-tomcat

官网资料:

     https://hub.docker.com/_/nginx/

概括:

  使用三个容器技术,一个容器部署Nginx, 80端口,一个部署WebA,一个部署WebB, Nginx 这项技术不是很懂的可以看我之前的系列文章;这里不细讲!!!!!


方式一:

   采用传统的docker命令,一个一个的容器部署,dockerfile 这里我就不编写,采用官网的docker文件;

    因为docker run 的默认网络是bridge模式, bridge模式是docker的默认网络模式,容器与容器之间是不互通的,那么我们需要容器共享一个 Network Namespace,所以创建的时候使用自定义网络;

 1.新建docker网络

    docker network create viemall

    docker network ls

 2.启动TomcatATomcatB服务:

docker run  -d  -p 8080:8080 --net=viemall --name=viemall-tomcat-a --restart=always  -e TZ="Asia/Shanghai" \
 -v /opt/docker/tomcat/web-a/ROOT:/usr/local/tomcat/webapps/ROOT \
 -v /opt/docker/tomcat/web-a/logs:/usr/local/tomcat/logs \
 tomcat:8.0.51-jre8-slim
 docker run  -d  -p 8081:8080 --net=viemall --name=viemall-tomcat-b --restart=always  -e TZ="Asia/Shanghai" \
 -v /opt/docker/tomcat/web-b/ROOT:/usr/local/tomcat/webapps/ROOT \
 -v /opt/docker/tomcat/web-b/logs:/usr/local/tomcat/logs \
 tomcat:8.0.51-jre8-slim

3.启动Nginx

docker run  -d  -p 80:80 --net=viemall --name=viemall-nginx --restart=always  -e TZ="Asia/Shanghai" \
  -v /opt/docker/nginx/conf/nginx.conf:/etc/nginx/nginx.conf \
  -v /opt/docker/nginx/logs:/var/log/nginx \
  -v /opt/docker/nginx/html:/usr/share/nginx/html \
 nginx:1.14-alpine

测试访问:

  http://192.168.1.102/


  image.pngimage.png


方式二: docker compose

   docker composedocker编排服务的一部分,可以让用户在其他平台上快速的安装docker,一键就部署成功了;

  1.安装docker compose

       参考文章:   http://www.dczou.com/viemall/808.html

  2.docker compose官方文档:

        https://docs.docker.com/compose/compose-file/

 3. docker compose文件编写:

version: '3'
services:
  nginx:
    image: nginx:1.14-alpine 
    ports:
      - "80:80"
    container_name: viemall-nginx
    restart: always
    volumes:
      - /opt/docker/nginx/conf/nginx.conf:/etc/nginx/nginx.conf
      - /opt/docker/nginx/html:/usr/share/nginx/html
      - /opt/docker/nginx/logs:/var/log/nginx
    environment:
      TZ: Asia/Shanghai
    depends_on:
      - viemall-tomcat-A
      - viemall-tomcat-B
    networks:
      - "viemall-net"
  viemall-tomcat-A:
    image: tomcat:8.0.51-jre8-slim
    container_name: viemall-tomcat-a
    ports:
      - "8080:8080"
    restart: always
    volumes:
      - /opt/docker/tomcat/web-a/ROOT:/usr/local/tomcat/webapps/ROOT
      - /opt/docker/tomcat/web-a/logs:/usr/local/tomcat/logs
    environment:
      TZ: Asia/Shanghai
      JAVA_OPTS: -Djava.security.egd=file:/dev/./urandom
    networks:
      - "viemall-net"
  viemall-tomcat-B:
    image: tomcat:8.0.51-jre8-slim
    container_name: viemall-tomcat-b
    ports:
      - "8081:8080"
    restart: always
    volumes:
      - /opt/docker/tomcat/web-b/ROOT:/usr/local/tomcat/webapps/ROOT
      - /opt/docker/tomcat/web-b/logs:/usr/local/tomcat/logs
    environment:
      TZ: Asia/Shanghai
      JAVA_OPTS: -Djava.security.egd=file:/dev/./urandom
    networks:
      - "viemall-net"
networks:
  viemall-net:
    driver: bridge

 4. docker compose 服务启动;

     docker-compose up -d


   查看compose启动的各个容器的状态:

docker-compose ps

   进入某个容器:

docker-compose exec viemall-tomcat-a bash

   退出某个容器

exit

   停止 docker compose启动的容器: 停止运行的容器而不删除它们,它们可以使用命令docker-compose start重新启动起来

docker-compose stop

 卸载docker compose启动的容器:

docker-compose down