深入浅出Docker技术- Disconf 分布式配置中心

 

本文主要介绍基于Disconf 搭建

环境准备:

   docker/centos7

Disconf 不懂的可以看我之前的系列文章:


   分布式配置中心 Disconf实践-概念片

   分布式配置中心 Disconf实践- 安装篇

   分布式配置中心 Disconf实践- 升级篇


image.png


 docker compose文件编写:

     https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/disconf

docker compose 服务启动;

    docker-compose up –d

docker ps –a : 服务列表

      image.png

所有容器启动正常以后,就可以通过 http://yourhost  访问Disconf-web服务了。Disconf的客户端需要访问zookeeper,所以在配置Disconf的客户端时请配置hosts文件,将主机名disconf-zoo映射到Docker所在的服务器上。

 image.png

   不过我用 admin admin 后台始终提示密码错误?????;

参考资料:

     https://github.com/friddle/docker-disconf

 

深入浅出Docker技术- mysql 部署;

本章目录:

 1.环境准备;

 2. mysql 启动命令:

环境准备:

     docker/centos7

 简单命令:

docker run -d -p 3306:3306 --restart=always viemall-mysql -e MYSQL_ROOT_PASSWORD=123456 \
    -v /opt/docker/compose/mysql/data:/var/lib/mysql \
	-v /opt/docker/compose/mysql/conf/utf8.cnf:/etc/mysql/my.cnf \
	 mysql:5.7

初始化启动mysql文件命令:

docker run -d -p 3306:3306 --restart=always viemall-mysql -e MYSQL_ROOT_PASSWORD=123456 \
-v /opt/docker/compose/mysql/sql:/docker-entrypoint-initdb.d \
-v /opt/docker/compose/mysql/data:/var/lib/mysql \
-v /opt/docker/compose/mysql/conf/utf8.cnf:/etc/mysql/my.cnf \
mysql:5.7

初始文件:

create DATABASE `disconf` character set utf8;
create user 'disconf'@'localhost' identified by 'disconf';
grant all privileges on disconf.* to 'disconf'@'%';
FLUSH PRIVILEGES ;


深入浅出Docker技术- Redis sentinel 集群的搭建

本章目录:

 1.环境准备;

 2.集群启动与测试:

 3. redis ha 常用方案:

 4. sentinel.conf 介绍:

 5.Java 操作 sentinel

 

本文主要介绍基于redis高可用的集群搭建

环境准备:

   docker/centos7

上一章介绍了基于redis slaveof 实现的redis主从复制;但是有一个问题是就, 当master节点失效时,应选举出一个slave节点作为新的master。然而Redis本身(包括它的很多客户端)没有实现自动故障发现并进行主备切换的能力,需要外部的监控方案来实现自动故障恢复。Redis Sentinel是官方推荐的高可用性解决方案。它是Redis集群的监控管理工具,可以提供节点监控、通知、自动故障恢复和客户端配置发现服务。

 

Redis slaveof 部署拓扑结构图

image.png

 

Redis sentinel部署拓扑结构图:

 image.png 

分别有3个Sentinel节点,1个主节点,2个从节点组成一个Redis Sentinel。采用docker 容器方式:

 

role

IP

port

master

127.0.0.1

6379

slave1

127.0.0.1

6379

slave2

127.0.0.1

6379

Sentinel1

127.0.0.1

26379

Sentinel2

127.0.0.1

26379

Sentinel3

127.0.0.1

26379


 docker compose
文件编写:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/redis-sentinel

docker compose 服务启动;


  docker-compose up –d


检查一下docker 集群容器:

   image.png 

验证一下是否成功:

 

查看 redis-sentinel_sentinel_1 容器日记:

  image.png

查看 redis-master 的主从关系:

docker exec -it redis-master  redis-cli info Replication

  image.png

查看 redis-sentinel_redis-slave_1  的主从关系:

docker exec -it redis-sentinel_redis-slave_1  redis-cli info Replication

image.png

停止 redis-master 容器,看是否会自动切换master :

# docker stop redis-master

#

发现Redi-master主节点已经不能连接,redis-sentinel_redis-slave_1 成了主节点!

说明 sentinel 部署成功;

启动sentinel 多实例:

使用docker-compose scale指定某一个服务启动的容器的个数;

启动3个sentinel服务:

docker-compose scale sentinel=3

 image.png 

启动两次从节点:

docker-compose scale redis-slave=2

 image.png 

Docker ps –a 查看:

 image.png 

最终保持了有3个Sentinel节点,1个主节点,2个从节点组成一个Redis Sentinel;

验证测试如上面操作一样;

 

注意:在生产环境下建议sentinel节点的数量能在3个以上,并且最好不要在同一台机器上(使用同一网卡)。 所以一般正式环境上的操作,是采用docker 单个服务运行;

 

 

sentinel.conf配置文件介绍:

 

port 26379 #当前Sentinel服务运行的端口

 

# Sentinel服务运行时使用的临时文件夹

dir /tmp

 

#指定别名  主节点地址  端口  哨兵个数(有几个哨兵监控到主节点宕机执行转移)

sentinel monitor mymaster redis-master 6379 $SENTINEL_QUORUM

 

# Sentinel去监视一个名为mymaster的主redis实例,这个主实例的IP地址为本机地址redis-master 容器,端口号为6379,而将这个主实例判断为失效至少需要2个 Sentinel进程的同意,只要同意Sentinel的数量不达标,自动failover就不会执行

 

#如果哨兵3s内没有收到主节点的心跳,哨兵就认为主节点宕机了,默认是30秒 

sentinel down-after-milliseconds mymaster $SENTINEL_DOWN_AFTER

 

#选举出新的主节点之后,可以同时连接从节点的个数

#指定了在执行故障转移时,最多可以有多少个从Redis实例在同步新的主实例,在从Redis实例较多的情况下这个数字越小,同步的时间越长,完成故障转移所需的时间就越长

sentinel parallel-syncs mymaster 1

 

#如果在该时间(ms)内未能完成failover操作,则认为该failover失败

sentinel failover-timeout mymaster $SENTINEL_FAILOVER

 

#配置连接redis主节点密码 

#sentinel auth-pass mymaster 123456 

# sentinel notification-script <master-name> <script-path>:指定sentinel检测到该监控的redis实例指向的实例异常时,调用的报警脚本。该配置项可选,但是很常用

 

 

 

常用的redis HA 方案:

 

Redis 一般以主/从方式部署(这里讨论的应用从实例主要用于备份,主实例提供读写)该方式要实现 HA 主要有如下几种方案: 


  1)keepalived:通过 keepalived 的虚拟 IP,提供主从的统一访问,在主出现问题时, 通过 keepalived 运行脚本将从提升为主,待主恢复后先同步后自动变为主,该方案的好处是主从切换后,应用程序不需要知道(因为访问的虚拟 IP 不变),坏处是引入 keepalived 增加部署复杂性,在有些情况下会导致数据丢失; 


  2) zookeeper: 通过 zookeeper 来监控主从实例, 维护最新有效的 IP, 应用通过 zookeeper取得 IP,对 Redis 进行访问,该方案需要编写大量的监控代码; 


  3)sentinel:通过 Sentinel 监控主从实例,自动进行故障恢复,该方案有个缺陷:因为主从实例地址(IP&PORT)是不同的, 当故障发生进行主从切换后, 应用程序无法知道新地址,故 在 Jedis2.2.2 中 新 增 了 对 Sentinel 的 支 持 , 应 用 通 过redis.clients.jedis.JedisSentinelPool.getResource()取得的Jedis实例会及时更新到新的主实例地址。 

 

 

Java 客户端操作:

public class RedisSentinelTest {

 

      public static void main(String[] args) {

 

           Set<String> sentinels = new HashSet<String>();

        sentinels.add("127.0.0.1:26379");

        sentinels.add("127.0.0.1:26380");

        sentinels.add("127.0.0.1:26381");

 

           String clusterName = "redis-master";

           String password = "";

 

           JedisSentinelPool redisSentinelJedisPool = new JedisSentinelPool(clusterName, sentinels, password);

           Jedis jedis = null;

           try {

                 jedis = redisSentinelJedisPool.getResource();

                 jedis.set("key", "value");

           } catch (Exception e) {

                 e.printStackTrace();

           } finally {

                 redisSentinelJedisPool.close();

           }

          

      }

 

}

 

 

 

参考资料:

 https://www.cnblogs.com/LiZhiW/p/4851631.html

 

深入浅出Docker技术- Redis 集群的搭建-1

本文主要介绍基于redis的集群搭建

环境准备:

   docker/centos7

实例机器:
  192.168.137.128 由于机子原因,采用一台机器多容器部署的方式;

  

单机部署命令:

  docker run -d –name=redis  -p 6179:6179  –restart=always redis:4.0.9

 

redis主从复制部署方式:

master

   docker run -d -p 6379:6379 –restart=always –name=viemall-redis-master  –net=viemall-zookeeper -v /opt/docker/compose/redis/redis-a/conf/redis-master.conf:/usr/local/etc/redis/redis.conf redis:4.0.9 redis-server /usr/local/etc/redis/redis.conf

 

slave

   docker run -d -p 6380:6379 –restart=always –name=viemall-redis-slave –net=viemall-zookeeper  -v /opt/docker/compose/redis/redis-a/conf/redis-slave.conf:/usr/local/etc/redis/redis.conf redis:4.0.9 redis-server /usr/local/etc/redis/redis.conf

 

当配好主从redis之后,经常会发现,slave无法连接上master。

出现如下错误: Error condition on socket for SYNC: No route to host

解决的方式:

在redis主服务器上的redis.conf中修改bind字段,将

bind 127.0.0.1

 修改为 bind 0.0.0.0  

又或者直接注释掉bind字段

# bind 127.0.0.1

原因: 
        如果redis主服务器绑定了127.0.0.1,那么跨服务器IP的访问就会失败,从服务器用IP和端口访问主的时候,主服务器发现本机6379端口绑在了127.0.0.1上,也就是只能本机才能访问,外部请求会被过滤,这是linux的网络安全策略管理的。如果bind的IP地址是172.168.10.70,那么本机通过localhost和127.0.0.1、或者直接输入命令redis-cli登录本机redis也就会失败了。只能加上本机ip才能访问到。 
所以,在研发、测试环境可以考虑bind 0.0.0.0,线上生产环境建议绑定IP地址。

 

如果完成了上述操作还是出现slave无法连接上master问题:

执行” sudo iptables F ” 就轻松解决了;

 

测试:

 

#主服务器查看主从信息
#[root@php1 ~]# redis-cli -h 127.0.0.1 -a redispass info replication
# Replication

role:master

connected_slaves:1

slave0:ip=172.18.0.1,port=6379,state=online,offset=1108,lag=1

master_replid:766cd3d92f9bb8ea4f19ce71d653ab9ff47e2d45

master_replid2:0000000000000000000000000000000000000000

master_repl_offset:1108

second_repl_offset:-1

repl_backlog_active:1

repl_backlog_size:1048576

repl_backlog_first_byte_offset:1

repl_backlog_histlen:1108

 


#
从服务器查看主从信息
#[root@mysql1 ~]# redis-cli -h 127.0.0.1 -a redispass info replication
# Replication

role:slave

master_host:192.168.137.128

master_port:6379

master_link_status:up

master_last_io_seconds_ago:8

master_sync_in_progress:0

slave_repl_offset:1178

slave_priority:100

slave_read_only:1

connected_slaves:0

master_replid:766cd3d92f9bb8ea4f19ce71d653ab9ff47e2d45

master_replid2:0000000000000000000000000000000000000000

master_repl_offset:1178

second_repl_offset:-1

repl_backlog_active:1

repl_backlog_size:1048576

repl_backlog_first_byte_offset:1

repl_backlog_histlen:1178

 

 

#写同步测试
#主服务器 

# redis-cli -h 127.0.0.1 -a redispass 
redis 127.0.0.1:6379> set a 123
OK
redis 127.0.0.1:6379> get a
"123"

 

#从服务器
[root@mysql1 ~]# redis-cli -h 127.0.0.1 -a redispass
 
redis 127.0.0.1:6379> get a
"123"
[root@mysql3 ~]# redis-cli -h 127.0.0.1 -a redispass
redis 127.0.0.1:6379> get a
"123"

redis 127.0.0.1:6379> set b 234
(error) READONLY You can't write against a read only slave.
(开起了只读模式,所以从将不能写入数据,可以保证数据只从主服务器同步至从服务器)

#故障测试
#从服务器宕机

将自动从主服务器的主从关系中解除
#主服务器宕机,从服务器显示,并且不能自动切换

[15932] 03 Nov 09:46:25.465 * Connecting to MASTER…
[15932] 03 Nov 09:46:25.465 * MASTER <-> SLAVE sync started
[15932] 03 Nov 09:46:25.466 # Error condition on socket for SYNC: Connection refused

后面的Redis主从切换部署方式 将在下一章讲述;

深入浅出Docker技术- tomcat redis session 共享

 环境准备:

   docker/centos7

实例机器:
  192.168.0.1

192.168.0.2


采用普通方式:

       http://www.dczou.com/viemall/535.html

本章采用的基于Docker 方式;

      通过TomcatClusterRedisSessionManager  方式来实现redis共享;

启动redis容器:   

docker run -d –name=redis  -p 6379:6379 –restart=always redis:4.0.9  –requirepass "shop_123"

 

创建Tomcat 的镜像文件;

#cd /opt/program/tools/docker-file/tomcat-session-redis (dockerfile看附件)

# docker build -t  tomcat8-session-redis:v1 .

# 把镜像文件push公司的harbor镜像仓库中;

: 根据你的信息修改conf/redis-data-cache.properties 的redis 配置信息;

 

 启动Tomcat-A容器:

     在机器: 192.168.0.1

   docker run -d –name=tomcat-1  -p 8084:8080 -v /opt/program/tools/docker-file/tomcat-session-redis/viemall-session-test:/usr/local/tomcat/webapps/ROOT –restart=always tomcat8-session-redis:v1

启动Tomcat-B容器:

     在机器: 192.168.0.2

      docker run -d –name=tomcat-2  -p 8084:8080 -v /opt/program/tools/docker-file/tomcat-session-redis/viemall-session-test:/usr/local/tomcat/webapps/ROOT –restart=always tomcat8-session-redis:v1

 

测试流程:

为了方便我直接采用阿里云的SLB方式(可以采用其他负载服务器)来进行session的高可用测试,并且进行负载测试;

采用SLB 统一监听入口 http://xx.190.126.100/SessionServlet

image.png

登录redis客户端,查看session

  image.png

session已经被保存到redis

下面,我们进行一项测试

查看两台机器的后台日记,可以看到阿里云SLB会负载个上面两台服务器;

image.png 

然后将对应的tomcat停掉

刷新该应用,sessionId未变,则表示redis保存session成功。

该方案将session集中保存在了redis服务器,并做了主备容灾,从一定程度上提高了系统的高可用,由于

redis是内存存储,访问效率较高,在性能上也是比较好的,但是在用户量 非常大,并发访问量非常高的时候,session服务器会成为性能瓶颈。

本章所有的资料文件:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/dockerfile/tomcat-session-redis

深入浅出Docker技术- 基于Docker Solr集群的搭建

    SolrCloud是基于Solr和Zookeeper的分布式搜索方案,是正在开发中的Solr4.0的核心组件之一,它的主要思想是使用Zookeeper作为集群的配置信息中心。它有几个特色功能:1)集中式的配置信息 2)自动容错 3)近实时搜索查询时自动负载均衡 

   SolrCloud 是指 Solr 中一套新的潜在的分发能力。这种能力能够通过参数让你建立起一个高可用、容错的 Solr 服务集群。当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud(solr 云)。


本文主要介绍基于 solrCloud的搭建

环境准备:

   docker/centos7

实例机器:
   192.168.1.102 由于机子原因,采用一台机器多容器部署的方式;

概括:

   基于三个容器,来实现Zookeeper的集群模式,3个Solr容器来实现集群;

一:单机启动solr 服务;

docker run --name solr-simple  -d -p 8983:8983 solr:6.6.4

二:命令方式启动solrCloud:

    由于上一章基于讲解了Zookeeper 的集群:  http://www.dczou.com/viemall/818.html 

      下面启动命令之前依赖上一章的环境;

Solr1容器:

docker run --name solr1 --net=viemall-zookeeper -d -p 8983:8983 solr:6.6.4  
bash -c '/opt/solr/bin/solr start -f -z zookeeper-A:2181,zookeeper-B:2181,zookeeper-C:2181'

Solr2容器:

docker run --name solr2 --net=viemall-zookeeper -d -p 8984:8983 solr:6.6.4  
bash -c '/opt/solr/bin/solr start -f -z zookeeper-A:2181,zookeeper-B:2181,zookeeper-C:2181'

Solr3容器:

docker run --name solr3 --net=viemall-zookeeper -d -p 8985:8983 solr:6.6.4 
 bash -c '/opt/solr/bin/solr start -f -z zookeeper-A:2181,zookeeper-B:2181,zookeeper-C:2181'

方式二: docker compose 一键搭建solrCloud 环境:

    docker compose文件编写 : 文件地址:  https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/solr

三. 通过集群(Core Admin)管理

image.png

No config set found to associate with the collection. 刚启动的没有默认的Solr配置

手动执行命令:

 docker exec -it solr-1  /opt/solr/bin/solr create_collection  -c collection1 -shards 1 -replicationFactor 3 -p 8983 创建一个默认的collection,以后就可以用这个作为基础;

image.png

参数:

name:将被创建的集合的名字
numShards:集合创建时需要创建逻辑碎片的个数
replicationFactor:分片的副本数。replicationFactor(复制因子)为 3 意思是每个逻辑碎片将有 3 份副本。

image.png

现在只有一片,1个主,2个备

也可以使用命令来创建分片:

http://127.0.0.1:8080/solr/admin/collections?action=CREATE&name=collection2&numShards=1&replicationFactor=3

三. 客户端API:

public class SolrCloudTest {
 
    @Test
    public void testAddDocument() throws Exception {
        //创建一个和solr集群的连接
        String zkHost = " 192.168.137.128:2181, 192.168.137.128:2182, 192.168.137.128:2183";
        CloudSolrServer solrServer = new CloudSolrServer(zkHost);
        //指定默认的collection
        solrServer.setDefaultCollection("collection2");
        //创建一个文档对象
        SolrInputDocument document = new SolrInputDocument();
        //向文档中添加域
        document.addField("id", "test001");
        document.addField("item_title", "测试商品");
        //把文档添加到索引库
        solrServer.add(document);
        //提交
        solrServer.commit();
    }
    
    @Test
    public void deleteDoucment()  throws Exception {
        //创建一个和solr集群的连接
        String zkHost = "192.168.242.135:2181,192.168.242.135:2182,192.168.242.135:2183";
        CloudSolrServer solrServer = new CloudSolrServer(zkHost);
        //指定默认的collection
        solrServer.setDefaultCollection("collection2");
        solrServer.deleteByQuery("*:*");
        solrServer.commit();
    }
}

资料参考:

http://eksliang.iteye.com/blog/2124078

https://www.cnblogs.com/wxisme/p/5180120.html

https://github.com/freedev/solrcloud-zookeeper-docker


深入浅出Docker技术- 基于Docker ZooKeeper 集群的搭建

  ZooKeeper为分布式应用提供高效、高可用的分布式协调服务,它有三种运行模式:单机模式、伪集群模式和集群模式。如果对于ZooKeeper 不了解可以查看我之前的Zookeeper 系列教程:  

  ZooKeeper为分布式应用提供高效、高可用的分布式协调服务,它有三种运行模式:单机模式、伪集群模式和集群模式。如果对于ZooKeeper 不了解可以查看我之前的Zookeeper 系列教程:  

       Zookeeper教程

环境准备:

    docker/centos7

实例机器:
     192.168.1.102 本地虚拟机

概括:

   基于三个容器,来实现Zookeeper的集群模式:

方式一:

     采用传统的docker命令,一个一个的容器部署,dockerfile 这里我就不编写,采用官网的docker文件;

 1.新建docker网络

docker network create viemall-zookeeper
docker network ls

2.启动容器服务:

容器A:

docker run -d \
	 --restart=always \
	 -v /opt/docker/zookeeper/zoo1/data:/data \
	 -v /opt/docker/zookeeper/zoo1/datalog:/datalog \
	 -e ZOO_MY_ID=1 \
	 -e ZOO_SERVERS="server.1=zookeeper-A:2888:3888 server.2=zookeeper-B:2888:3888 server.3=zookeeper-C:2888:3888" \
	 --name=zookeeper-A \
	 --net=viemall-zookeeper \
	 --privileged \
	 zookeeper:3.4.11

容器B: 

docker run -d \
	 --restart=always \
	 -v /opt/docker/zookeeper/zoo2/data:/data \
	 -v /opt/docker/zookeeper/zoo2/datalog:/datalog \
	 -e ZOO_MY_ID=2 \
	 -e ZOO_SERVERS="server.1=zookeeper-A:2888:3888 server.2=zookeeper-B:2888:3888 server.3=zookeeper-C:2888:3888" \
	 --name=zookeeper-B \
	 --net=viemall-zookeeper \
	 --privileged \
	 zookeeper:3.4.11

容器C:

docker run -d \
	 --restart=always \
	 -v /opt/docker/zookeeper/zoo3/data:/data \
	 -v /opt/docker/zookeeper/zoo3/datalog:/datalog \
	 -e ZOO_MY_ID=3 \
	 -e ZOO_SERVERS="server.1=zookeeper-A:2888:3888 server.2=zookeeper-B:2888:3888 server.3=zookeeper-C:2888:3888" \
	 --name=zookeeper-C \
	 --net=viemall-zookeeper \
	 --privileged \
	 zookeeper:3.4.11

下面验证一下集群是否工作正常:

查看三个容器的IP:

docker   inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}'   b0a6bb150200

可以通过命令:echo stat|nc 172.20.0.4 2181 来查看哪个节点被选择作为follower或者leader 

image.png

通过上面的命令可见集群搭建成功,并且有一个节点为leader状态。

方式二: docker compose

       docker compose是docker编排服务的一部分,可以让用户在其他平台上快速的安装docker,一键就部署成功了;  

      docker compose文件编写:

                Zookeeper compose 地址:  https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/zookeeper

     docker compose 服务启动;

          docker-compose up -d

 

ZooKeeper 常用四字命令:

      ZooKeeper 支持某些特定的四字命令字母与其的交互。它们大多是查询命令,用来获取 ZooKeeper 服务的当前状态及相关信息。用户在客户端可以通过 telnet 或 nc 向 ZooKeeper 提交相应的命令

·         1. 可以通过命令:echo stat|nc 127.0.0.1 2181 来查看哪个节点被选择作为follower或者leader

·         2. 使用echo ruok|nc 127.0.0.1 2181 测试是否启动了该Server,若回复imok表示已经启动。

·         3. echo dump| nc 127.0.0.1 2181 ,列出未经处理的会话和临时节点。

·         4. echo kill | nc 127.0.0.1 2181 ,关掉server

·         5. echo conf | nc 127.0.0.1 2181 ,输出相关服务配置的详细信息。

·         6. echo cons | nc 127.0.0.1 2181 ,列出所有连接到服务器的客户端的完全的连接 / 会话的详细信息。

·         7. echo envi |nc 127.0.0.1 2181 ,输出关于服务环境的详细信息(区别于 conf 命令)。

·         8. echo reqs | nc 127.0.0.1 2181 ,列出未经处理的请求。

·         9. echo wchs | nc 127.0.0.1 2181 ,列出服务器 watch 的详细信息。

·         10. echo wchc | nc 127.0.0.1 2181 ,通过 session 列出服务器 watch 的详细信息,它的输出是一个与 watch 相关的会话的列表。

·         11. echo wchp | nc 127.0.0.1 2181 ,通过路径列出服务器 watch 的详细信息。它输出一个与 session 相关的路径。

 

深入浅出Docker技术- 快速运行Mysql容器

环境准备:

    docker/centos7

实例机器:
     192.168.1.102 
本地虚拟机

资料准备:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/mysql

 docker run -d -p 3306:3306 --name=viemall-mysql --restart=always  -e TZ="Asia/Shanghai" \
 -e MYSQL_ROOT_PASSWORD=123456 \
 -v /opt/docker/mysql/data:/var/lib/mysql \
 -v /opt/docker/mysql/conf/utf8.cnf:/etc/mysql/conf.d/utf8.cnf  mysql:5.7.22 \
 --character-set-server=utf8

资料参考:   https://www.cnblogs.com/mmry/p/8812599.html

深入浅出Docker技术- 快速构建Nginx Web负载均衡

image.png

环境准备:

    docker/centos7

实例机器:
     192.168.1.102
本地虚拟机

资料准备:

    https://gitee.com/gz-tony/viemall-dubbo/tree/master/viemall-docekr/compose/nginx-tomcat

官网资料:

     https://hub.docker.com/_/nginx/

概括:

  使用三个容器技术,一个容器部署Nginx, 80端口,一个部署WebA,一个部署WebB, Nginx 这项技术不是很懂的可以看我之前的系列文章;这里不细讲!!!!!


方式一:

   采用传统的docker命令,一个一个的容器部署,dockerfile 这里我就不编写,采用官网的docker文件;

    因为docker run 的默认网络是bridge模式, bridge模式是docker的默认网络模式,容器与容器之间是不互通的,那么我们需要容器共享一个 Network Namespace,所以创建的时候使用自定义网络;

 1.新建docker网络

    docker network create viemall

    docker network ls

 2.启动TomcatATomcatB服务:

docker run  -d  -p 8080:8080 --net=viemall --name=viemall-tomcat-a --restart=always  -e TZ="Asia/Shanghai" \
 -v /opt/docker/tomcat/web-a/ROOT:/usr/local/tomcat/webapps/ROOT \
 -v /opt/docker/tomcat/web-a/logs:/usr/local/tomcat/logs \
 tomcat:8.0.51-jre8-slim
 docker run  -d  -p 8081:8080 --net=viemall --name=viemall-tomcat-b --restart=always  -e TZ="Asia/Shanghai" \
 -v /opt/docker/tomcat/web-b/ROOT:/usr/local/tomcat/webapps/ROOT \
 -v /opt/docker/tomcat/web-b/logs:/usr/local/tomcat/logs \
 tomcat:8.0.51-jre8-slim

3.启动Nginx

docker run  -d  -p 80:80 --net=viemall --name=viemall-nginx --restart=always  -e TZ="Asia/Shanghai" \
  -v /opt/docker/nginx/conf/nginx.conf:/etc/nginx/nginx.conf \
  -v /opt/docker/nginx/logs:/var/log/nginx \
  -v /opt/docker/nginx/html:/usr/share/nginx/html \
 nginx:1.14-alpine

测试访问:

  http://192.168.1.102/


  image.pngimage.png


方式二: docker compose

   docker composedocker编排服务的一部分,可以让用户在其他平台上快速的安装docker,一键就部署成功了;

  1.安装docker compose

       参考文章:   http://www.dczou.com/viemall/808.html

  2.docker compose官方文档:

        https://docs.docker.com/compose/compose-file/

 3. docker compose文件编写:

version: '3'
services:
  nginx:
    image: nginx:1.14-alpine 
    ports:
      - "80:80"
    container_name: viemall-nginx
    restart: always
    volumes:
      - /opt/docker/nginx/conf/nginx.conf:/etc/nginx/nginx.conf
      - /opt/docker/nginx/html:/usr/share/nginx/html
      - /opt/docker/nginx/logs:/var/log/nginx
    environment:
      TZ: Asia/Shanghai
    depends_on:
      - viemall-tomcat-A
      - viemall-tomcat-B
    networks:
      - "viemall-net"
  viemall-tomcat-A:
    image: tomcat:8.0.51-jre8-slim
    container_name: viemall-tomcat-a
    ports:
      - "8080:8080"
    restart: always
    volumes:
      - /opt/docker/tomcat/web-a/ROOT:/usr/local/tomcat/webapps/ROOT
      - /opt/docker/tomcat/web-a/logs:/usr/local/tomcat/logs
    environment:
      TZ: Asia/Shanghai
      JAVA_OPTS: -Djava.security.egd=file:/dev/./urandom
    networks:
      - "viemall-net"
  viemall-tomcat-B:
    image: tomcat:8.0.51-jre8-slim
    container_name: viemall-tomcat-b
    ports:
      - "8081:8080"
    restart: always
    volumes:
      - /opt/docker/tomcat/web-b/ROOT:/usr/local/tomcat/webapps/ROOT
      - /opt/docker/tomcat/web-b/logs:/usr/local/tomcat/logs
    environment:
      TZ: Asia/Shanghai
      JAVA_OPTS: -Djava.security.egd=file:/dev/./urandom
    networks:
      - "viemall-net"
networks:
  viemall-net:
    driver: bridge

 4. docker compose 服务启动;

     docker-compose up -d


   查看compose启动的各个容器的状态:

docker-compose ps

   进入某个容器:

docker-compose exec viemall-tomcat-a bash

   退出某个容器

exit

   停止 docker compose启动的容器: 停止运行的容器而不删除它们,它们可以使用命令docker-compose start重新启动起来

docker-compose stop

 卸载docker compose启动的容器:

docker-compose down

深入浅出Docker技术- docker-compose的两种方式



这里简单介绍下两种安装docker-compose的方式:
第一种方式相对简单,但是由于网络问题,常常安装不上,并且经常会断开,
第二种方式略微麻烦,但是安装过程比较稳定
方法一:
#  sudo curl -L https://github.com/docker/compose/releases/download/1.21.0/docker-compose-$(uname -s)-$(uname -m) -o /usr/local/bin/docker-compose
# chmod +x /usr/local/bin/docker-compose  
#docker-compose --version

    但是此方法会经常因为网络的原因而无法安装

  方法二: pip安装方式:

     wget https://files.pythonhosted.org/packages/ae/e8/2340d46ecadb1692a1e455f13f75e596d4eab3d11a57446f08259dee8f02/pip-10.0.1.tar.gz
    tar -xvf pip-10.0.1.tar.gz
    cd pip-10.0.1/
    sudo python setup.py install
    sudo pip install docker-compose
    ln -s /usr/bin/docker-compose /usr/local/bin/docker-compose