当前位置 博文首页 > docker+mysql集群+读写分离+mycat管理+垂直分库+负载均衡
依然如此,只要大家跟着笔者的步骤一步步来,99.99999%是可以测试成功的
centos6.8已不再维护,可能很多人的虚拟机中无法使用yum命令下载docker,
但是阿里源还是可以用的 因为他的centos-vault仓库里放了之前版本的centos的包
只需要在centos命令行界面下执行一下几条命令
sed -i "s|enabled=1|enabled=0|g" /etc/yum/pluginconf.d/fastestmirror.conf mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup curl -o /etc/yum.repos.d/CentOS-Base.repo https://www.xmpan.com/Centos-6-Vault-Aliyun.repo yum clean all yum makecache
然后执行如下命令安装docker
yum install https://get.docker.com/rpm/1.7.1/centos-6/RPMS/x86_64/docker-engine-1.7.1-1.el6.x86_64.rpm
如果提示检查软件失败什么的,可以试试使用命令 yum remove docker 删除docker,再执行安装
安装完成后可以给docker配置一下阿里云的加速器,具体方法自行百度,在此不再过多赘述
docker安装完成后开始准备搭建Mysql,我一直强调开发中应秉承约定>配置>编码,接下来就按部就班先准备环境:
我准备了两台虚拟机130(主),和131(从),首先在两台电脑上分别通过docker安装mysql
因为需要配置读写分离,一定要挂载mysql配置文件目录到主机
docker pull mysql:5.6 //拉取mysql镜像 docker run -p 3306:3306 --name mysql -v $PWD/conf:/etc/mysql/conf.d -v $PWD/logs:/logs -v $PWD/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.6 docker cp containedID:/etc/mysql/my.cnf $PWD //拷贝一份容器内的配置文件
两台虚拟机执行相同的操作,配置主从Mysql的数据库版本最好一致
首先是主库的my.cnf的配置:
在mysql的配置文件的 [mysqld] 下面修改(从库也是如此):
#开启主从复制,主库的配置(log-bin属性在配置主从时才指定,单机不需要) log-bin= mysql3306-bin #指定主库serverid #server-id 主库和从库都需要指定,不过主库的server-id必须小于从库的server-id(重要) server-id=1 #指定同步的数据库,如果不指定则同步全部数据库(一般不需要指定) #binlog-do-db=mybatis_1128 #(配置文件中输入的这些命令一定要和下面有一行空格,不然MySQL不识别)
执行SQL语句查询状态:
SHOW MASTER STATUS
需要记录下Position值,需要在从库中设置同步起始值。(重要)
然后重启130(主),使配置文件生效
docker restart containerID
配置131(从)的my.cnf:
仅仅需要指定一个server-id=2即可
然后重启131(从),使配置文件生效
通过sqlyog连接两台mysql服务器(注意开放端口,笔者为了测试,直接停掉了防火墙)
接着在130(主)中输入以下命令:
GRANT REPLICATION SLAVE ON *.* TO 'slave01'@'192.168.209.131'IDENTIFIED BY '123456'; FLUSH PRIVILEGES;
意思是添加一个slave可以登入的用户,用户名为slave01,密码为123456,只有通过131(从),才可登入
完成后在131(从)中执行以下命令:
CHANGE MASTER TO MASTER_HOST='192.168.209.130', MASTER_USER='slave01', MASTER_PASSWORD='123456', MASTER_PORT=3306, MASTER_LOG_FILE='mysql3306-bin.000011', MASTER_LOG_POS=38301; START SLAVE;//开启主从配置 SHOW SLAVE STATUS //查看主从配置状态信息
38301以及mysql3308-bin.000011对应130(主)中的position和file字段(重要)
如果 show slave status 后,slave_io_running 和slave_sql_running 值都为yes,则配置成功,
直接在130(主)上随便建个数据库,发现131(从)也生成了相同的数据库
到此,Mysql主从配置结束。
很多人配置完成后,就开始在代码中配置双数据源,通过代码来实现数据源的切换以达到读写分离的目的,我一直强调,约定>配置>编码,这种做法显然是不可取的,既然配置了主从,为什么不去选择一种高效明了的管理方式呢?
这就引出了这篇文章的重点:mycat
mycat是
mycat就是为集群而生的,并能通过简单配置达到数据库分片的目的
docker pull longhronshens/mycat-docker mkdir -p /usr/local/mycat cd /usr/local/mycat
进入我们新建的mycat目录,将server.xml rule.xml schema.xml复制到该目录下,三个文件的基本内容如下:schema.xml
<?xml version="1.0"?> <!DOCTYPE mycat:schema SYSTEM "schema.dtd"> <mycat:schema xmlns:mycat="http://io.mycat/"> <schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100"> <!-- auto sharding by id (long) --> <table name="travelrecord" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" /> <!-- global table is auto cloned to all defined data nodes ,so can join with any table whose sharding node is in the same data node --> <table name="company" primaryKey="ID" type="global" dataNode="dn1,dn2,dn3" /> <table name="goods" primaryKey="ID" type="global" dataNode="dn1,dn2" /> <!-- random sharding using mod sharind rule --> <table name="hotnews" primaryKey="ID" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="mod-long" /> <!-- <table name="dual" primaryKey="ID" dataNode="dnx,dnoracle2" type="global" needAddLimit="false"/> <table name="worker" primaryKey="ID" dataNode="jdbc_dn1,jdbc_dn2,jdbc_dn3" rule="mod-long" /> --> <table name="employee" primaryKey="ID" dataNode="dn1,dn2" rule="sharding-by-intfile" /> <table name="customer" primaryKey="ID" dataNode="dn1,dn2" rule="sharding-by-intfile"> <childTable name="orders" primaryKey="ID" joinKey="customer_id" parentKey="id"> <childTable name="order_items" joinKey="order_id" parentKey="id" /> </childTable> <childTable name="customer_addr" primaryKey="ID" joinKey="customer_id" parentKey="id" /> </table> <!-- <table name="oc_call" primaryKey="ID" dataNode="dn1$0-743" rule="latest-month-calldate" /> --> </schema> <!-- <dataNode name="dn1$0-743" dataHost="localhost1" database="db$0-743" /> --> <dataNode name="dn1" dataHost="localhost1" database="db1" /> <dataNode name="dn2" dataHost="localhost1" database="db2" /> <dataNode name="dn3" dataHost="localhost1" database="db3" /> <!--<dataNode name="dn4" dataHost="sequoiadb1" database="SAMPLE" /> <dataNode name="jdbc_dn1" dataHost="jdbchost" database="db1" /> <dataNode name="jdbc_dn2" dataHost="jdbchost" database="db2" /> <dataNode name="jdbc_dn3" dataHost="jdbchost" database="db3" /> --> <dataHost name="localhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="native" switchType="1" slaveThreshold="100"> <heartbeat>select user()</heartbeat> <!-- can have multi write hosts --> <writeHost host="hostM1" url="192.168.209.130:3306" user="root" password="123456"> <!-- can have multi read hosts --> <readHost host="hostS2" url="192.168.209.130:3306" user="root" password="123456" /> </writeHost> <writeHost host="hostS1" url="192.168.209.130:3306" user="root" password="123456" /> <!-- <writeHost host="hostM2" url="localhost:3316" user="root" password="123456"/> --> </dataHost> <!-- <dataHost name="sequoiadb1" maxCon="1000" minCon="1" balance="0" dbType="sequoiadb" dbDriver="jdbc"> <heartbeat> </heartbeat> <writeHost host="hostM1" url="sequoiadb://1426587161.dbaas.sequoialab.net:11920/SAMPLE" user="jifeng" password="jifeng"></writeHost> </dataHost> <dataHost name="oracle1" maxCon="1000" minCon="1" balance="0" writeType="0" dbType="oracle" dbDriver="jdbc"