目录
④增强半同步复制(lossless Semi-Sync Replication)
3、主服务器Master配置(192.168.226.150)
4、从服务器Slave的配置(192.168.226.151,192.168.226.152)
在企业应用中,成熟的业务通常数据量都比较大。
单台MySQL在安全性、高可用性和高并发方面都无法满足实际的需求。
配置多台主从数据服务器以实现读写分离。
MySQL的主从复制和MySQL的读写分离两者有着紧密联系,首先要部署主从复制,只有主从复制完成可=了,才能在此基础上进行数据的读写分离
①基于语句的复制(STATEMENT)
在主服务器上执行的SQL语句,在从服务器上执行同样的语句。MySQL默认采用基于语句的复制,效率比较高
②基于行的复制(ROW)
把改变的内容复制过去,而不是把命令在服务器上执行一遍
③混合类型的复制(MIXED)
默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制
核心:两个日志,三个线程
①两个日志
二进制日志:master
中继日志:slaves
二进制日志–>复制到 中继日志
②三个线程
master上:dump线程
slave上:I/O线程、SQL线程
dump线程:
监听本地二进制日志
记录I/O线程对应的slave位置
同步二进制日志更新内容给I/O线程
I/O线程:
监听master的dump线程
将slave信息发送给master:从服务器位置、日志的position(记录位置)、超时时间
接收master的dump线程传递过来的更新信息
写入relay-log中
SQL线程:
监听中继日志
将中继日志中的更新内容执行到自己的数据库中(保证从库与主库执行相同操作)

MySQL主从复制的过程
(1)在每个事务更新数据完成之前,Master在二进制日志(Binary log)记录这些改变。写入二进制日志完成后,Master通知存储引擎提交事务
(2)Slave将Master的二进制日志(Binary log)复制到其中继日志(Relay log),首先slave开始一个工作线程(I/O),I/O线程在Master上打开一个普通的连接,然后开始Binlog dump process。Binlog dump process 从Master的二进制日志中读取事件,如果已经跟上Master,它会睡眠并等待Master产生新的事件,I/O线程将这些事件写入中继日志
(3)SQL slave thread(SQL从线程)处理该过程的最后一步,SQL线程从中继日志读取事件,并重放其中的事件而更新salve数据,使其与Master中的数据一致,只要该线程与I/O保持一致,中继日志通常会位于OS缓存中,所以中继日志的开销很小
复制过程有一个很重要的限制,即复制在Salve上是串行化的,也就是说Master上的并行更新操作不能在Salve上并行操作
MySQL有四种同步方式
①异步复制(Async Replication)
②同步复制(sync Replication)
③半同步复制(Async Replication)
④增强半同步复制(lossless Semi-Sync Replication)、无损复制
主库将更新写入binlog日志文件后,不需要等待数据更新是否已经复制到从库中,就可以继续处理更多的请求。Master将事件写入binlog,但并不知道Slave是否或何时已经接收且已处理。在异步复制的机制的情况下,如果Master宕机,事务在Master上已提交,但很可能这些事务没有传到任何的Slave上。假设有Master->Slave故障转移的机制,此时Slave也可能会丢失事务。MySQL复制默认是异步复制,异步复制提供了最佳性能
主库将更新写入binlog日志文件后,需要等待数据更新已经复制到从库中,并且已经在从库执行成功,然后返回继续处理其他的请求。同步复制提供了最佳安全性,保证数据安全,数据不会丢失,但对性能有一定的影响。
写入一条数据请求到Master,从服务器只要有一台接收到写入自己的中继日志,会给客户端返回一条接收成功的信息。
主库提交更新写入二进制日志文件后,等待数据更新写入了从服务器中继日志中,然后才能再继续处理其它请求。该更能确保至少有一个从库接收完主库传递过来的binlog内容已经写入到自己的relaylog里面了,才会通知主库上面的等待线程,改操作完毕
半同步复制,是最佳安全性与最佳性能之间的一个折中
MySQL5.5版本之后引入了半同步复制功能,主从服务器必须安装半同步复制插件,才能开启该复制功能。如果等待超时,超过rpl_semi_master_timeout参数设置时间(默认值为10000,表示10秒),则关闭半同步复制,并自动转换为异步复制模式。当master dumo线程发送完一个事务的所有事件之后,如果在rpl_semi_master_timeout内,收到了从库的响应,则主从又重新恢复为增强半同步复制
ACK即是确认符
增强半同步是在MySQL5.7引入,其实半同步可以看成是一个过渡功能,因为默认的配置就是增强半同步,所以,大家一般说的半同步复制就是增强的半同步复制,也就是无损复制
增强半同步和半同步不同的是,等待ACK时间不同
rpl_semi_sync_master_wait_point = AFTER_SYNC(默认)
半同步的问题是因为等待ACK的点是Commit之后,此时Master已经完成数据变更,用户已经可以看到最新数据,当binlog还未同步到Slave时,发生主从切换,那么此时从库是没有这个最新数据的,用户看到的是老数据
增强半同步将等待ACK的点放在提交Commit之前,此时数据还未被提交,外界看不到数据变更,此时如果发送主从切换,新库依然还是老数据,不存在数据不一致的问题
Master服务器肝病发,形成大量事务
网络延迟
主从硬件设备导致(cpu主频、内存I/O、硬盘I/O)
MySQL默认使用异步复制。可以优化MySQL参数。比如innodb_buffer_pool_size,让更多操作在MySQL内存中完成。主库还可以使用高性能主句,包括cpu强悍、内存加大,避免使用虚拟云主机,使用物理主机,这样升级了I/O方面。还可以将从库使用SSD磁盘。网络优化,避免跨机房使用
| 服务器 | IP地址 |
|---|---|
| 主服务器 | 192.168.226.150 |
| 从服务器1 | 192.168.226.151 |
| 从服务器2 | 192.168.226.152 |
关闭防火墙及核心防护
- systemctl stop firewalld #关闭防火墙
- systemctl disable firewalld
- setenforce 0 #关闭核心防护
- yum -y install ntpdate ntp #下载软件
- ntpdate ntp.aliyun.com #时间同步
- 26 Sep 05:16:50 ntpdate[12930]: adjust time server 203.107.6.88 offset 0.008096 sec

- vim /etc/my.cnf
- server-id = 1 #server-id与从服务器server-id不能重复
- log-bin=master-bin #添加,主服务器开启二进制文件
- log_slave-updates=true #添加,允许从服务器更新二进制文件
-
- systemctl restart mysqld #重启mysql服务
修改配置文件


重启MySQL服务
![]()
配置规则
- mysql -uroot -pngs123. #进入到数据库
- grant replication slave on *.* to 'myslave'@'192.168.226.%' identified by '123456';
- #允许192.168.226.0网段的所有主机使用myslave账号和123456密码登录并使用库和表
- flush privileges;
- #将用户和权限配置保存在内存中
- show master status;
- #查看master服务器当前正在执行的二进制日志位置,和列偏移量


- #从服务器1:192.168.226.151
- vim /etc/my.cnf
- server-id = 2 #id不能与master相同,两个从服务器slave也不能相同
- relay-log=relay-log-bin #添加,开启中继日志,从服务器上同步master服务器日志文件到本地
- relay-log-index=slave-relay-bin.index #添加,定义中继日志文件的位置和名称
-
- systemctl restart mysqld #重启MySQL
-
- #从服务器2:192.168.226.152
- vim /etc/my.cnf
- server-id = 3
- relay-log=relay-log-bin
- relay-log-index=slave-relay-bin.index
-
- systemctl restart mysqld #重启MySQL
修改配置文件


开启从服务器功能
- mysql -uroot -pngs123. #登录数据库
- change master to master_host='192.168.226.150',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=154;
- #配置同步,注意master_log_file和master_log_pos的值要与master查询的一致
-
- start slave; #开启同步
-
- show slave status\G #查看slave状态(查看I/O和SQL都为YES)
-
- #确保I/O和SQL线程都是YES,代表同步正常
- Slave_IO_Running: Yes #负责与主机的io通信
- Slave_SQL_Running: Yes #负责自己的slave mysql进程


在master服务器上创建sen库


如果在查看服务器上slave状态时,出现NO的问题。就是执行: show slave status\G,查看的结果,可以往下看,或查看到各个对应的报错的信息。
①遇到Slave_IO_Running:NO的情况
分析:可以向下查看对应的报错的信息。
②遇到Slave_SQL_Running:NO的情况
分析:可以向下查看对应的报错的信息。
- #问题:slave_IO_Running:NO
- 1、网络不通
- 2、my.cnf配置文件有问题
- 3、change中配置出错,密码、file文件名、pos偏移量与master不相符
- 4、防火墙没有关闭
-
- #问题:slave_SQL_Running:NO
- 1、程序可能在slave上进行了写操作
- 2、也可能是slave机器重起后,事务回滚造成的.
- 执行这个:set GLOBAL SQL_SLAVE_SKIP_COUNTER=1;
读写分离就是只在主服务器上写,只在从服务器上读
基本的原理是让主数据库处理事务操作,而从数据库处理select查询,数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库
读写分离,基本的原理就是让主数据库处理事务性增、删、改操作,而从数据库处理select查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库
因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。
但是数据库的“读”(读10000条数据可能只要5秒钟)。
所以读写分离,解决的是,数据库的写入,影响了查询的效率。
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求。无论是在安全性、高可用还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份
在做读写分离时,要将上面的主从复制配置完成后再配置读写分离

客户端访问代理服务器
代理服务器写入主服务器
主服务器将增删改改写入自己二进制日志
从服务器将主服务器的二进制日志同步至自己中继日志
从服务器重放中继日志到数据库中
客户端读,则代理服务器直接访问从服务器
降低负载,起到负载均衡的作用
| 主机 | IP地址 |
| Master | 192.168.130.15 |
| Slave1 | 192.168.130.200 |
| Slave2 | 192.168.130.201 |
| Amoeba | 192.168.130.10 |
实验前需要将四台服务器防火墙关闭
- systemctl stop firewalld
- systemctl disable firewalld
- setenforce 0
做读写分离实验卡按必须有一主两从环境
Ameoba服务是基于jdk1.5开发的,所以要使用jdk1.5或1.6版本,不建议使用高版本
- cp jdk-6u14-linux-x64.bin /usr/local
- cd /usr/local
- chmod +x jdk-6u14-linux-x64.bin
- ./jdk-6u14-linux-x64.bin #安装jdk
![]()

这样就表示安装完成了
![]()
mv jdk1.6.0_14 jdk1.6 #为jdk文件改名
![]()
配置jdk环境变量
- vim /etc/profile
-
- export JAVA_HOME=/usr/local/jdk1.6
- export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
- export PATH=:$JAVA_HOME/lib:$JAVA_HOME/jre/bin:$PATH:$HOME/bin
-
- ##下面两条是配置amoeba服务的,一起写入
- export AMOEBA_HOME=/usr/local/amoeba
- export PATH=$PATH:$AMOEBA_HOME/bin

- source /etc/profile #刷新环境变量
- java -version #查看刷新后的版本

这里提前准备好了amoeba的tar包
![]()
- mkdir /usr/local/amoeba
- tar -zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba
- chmod -R 755 /usr/local/amoeba/ #为amoeba目录赋权,让其他主机文件也能访问
-
- #测试
- /usr/local/amoeba/bin/amoeba
- #如果显示amoeba start|stop则成功安装
配置前需要给Master、Slave1和Slave2的MySQL上开放权限给Amoeba访问
- grant all on *.* to 'amoeba'@'192.168.130.%' identified by '123456';
- flush privileges; #刷新

修改全局配置文件
- #备份配置文件
- cd /usr/local/amoeba/conf
- cp amoeba.xml amoeba.xml.bak
- cp dbServers.xml dbServers.xml.bak

- vim amoeba.xml #修改配置文件
-
- #这里只要修改30行和115行那块的内容,下图有标


- <?xml version="1.0" encoding="gbk"?>
-
- <!DOCTYPE amoeba:configuration SYSTEM "amoeba.dtd">
- <amoeba:configuration xmlns:amoeba="http://amoeba.meidusa.com/">
-
- <proxy>
-
- <!-- service class must implements com.meidusa.amoeba.service.Service -->
- <service name="Amoeba for Mysql" class="com.meidusa.amoeba.net.ServerableConnectionManager">
- <!-- port -->
- <property name="port">8066</property>
-
- <!-- bind ipAddress -->
- <!--
- <property name="ipAddress">127.0.0.1</property>
- -->
-
- <property name="manager">${clientConnectioneManager}</property>
-
- <property name="connectionFactory">
- <bean class="com.meidusa.amoeba.mysql.net.MysqlClientConnectionFactory">
- <property name="sendBufferSize">128</property>
- <property name="receiveBufferSize">64</property>
- </bean>
- </property>
-
- <property name="authenticator">
- <bean class="com.meidusa.amoeba.mysql.server.MysqlClientAuthenticator">
-
- <property name="user">amoeba</property>
-
- <property name="password">123456</property>
-
- <property name="filter">
- <bean class="com.meidusa.amoeba.server.IPAccessController">
- <property name="ipFile">${amoeba.home}/conf/access_list.conf</property>
- </bean>
- </property>
- </bean>
- </property>
-
- </service>
-
- <!-- server class must implements com.meidusa.amoeba.service.Service -->
- <service name="Amoeba Monitor Server" class="com.meidusa.amoeba.monitor.MonitorServer">
- <!-- port -->
- <!-- default value: random number
- <property name="port">9066</property>
- -->
- <!-- bind ipAddress -->
- <property name="ipAddress">127.0.0.1</property>
- <property name="daemon">true</property>
- <property name="manager">${clientConnectioneManager}</property>
- <property name="connectionFactory">
- <bean class="com.meidusa.amoeba.monitor.net.MonitorClientConnectionFactory"></bean>
- </property>
-
- </service>
-
- <runtime class="com.meidusa.amoeba.mysql.context.MysqlRuntimeContext">
- <!-- proxy server net IO Read thread size -->
- <property name="readThreadPoolSize">20</property>
-
- <!-- proxy server client process thread size -->
- <property name="clientSideThreadPoolSize">30</property>
-
- <!-- mysql server data packet process thread size -->
- <property name="serverSideThreadPoolSize">30</property>
-
- <!-- per connection cache prepared statement size -->
- <property name="statementCacheSize">500</property>
-
- <!-- query timeout( default: 60 second , TimeUnit:second) -->
- <property name="queryTimeout">60</property>
- </runtime>
-
- </proxy>
-
- <!--
- Each ConnectionManager will start as thread
- manager responsible for the Connection IO read , Death Detection
- -->
- <connectionManagerList>
- <connectionManager name="clientConnectioneManager" class="com.meidusa.amoeba.net.MultiConnectionManagerWrapper">
- <property name="subManagerClassName">com.meidusa.amoeba.net.ConnectionManager</property>
- <!--
- default value is avaliable Processors
- <property name="processors">5</property>
- -->
- </connectionManager>
- <connectionManager name="defaultManager" class="com.meidusa.amoeba.net.MultiConnectionManagerWrapper">
- <property name="subManagerClassName">com.meidusa.amoeba.net.AuthingableConnectionManager</property>
-
- <!--
- default value is avaliable Processors
- <property name="processors">5</property>
- -->
- </connectionManager>
- </connectionManagerList>
-
- <!-- default using file loader -->
- <dbServerLoader class="com.meidusa.amoeba.context.DBServerConfigFileLoader">
- <property name="configFile">${amoeba.home}/conf/dbServers.xml</property>
- </dbServerLoader>
-
- <queryRouter class="com.meidusa.amoeba.mysql.parser.MysqlQueryRouter">
- <property name="ruleLoader">
- <bean class="com.meidusa.amoeba.route.TableRuleFileLoader">
- <property name="ruleFile">${amoeba.home}/conf/rule.xml</property>
- <property name="functionFile">${amoeba.home}/conf/ruleFunctionMap.xml</property>
- </bean>
- </property>
- <property name="sqlFunctionFile">${amoeba.home}/conf/functionMap.xml</property>
- <property name="LRUMapSize">1500</property>
- <property name="defaultPool">master</property>
-
-
- <property name="writePool">master</property>
- <property name="readPool">slaves</property>
-
- <property name="needParse">true</property>
- </queryRouter>
- </amoeba:configuration>
修改另一个数据库配置文件
vim dbServers.xml


- #完整配置文件
-
- <?xml version="1.0" encoding="gbk"?>
-
- <!DOCTYPE amoeba:dbServers SYSTEM "dbserver.dtd">
- <amoeba:dbServers xmlns:amoeba="http://amoeba.meidusa.com/">
-
- <!--
- Each dbServer needs to be configured into a Pool,
- If you need to configure multiple dbServer with load balancing that can be simplified by the following configuration:
- add attribute with name virtual = "true" in dbServer, but the configuration does not allow the element with name factoryConfig
- such as 'multiPool' dbServer
- -->
-
- <dbServer name="abstractServer" abstractive="true">
- <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
- <property name="manager">${defaultManager}</property>
- <property name="sendBufferSize">64</property>
- <property name="receiveBufferSize">128</property>
-
- <!-- mysql port -->
- <property name="port">3306</property>
-
- <!-- mysql schema -->
- <property name="schema">test</property>
-
- <!-- mysql user -->
- <property name="user">amoeba</property>
-
- <!-- mysql password -->
- <property name="password">123456</property>
-
- </factoryConfig>
-
- <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
- <property name="maxActive">500</property>
- <property name="maxIdle">500</property>
- <property name="minIdle">10</property>
- <property name="minEvictableIdleTimeMillis">600000</property>
- <property name="timeBetweenEvictionRunsMillis">600000</property>
- <property name="testOnBorrow">true</property>
- <property name="testOnReturn">true</property>
- <property name="testWhileIdle">true</property>
- </poolConfig>
- </dbServer>
-
- <dbServer name="master" parent="abstractServer">
- <factoryConfig>
- <!-- mysql ip -->
- <property name="ipAddress">192.168.130.15</property>
- </factoryConfig>
- </dbServer>
-
- <dbServer name="slave1" parent="abstractServer">
- <factoryConfig>
- <!-- mysql ip -->
- <property name="ipAddress">192.168.130.200</property>
- </factoryConfig>
- </dbServer>
-
- <dbServer name="slave2" parent="abstractServer">
- <factoryConfig>
- <!-- mysql ip -->
- <property name="ipAddress">192.168.130.201</property>
- </factoryConfig>
- </dbServer>
-
- <dbServer name="slaves" virtual="true">
- <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
- <!-- Load balancing strategy: 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
- <property name="loadbalance">1</property>
-
- <!-- Separated by commas,such as: server1,server2,server1 -->
- <property name="poolNames">slave1,slave2</property>
- </poolConfig>
- </dbServer>
-
- </amoeba:dbServers>
启动amoeba服务
/usr/local/amoeba/bin/amoeba start & #后台启动

netstat -napt | grep java #查看端口
![]()
代表amoeba服务成功启动了
这里的测试端我们另起了一台服务器192.168.130.102
- #安装mariadb
- yum install mariadb -y
-
-
- #远程登陆amoeba服务器
- mysql -uamoeba -p123456 -h 192.1168.130.10 -P8066


amoeba服务端的报错
- java.lang.Exception: poolName=slaves, no valid pools
- at com.meidusa.amoeba.net.poolable.MultipleLoadBalanceObjectPool.borrowObject(MultipleLoadBalanceObjectPool.java:183)
- at com.meidusa.amoeba.mysql.handler.CommandMessageHandler.startSession(CommandMessageHandler.java:633)
- at com.meidusa.amoeba.mysql.handler.MySqlCommandDispatcher.handleMessage(MySqlCommandDispatcher.java:123)
- ......
原因:
amoeba的数据库文件第23行,这里默认对应的MySQL库为text,我这里使用的MySQL版本为5.7版本,默认的库为mysql,所以找不到默认的库,我之前搭建的MySQL版本是5.5是不需要修改的,没注意到这一点
所以我们去修改一下就行
vim /usr/local/amoeba/conf/dbServers.xml

重启一下就行
在客户端中新建表然后去主数据库查看是否同步
- MySQL [(none)]> show databases;
- +--------------------+
- | Database |
- +--------------------+
- | information_schema |
- | mysql |
- | performance_schema |
- | sys |
- | yy |
- +--------------------+
- 5 rows in set (0.00 sec)
-
- MySQL [(none)]> use yy
- No connection. Trying to reconnect...
- Connection id: 2010296347
- Current database: *** NONE ***
-
- Database changed
- MySQL [yy]> show tables; #这时的yy库中没有任何东西
- Empty set (0.01 sec)
-
- MySQL [yy]> create table info(id int(3)); #我们给它创建一个info表
- Query OK, 0 rows affected (0.01 sec)
-
- MySQL [yy]> show tables; #查看一下
- +--------------+
- | Tables_in_yy |
- +--------------+
- | info |
- +--------------+
- 1 row in set (0.00 sec)

再去主服务器查看
创建成功了 ,这里证明通过代理可以连入数据库
我们先将两台从服务器的同步关掉
- #进入数据库
- stop slave;

两台同步全关了
- #客户端
- show tables;
- insert into info values(5); #插入一条数据
- select * from info;
当我们将从服务器同步打开
start slave;
然后再看客户端

因为我们读的话只会读取从服务器,主服务器只作为写,这里真正展示了读写的区别
我们关闭slave2的同步
在客户端添加一条数据,然后查看
